„Alexa“ emocijų aptikimo galimybės, skirtos pagerinti vartotojų sąveiką, kelia keletą privatumo problemų. Šie rūpesčiai yra daugialypiai ir apima ir pačią technologiją, ir platesnę išmaniųjų namų įrenginių ekosistemą bei trečiųjų šalių įgūdžius.
Privatumo susirūpinimas emocijų aptikimu
1. Duomenų rinkimas ir stebėjimas: Emocijų aptikimas apima balso modelių analizę, kuri gali būti laikoma stebėjimo forma. Tai kelia susirūpinimą dėl to, kas turi prieigą prie šių duomenų ir kaip jie naudojami. Pavyzdžiui, „Amazon“ gebėjimas analizuoti emocinių būsenų balso duomenis gali būti naudojamas tikslinei reklamai arba pasidalyti su trečiosiomis šalimis, kurios gali neatitikti vartotojų privatumo lūkesčių [2] [6].
2. Trečiųjų šalių įgūdžiai ir dalijimasis duomenimis: „Alexa“ ekosistema apima tūkstančius trečiųjų šalių įgūdžių, iš kurių daugelis gali pasiekti vartotojo duomenis. Yra rizika, kad šie įgūdžiai gali nesielgti su vartotojo duomenimis saugiai ar skaidriai, todėl gali būti neteisėta dalijimasis duomenimis ar netinkamai naudojamas [3] [7]. Tai ypač susiję su emocijų aptikimu, nes emociniai duomenys gali būti labai asmeniški ir jautrūs.
3. Klaidinanti privatumo politika: Tyrimai parodė, kad daugeliui „Alexa“ įgūdžių trūksta aiškios ar tikslios privatumo politikos, kuri gali klaidinti vartotojus, kaip naudojami jų duomenys. Dėl skaidrumo trūkumo vartotojams sunku priimti pagrįstus sprendimus dėl jų privatumo [3] [7].
4. Įrašyti pokalbiai: „Alexa“ įrenginiai įrašo ir parduotuvių pokalbius, kurie gali apimti emocines išraiškas. Nors vartotojai gali ištrinti šiuos įrašus, faktas, kad jie saugomi „Amazon“ serveriuose, kelia susirūpinimą dėl duomenų saugumo ir galimo netinkamo naudojimo [6].
5. Etikos pasekmės: AI naudojimas emocijų aptikimui taip pat kelia etinius klausimus apie sutikimą ir emocinio manipuliavimo galimybes. Vartotojai gali nevisiškai žinoti, kad analizuojamos jų emocijos arba kaip naudojama ši informacija, kuri gali panaikinti pasitikėjimą šiomis technologijomis [9].
Privatumo problemų mažinimas
Norint išspręsti šias problemas, galima naudoti keletą strategijų:
- Patobulintas skaidrumas: Aiški ir tiksli privatumo politika yra būtina norint informuoti vartotojus apie tai, kaip naudojami jų duomenys. „Amazon“ ir trečiųjų šalių kūrėjai turėtų užtikrinti, kad ši politika būtų išsami ir lengvai prieinama [3] [7].
- Duomenų apsaugos mechanizmai: Tvirtų duomenų apsaugos mechanizmų, tokių kaip šifravimas ir saugi saugykla, įgyvendinimas gali padėti apsaugoti vartotojo duomenis nuo neteisėtos prieigos [4].
- Vartotojo sutikimas: vartotojams turėtų būti suteiktos aiškios parinktys, kaip atsisakyti emocijų aptikimo ir dalijantis duomenimis. Tai leidžia jiems kontroliuoti, kaip naudojami jų asmeniniai duomenys [6].
- Reguliavimo priežiūra: Reguliavimo institucijos turėtų atlikti aktyvesnį vaidmenį užtikrinant, kad įmonės laikytųsi privatumo standartų ir efektyviai apsaugotų vartotojų duomenis [7].
Apibendrinant galima pasakyti, kad nors „Alexa“ emocijų aptikimo galimybės teikia potencialią naudą individualizuotos sąveikos prasme, jos taip pat kelia didelę riziką privatumui. Norint išspręsti šias problemas, reikia derinant technologinius sprendimus, skaidrią politiką ir reguliavimo priežiūrą.
Citatos:[1] https://womencourage.acm.org/2023/wp-content/uploads/2023/06/wencourage2023-Poseers Paper83.pdf
[2] https://voicebot.ai/2019/05/28/amazon-testing-emotion-recognition-gadget/
[3] https://news.ncsu.edu/2021/03/04/alexa-skill-vulnerability/
[4] https://arxiv.org/html/2211.09273v4
[5] https://www.nyu.edu/about/news-publications/news/2023/december/alexa-Am-i-happy-how-ai-EMotion-1-1-Falls-short.html
[6] https://nstp.org/memberarea/federaltaxalert/2023/7-ways-Alexa-and-amazon-echo-pose-a-Privacy-Risk
[7] https://eecs.ku.edu/discovering-privacy-cifliance-issues-oot-apps-and-alexa-skills-using- ai-and-Presenting -Mechanism
[8] https://www.technologyReview.com/2016/06/13/159665/amazon-working-oning-ming-lexa-pecognize-your-emotions/
[9] https://www.pymnts.com/artificial-intelligence-2/2024/ai-gets-better-at-reading-human-emotions-researchers-say/