Alexa, Amazons virtuelle assistent, tolker brukerens følelser gjennom flere teknologier og strategier, selv om dens evne til nøyaktig å oppdage og forstå komplekse følelser fortsatt er begrenset.
Følelsesmessig uttrykk av Alexa
Alexa kan uttrykke følelser ved bruk av nevrale tekst-til-tale (NTTS) teknologi, som lar den produsere mer naturlig klingende tale. Denne teknologien gjør det mulig for Alexa å svare med følelser som lykke eller skuffelse, skreddersydd til spesifikke kontekster som spill eller sport. For eksempel kan Alexa bruke en lykkelig tone når en bruker svarer på et trivia -spørsmål riktig eller en skuffet tone når en brukers favorittidrettslag taper [1] [9].
Følelsesdeteksjon av Alexa
Amazon har jobbet med å styrke Alexas evne til å oppdage brukere følelser. Dette innebærer å analysere tonehøyde og volum av stemmekommandoer for å gjenkjenne følelser som lykke, sinne eller tristhet. En patentert teknologi tar sikte på å bruke denne emosjonelle analysen for å gi mer personaliserte svar eller anbefalinger, for eksempel å foreslå en oppskrift basert på brukerens emosjonelle tilstand [2] [4].
Eksperter bemerker imidlertid at AI følelsesgjenkjenningssystemer, inkludert Alexa, står overfor betydelige utfordringer med å tolke nyansene i menneskelige følelser nøyaktig. Disse systemene er ofte avhengige av forenklede assosiasjoner mellom vokale signaler og følelser, noe som kan føre til feiltolkninger [10]. For eksempel kan en brukers tone formidle frustrasjon, men systemet forstår kanskje ikke helt konteksten eller finessene til menneskelige følelser som sarkasme eller ironi.
Framtidig utvikling
Amazon fortsetter å investere i å forbedre Alexas emosjonelle intelligens. Nyere fremskritt inkluderer integrering av generativ AI i Alexa, som potensielt kan forbedre dens evne til å forstå og svare på brukerne mer empatisk [5] [8]. Imidlertid forblir påliteligheten og dybden av følelsesgjenkjenning områder med pågående forskning og utvikling.
Oppsummert, mens Alexa kan uttrykke følelser og har noen evner til å oppdage dem, er dens evne til å tolke og forstå brukerens følelser fullt ut utvikle seg og står overfor betydelige tekniske og konseptuelle utfordringer.
Sitasjoner:[1] https://www.geekwire.com/2019/alexa-emotional-amazon-created-realist-new-ale- voice-tones-assistant/
[2] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-detection-ai-surveillance/572884/
[3] https://www.mdpi.com/2071-1050/16/7/2721
[4] https://www.thedailyupside.com/technology/big-tech/patent-drop-watch-your-tone-around-alexa/
[5] https://www.nytimes.com/2025/02/26/technology/amazon-lexa-plus-generative-ai.html
[6] https://research.wu.ac.at/files/26745176/a%20Value-baserte%20perspective%20on%20User%20Experience%20-%20How%20alexa_s%20Value%20Dispositions%20Elicit%20Emotional%20value%20Dispositions%20Elicit%20Emotional/
[7] https://www.technologyreview.com/2016/06/13/159665/amazon-working-on-making-lexa-recognize-your-emotions/
[8] https://www.aboutamazon.com/news/devices/new-alexa-tech-generative-artificial-intelligence
[9] https://developer.amazon.com/en-us/blogs/alexa/alexa-slills-kit/2019/11/new-alexa-emotions-and-speaking-styles
[10] https://www.nyu.edu/about/news-publications/news/2023/december/alexa-am-i-happy-whow-ai-emotion-recognition-falls-thort.html