Alexa bruger flere teknologier til at analysere og reagere på brugerfølelser, selvom det ikke specifikt er designet som et følelsesmæssigt intelligens AI -system. Her er nogle af de vigtigste teknologier involveret:
1. Stemmeanalyse: Alexas team arbejder på at analysere lyden af brugernes stemmer for at genkende deres humør eller følelsesmæssige tilstand. Dette involverer detektering af ændringer i tonehøjde, volumen og tone for at udlede følelser som lykke, vrede eller tristhed [1] [9]. Virksomheden har indgivet patenter til teknologi, der kan overvåge brugernes følelser ved at analysere tonehøjden og volumen af højttalerkommandoer [9].
2. Akustisk og leksikalsk information: Amazon udvikler et system til følelsesdetektion, der bruger både akustisk information (såsom tone og volumen) og leksikale oplysninger (de faktiske ord, der er talt) til at bestemme stemningen om en ytring. Denne teknologi kan bruges til at tilpasse svar baseret på brugerens følelsesmæssige tilstand [4].
3. Neural Text-to-Speech (NTTS) -teknologi: Alexa bruger NTT'er for at muliggøre mere naturlig-klingende tale. Udviklere kan programmere Alexa til at reagere med følelser som lykke eller empati ved hjælp af specifikke SSML -tags. For eksempel kan Alexa reagere i en ophidset tone, når en bruger vinder et spil eller i en skuffet tone, når deres yndlingshold mister [10].
4. Emotion Recognition Gadget: Amazon har testet en bærbar enhed, kodenavnet Dylan, der genkender menneskelige følelser gennem stemme og mikrofoner. Denne enhed sigter mod at forbedre interaktioner med andre ved at opdage følelsesmæssige tilstande [7].
5. Samarbejde med følelsesdetektionsfirmaer: Amazon har været interesseret i at integrere teknologier fra virksomheder som Affectiva, der analyserer tale for følelser som latter, vrede og ophidselse. Affektivas teknologi kan give dybere indsigt i menneskelige følelsesmæssige udtryk ved at analysere paralinguistik, tone, lydstyrke, tempo og stemmekvalitet [1] [7].
Disse teknologier er en del af Amazons bredere indsats for at forbedre Alexas evne til at forstå og reagere på brugere mere empatisk, hvilket potentielt fører til mere personaliserede og engagerende interaktioner.
Citater:)
[2] https://www.researchgate.net/publication/388890260_beyond_voice_recognition_integrating_alexa's_emotional_intelligence_ and_chatgpt's_language_processing_for_efl_learners'_development_and_anxiety_reduction _-_ A_Comparative_Analysis/Download
[3] https://www.mdpi.com/2071-1050/16/7/2721
)
[5] https://www.nytimes.com/2025/02/26/technology/amazon-aexa-plus-generative-i.html
)
[7] https://voiceBot.ai/2019/05/28/amazon-test-emotion-gencognition-gadget/
[8] https://www.linkedin.com/pulse/amazons-i-reboot-how-nlu-forstærkninger-alexas-tony-carlin-nulze
[9] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-detection-i-urveillance/572884/
[10] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-axa-emotions-and-taling-styles
)