Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Hvilke spesifikke teknologier bruker Alexa for å analysere følelser


Hvilke spesifikke teknologier bruker Alexa for å analysere følelser


Alexa bruker flere teknologier for å analysere og svare på brukere følelser, selv om det ikke er spesielt designet som et emosjonelt intelligens AI -system. Her er noen av de viktigste teknologiene involvert:

1. Stemmeanalyse: Alexas team jobber med å analysere lyden av brukernes stemmer for å gjenkjenne humøret eller emosjonell tilstand. Dette innebærer å oppdage endringer i tonehøyde, volum og tone for å utlede følelser som lykke, sinne eller tristhet [1] [9]. Selskapet har sendt inn patenter for teknologi som kan overvåke brukernes følelser ved å analysere tonehøyde og volum av høyttalerkommandoer [9].

2. Akustisk og leksikalsk informasjon: Amazon utvikler et system for følelsesdeteksjon som bruker både akustisk informasjon (for eksempel tone og volum) og leksikalsk informasjon (de faktiske ordene som er talt) for å bestemme følelsen av en ytring. Denne teknologien kan brukes til å tilpasse svar basert på brukerens emosjonelle tilstand [4].

3. NEURAL TEXT-TO-SPECH (NTTS) Teknologi: Alexa bruker NTTS for å muliggjøre mer naturlig klingende tale. Utviklere kan programmere Alexa for å svare med følelser som lykke eller empati ved hjelp av spesifikke SSML -tagger. For eksempel kan Alexa svare i en spent tone når en bruker vinner et spill eller i en skuffet tone når favorittlaget deres taper [10].

4. Følelsesgjenkjenningsgadget: Amazon har testet en bærbar enhet, kodenavnet Dylan, som gjenkjenner menneskelige følelser gjennom stemme og mikrofoner. Denne enheten tar sikte på å forbedre interaksjonen med andre ved å oppdage emosjonelle tilstander [7].

5. Samarbeid med følelsesdeteksjonsselskaper: Amazon har vært interessert i å integrere teknologier fra selskaper som affectiva, som analyserer tale for følelser som latter, sinne og opphisselse. Affectivas teknologi kan gi dypere innsikt i menneskelige emosjonelle uttrykk ved å analysere paralinguistics, tone, lydstyrke, tempo og stemmekvalitet [1] [7].

Disse teknologiene er en del av Amazons bredere innsats for å styrke Alexas evne til å forstå og svare på brukerne mer empatisk, og potensielt føre til mer personaliserte og engasjerende interaksjoner.

Sitasjoner:
[1] https://venturebeat.com/ai/amazons-lexa-wants-to-learn-more-about-your-feelings/
[2] https://www.researchgate.net/publication/388890260_beyond_voice_recognition_integrating_alexa's_emotional_intelligence_ and_chatgpt's_language_processing_for_fl_learners'_development_and_anxiety_reduction _-_ a_comparative_analysis/nedlasting
[3] https://www.mdpi.com/2071-1050/16/7/2721
[4] https://www.thedailyupside.com/technology/big-tech/patent-drop-watch-your-tone-around-alexa/
[5] https://www.nytimes.com/2025/02/26/technology/amazon-lexa-plus-generative-ai.html
[6] https://www.amazon.science/latest-news/the-motoring-blehind-alexas-contextual-speech-recognition
[7] https://voicebot.ai/2019/05/28/amazon-testing-emotion-recognition-gadget/
[8] https://www.linkedin.com/pulse/amazons-ai-reboot-how-nlu-thancements-saping-alexas-tony-carlin-nulze
[9] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-detection-ai-surveillance/572884/
[10] https://developer.amazon.com/en-us/blogs/alexa/alexa-slills-kit/2019/11/new-alexa-emotions-and-speaking-styles
[11] https://www.technologyreview.com/2016/06/13/159665/amazon-working-on-making-lexa-recognize-your-emotions/