Alexa wykorzystuje kilka technologii do analizy i reagowania na emocje użytkowników, chociaż nie jest specjalnie zaprojektowana jako system inteligencji emocjonalnej AI. Oto niektóre z kluczowych technologii:
1. Analiza głosu: Zespół Alexy pracuje nad analizą dźwięku głosów użytkowników w celu rozpoznania ich nastroju lub stanu emocjonalnego. Obejmuje to wykrywanie zmian w skoku, objętości i tonie, aby wywnioskować emocje, takie jak szczęście, gniew lub smutek [1] [9]. Firma złożyła patenty na technologię, które mogą monitorować emocje użytkowników poprzez analizę wysokości i objętości poleceń głośników [9].
2 Technologię tę można wykorzystać do personalizacji odpowiedzi w oparciu o stan emocjonalny użytkownika [4].
3. Technologia tekstu neuronowego do mowy (NTTS): Alexa używa NTTS, aby umożliwić bardziej naturalnie brzmiącą mowę. Deweloperzy mogą zaprogramować Alexę na reagowanie emocjami, takimi jak szczęście lub empatia za pomocą określonych tagów SSML. Na przykład Alexa może odpowiedzieć podekscytowanym tonem, gdy użytkownik wygrywa grę lub rozczarowany ton, gdy ich ulubiony zespół przegra [10].
4. Gadżet rozpoznawania emocji: Amazon testuje urządzenie do noszenia, pokonne Dylana, które rozpoznaje ludzkie emocje poprzez głos i mikrofony. To urządzenie ma na celu poprawę interakcji z innymi poprzez wykrywanie stanów emocjonalnych [7].
5. Współpraca z firmami wykrywania emocji: Amazon był zainteresowany integracją technologii z firm takich jak AffflAiva, która analizuje mowę pod kątem emocji, takich jak śmiech, gniew i pobudzenie. Technologia Afffaliva może zapewnić głębszy wgląd w ludzkie wyrażenia emocjonalne poprzez analizę paralingwistyki, tonu, głośności, tempa i jakości głosu [1] [7].
Technologie te są częścią szerszych wysiłków Amazon w celu zwiększenia zdolności Alexy do zrozumienia i reagowania użytkownikom bardziej empatycznie, potencjalnie prowadzącym do bardziej spersonalizowanych i angażujących interakcji.
Cytaty:[1] https://venturebeat.com/ai/amazons-alexa-wants-to-loarn-more-about-your-felings/
[2] https://www.researchgate.net/publication/388890260_beyond_voice_recognition_integrating_alexa's_emotional_intelligence_ i_chatgpt's_language_processing_for_efl_learners'_development_and_anxiety_redukcja _-_ a_comparative_analysis/pobierz
[3] https://www.mdpi.com/2071-1050/16/7/2721
[4] https://www.thedailyUpside.com/technology/big-tech/patent-drop-watch-your-tone-around-alexa/
[5] https://www.nytimes.com/2025/02/26/technology/amazon-alexa-plus-generative-ai.html
[6] https://www.amazon.science/latest-news/the-engineering-behind-alexas-contextual-speech-recognition
[7] https://voicebot.ai/2019/05/28/amazon-testing-emotion-recognition-gadget/
[8] https://www.linkedin.com/pulse/amazons-ai-reboot-how-nlu-enhancements-paping-alexas-carlin-nulze
[9] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-detection-ai-surveillance/572884/
[10] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-alexa-emotions-and-speaking-styles
[11] https://www.technologyreview.com/2016/06/13/159665/amazon-working-on-making-alexa-recognize-your-emotions/