Technologia wykrywania emocji Alexa, opracowana przez Amazon, koncentruje się przede wszystkim na analizie wkładów głosowych w celu ustalenia stanów emocjonalnych. Osiąga się to za pomocą zaawansowanych algorytmów, które oceniają wysokość, objętość i ton głosu w celu zidentyfikowania emocji, takich jak szczęście, gniew lub smutek [1] [7]. Podczas gdy inne systemy rozpoznawania emocji, takie jak Affictiva, Google Vision API i Microsoft Emotion API, często polegają na wyrazie twarzy i mowie ciała Oprócz analizy głosu, podejście Alexy jest bardziej skoncentrowane na interakcjach głosowych [2] [3] [4].
Kluczowe różnice
1. Modalności wejściowe:
- Alexa: Przede wszystkim wykorzystuje analizę głosu, wykorzystując mikrofony i oprogramowanie do rozpoznania głosu do wykrywania stanów emocjonalnych [4] [7].
- Inne systemy: Często zawierają wiele metod, takich jak wyraz twarzy, język ciała i analiza tekstu. Na przykład aughtiva wykorzystuje algorytmy twarzy i analizę mowy, podczas gdy Google Vision API koncentruje się na wskazówkach wizualnych [2] [3] [8].
2. Zastosowanie i integracja:
- Alexa: Zintegrowana z inteligentnymi urządzeniami domowymi i asystentami głosowymi, mając na celu poprawę interakcji użytkownika poprzez odpowiednie reagowanie na wskazówki emocjonalne [1] [9].
- Inne systemy: szeroko stosowane w różnych sektorach, w tym reklamie, edukacji i motoryzacyjnej. Na przykład technologia Affectiva jest wykorzystywana w ustawieniach motoryzacyjnych do monitorowania emocji sterownika [3] [4].
3. Podejście technologiczne:
- Alexa: Wykorzystuje autokrytację algorytmów AI, które poprawiają się z czasem, zwiększając dokładność wykrywania emocji [1]. Stosuje również technologię Neural TTS (NTTS) do bardziej naturalnie brzmiących reakcji emocjonalnych [9].
- Inne systemy: mogą stosować różne modele AI i techniki uczenia maszynowego. Na przykład interfejs API emocji Microsoft wykazał wysoką precyzję w wykrywaniu określonych emocji, takich jak strach [2].
4. Przypadki celu i użycia:
- Alexa: Głównie miał na celu poprawę doświadczenia użytkownika poprzez spersonalizowane interakcje. Może dostosowywać odpowiedzi oparte na wykrytych emocjach, takie jak oferowanie uspokajającej treści, gdy użytkownik brzmi zirytowany [3] [7].
- Inne systemy: często wykorzystywane do szerszych aplikacji, takich jak badania rynku, reklama ukierunkowana, a nawet sondaż polityczny [4] [8].
Podsumowując, podczas gdy wykrywanie emocji Alexa jest przede wszystkim zorientowane na głos i koncentruje się na ulepszaniu interakcji użytkowników, inne systemy są bardziej zróżnicowane w swoich metodach i zastosowaniach, odzwierciedlając szerszy zakres przypadków użycia w różnych branżach.
Cytaty:[1] https://futurism.com/the-bite/amazon-alexa-analyzing-emotions
[2] https://www.aies-conference.com/2019/wp-content/papers/main/aies-19_paper_161.pdf
[3] https://thenextweb.com/news/emotion-detecting-technology-is-everywheree-but-its-of-date
[4] https://voicebot.ai/2019/05/28/amazon-testing-emotion-recognition-gadget/
[5] https://scholarworks.uno.edu/cgi/viewcontent.cgi?article=4347&context=td
[6] https://www.mdpi.com/2071-1050/16/7/2721
[7] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-detection-ai-surveillance/572884/
[8] https://brand24.com/blog/emotion-detection-software/
[9] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-alexa-emotions-and-speaking-styles