Alexas Fähigkeit, Emotionen zu erkennen, ist Teil der laufenden Bemühungen von Amazon, die emotionale Intelligenz seines virtuellen Assistenten zu verbessern. Die Genauigkeit von Alexa bei der Erkennung von Emotionen wurde durch verschiedene Aktualisierungen und Forschungsinitiativen verbessert.
Aktuelle Genauigkeit und Techniken
Amazon hat an der Entwicklung von Algorithmen gearbeitet, die die Tonhöhe und das Volumen der Sprachbefehle analysieren können, um Emotionen wie Glück, Traurigkeit, Wut und andere zu identifizieren [2] [7]. Im Jahr 2019 entwickelten Amazon-Forscher ein neues KI-System für Selbstunterricht, das drei Prozent genauer war als herkömmliche Algorithmen bei der Bestimmung von Emotionen aus Sätzen. Bei der Analyse von Sprachbrocken von 20 Millisekunden zeigte das neue System eine Verbesserung von vier Prozent [1].
Die allgemeine Genauigkeit der Emotionserkennung von Alexa wird in diesen Berichten jedoch nicht ausdrücklich angegeben. Die Technologie entwickelt sich immer noch weiter, und obwohl sie vielversprechend ist, ist sie noch nicht so effektiv wie menschliche Emotionserkennung.
potenzielle Anwendungen und Einschränkungen
Das Ziel, die emotionale Intelligenz von Alexa zu verbessern, ist es, die Benutzerbefehle einfühlsamer und angemessener zu reagieren. Wenn Alexa beispielsweise feststellt, dass sich ein Benutzer aufgrund seiner Stimme unwohl fühlt, kann dies relevante Inhalte oder Dienste vorschlagen [2]. Die Technologie ist jedoch nicht ohne Herausforderungen, einschließlich der Datenschutzbedenken und des Potenzials für gezielte Werbung, die auf emotionalen Zuständen basiert [2].
Vergleich mit der Erkennung menschlicher Emotionen
Menschen sind im Allgemeinen genauer, um Emotionen zu erkennen, mit einer durchschnittlichen Genauigkeit von etwa 90% bei der Interpretation von Gesichtsausdrücken [4]. Im Gegensatz dazu erreicht die fortschrittlichste Software zur Erkennung von Gesichtsemotionen eine Genauigkeit von rund 75% bis 80% [4]. Während Alexas sprachbasierte Emotionserkennung nicht direkt mit der Gesichtserkennung vergleichbar ist, steht es jedoch mit ähnlichen Herausforderungen bei der Erzielung einer hohen Genauigkeit.
zukünftige Entwicklungen
Amazon investiert weiterhin in die Verbesserung der emotionalen Intelligenz von Alexa durch fortschrittliche Verarbeitung natürlicher Sprache und maschinelles Lerntechniken [7]. Während sich diese Technologien entwickeln, können wir erwarten, dass Alexa menschliche Emotionen besser versteht und reagiert, was möglicherweise zu personalisierteren und einfühlsameren Interaktionen mit Benutzern führt.
Zitate:[1] https://futurism.com/the-yte/amazon-alexa-analyzing-emotions
[2] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-dektection-ai-surveillance/572884/
[3] https://pmc.ncbi.nlm.nih.gov/articles/pmc10548207/
[4] https://www.morphcast.com/blog/accuracy-facial-emotion-recognition-fer/
[5] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2020/11/alexa-speaking-styles-emotions-now-available-additional-languages
[6] https://www.mdpi.com/2071-1050/16/7/2721
[7] https://www.technologyreview.com/2016/06/13/159665/amazon-working-on-making-alexa-recognize-your-emotions/
[8] https://venturebeat.com/ai/amazons-alexa-may-soon-if-youre-happy-or-sad/
[9] https://bearworks.missouristate.edu/thesen/3761/