La capacidad de Alexa para detectar las emociones es parte de los esfuerzos continuos de Amazon para mejorar la inteligencia emocional de su asistente virtual. La precisión de Alexa en la detección de emociones se ha mejorado a través de varias actualizaciones e iniciativas de investigación.
Precisión y técnicas actuales
Amazon ha estado trabajando en el desarrollo de algoritmos que pueden analizar el tono y el volumen de los comandos de voz para identificar emociones como la felicidad, la tristeza, la ira y otros [2] [7]. En 2019, los investigadores de Amazon desarrollaron un nuevo sistema de inteligencia artificial que era tres por ciento más preciso que los algoritmos convencionales para determinar las emociones de las oraciones. Al analizar fragmentos de voz de 20 milisegundos, el nuevo sistema mostró una mejora del cuatro por ciento [1].
Sin embargo, la precisión general de la detección de emociones de Alexa no se establece explícitamente en estos informes. La tecnología sigue evolucionando, y aunque es prometedor, aún no es tan efectiva como el reconocimiento de emociones humanas.
Aplicaciones y limitaciones potenciales
El objetivo de mejorar la inteligencia emocional de Alexa es permitirle responder de manera más empática y apropiada a los comandos de los usuarios. Por ejemplo, si Alexa detecta que un usuario se siente mal en función de su voz, podría sugerir contenido o servicios relevantes [2]. Sin embargo, la tecnología no está exenta de desafíos, incluidas las preocupaciones de privacidad y el potencial de publicidad dirigida basada en estados emocionales [2].
Comparación con el reconocimiento de emociones humanas
Los seres humanos son generalmente más precisos para reconocer las emociones, con una precisión promedio de aproximadamente el 90% al interpretar las expresiones faciales [4]. Por el contrario, incluso el software de reconocimiento de emociones faciales más avanzadas logra una precisión de alrededor del 75% al 80% [4]. Si bien la detección de emociones basada en la voz de Alexa no se compara directamente con el reconocimiento facial, enfrenta desafíos similares para lograr una alta precisión.
Desarrollos futuros
Amazon continúa invirtiendo en mejorar la inteligencia emocional de Alexa a través de técnicas avanzadas de procesamiento del lenguaje natural y aprendizaje automático [7]. A medida que evolucionan estas tecnologías, podemos esperar que Alexa se vuelva más experto en comprender y responder a las emociones humanas, lo que puede conducir a interacciones más personalizadas y empáticas con los usuarios.
Citas:[1] https://futurism.com/the-byte/amazon-alexa-analyzing-emotions
[2] https://www.theatlantic.com/technology/archive/2018/10/alex-emotion-detection-ai-surveillance/572884/
[3] https://pmc.ncbi.nlm.nih.gov/articles/pmc10548207/
[4] https://www.morphcast.com/blog/accuracy-facial-emotion-recognition-fer/
[5] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2020/11/alexa-spinging-styles-emotions-now-available-additional-languages
[6] https://www.mdpi.com/2071-1050/16/7/2721
[7] https://www.technologyreview.com/2016/06/13/159665/amazon-working-on-making-alexa-reconnize-your-emotions/
[8] https://venturebeat.com/ai/amazons-alexa-may-soon-know-if-youre-happy-or-sad/
[9] https://bearworks.missouristate.edu/theses/3761/