La capacità di Alexa di rilevare le emozioni fa parte degli sforzi in corso di Amazon per migliorare l'intelligenza emotiva del suo assistente virtuale. L'accuratezza di Alexa nel rilevare le emozioni è stata migliorata attraverso vari aggiornamenti e iniziative di ricerca.
Accuratezza e tecniche attuali
Amazon ha lavorato sullo sviluppo di algoritmi in grado di analizzare il tono e il volume dei comandi vocali per identificare emozioni come felicità, tristezza, rabbia e altri [2] [7]. Nel 2019, i ricercatori di Amazon hanno sviluppato un nuovo sistema di intelligenza artificiale auto-insegnante che era il tre percento più accurato rispetto agli algoritmi convenzionali nel determinare le emozioni dalle frasi. Quando si analizzano i pezzi vocali di 20 millisecondi, il nuovo sistema ha mostrato un miglioramento del quattro percento [1].
Tuttavia, l'accuratezza complessiva del rilevamento delle emozioni di Alexa non è esplicitamente dichiarata in questi rapporti. La tecnologia si sta ancora evolvendo e, sebbene mostri promesse, non è ancora efficace come il riconoscimento delle emozioni umane.
potenziali applicazioni e limitazioni
L'obiettivo di migliorare l'intelligenza emotiva di Alexa è consentirgli di rispondere in modo più empatico e appropriato ai comandi dell'utente. Ad esempio, se Alexa rileva che un utente si sente male in base alla propria voce, potrebbe suggerire contenuti o servizi pertinenti [2]. Tuttavia, la tecnologia non è priva di sfide, comprese le preoccupazioni sulla privacy e il potenziale per la pubblicità mirata basata su stati emotivi [2].
confronto con il riconoscimento delle emozioni umane
Gli esseri umani sono generalmente più accurati nel riconoscere le emozioni, con una precisione media di circa il 90% nell'interpretazione delle espressioni facciali [4]. Al contrario, anche il software di riconoscimento delle emozioni facciali più avanzato raggiunge una precisione di circa il 75% all'80% [4]. Mentre il rilevamento delle emozioni basato sulla voce di Alexa non si confronta direttamente al riconoscimento facciale, deve affrontare sfide simili per raggiungere un'elevata precisione.
sviluppi futuri
Amazon continua a investire nel migliorare l'intelligenza emotiva di Alexa attraverso l'elaborazione avanzata del linguaggio naturale e le tecniche di apprendimento automatico [7]. Man mano che queste tecnologie si evolvono, possiamo aspettarci che Alexa diventi più abile nel comprendere e rispondere alle emozioni umane, portando potenzialmente a interazioni più personalizzate ed empatiche con gli utenti.
Citazioni:[1] https://futurism.com/the-byte/amazon-alexa-analyzing-emotions
[2] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-dection-ai-surveillance/572884/
[3] https://pmc.ncbi.nlm.nih.gov/articles/pmc10548207/
[4] https://www.morphcast.com/blog/accuracy-facial-emotion-recognition-fer/
[5] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2020/11/alexa-speaking-styles-emotions-now-available-additional-lingages
[6] https://www.mdpi.com/2071-1050/16/7/2721
[7] https://www.technologyreview.com/2016/06/13/159665/amazon-working-on-making-alexa-recognize-your-emotions/
[8] https://venturebeat.com/ai/amazons-alexa-may-soon-know-if-youre-happy-or-sad/
[9] https://bearworks.missouristate.edu/theses/3761/