Możliwości rozpoznawania emocji i reakcji Alexy ewoluują, zarówno wbudowane funkcje, jak i potencjał dostosowywania za pośrednictwem narzędzi programistycznych. Oto szczegółowy przegląd tego, w jaki sposób rozpoznawanie emocji Alexa można dostosować lub spersonalizować:
Wbudowane rozpoznawanie emocji i reakcja
1. Wysiłki wykrywania emocji: Amazon pracuje nad umożliwieniem Alexa rozpoznawania emocji od głosów użytkowników. Obejmuje to analizę dźwięku głosów użytkowników w celu zidentyfikowania ich nastroju lub stanu emocjonalnego, co może prowadzić do bardziej spersonalizowanych interakcji [1] [5]. Jednak ta zdolność jest nadal w rozwoju i nie jest w pełni zintegrowana z obecnymi urządzeniami Alexa.
2. Symulowane reakcje emocjonalne: Twórcy Alexa mogą używać nowych funkcji, aby wstrzykiwać emocje w odpowiedzi Alexa. To pozwala Alexa brzmieć szczęśliwym, podekscytowanym lub smutnym i empatycznym, z trzema poziomami intensywności dla każdej emocji. Te reakcje emocjonalne są szczególnie przydatne w umiejętnościach związanych z grami i sportem [2] [4]. Deweloperzy używają technologii neuronowej tekstu na mowę (NTTS) Amazon, aby stworzyć te emocjonalne tony, dzięki czemu Alexa brzmi bardziej naturalnie i podobne do człowieka.
Dostosowywanie i personalizacja
1. Narzędzia programisty: programiści mogą dostosowywać reakcje emocjonalne Alexa za pomocą tagów SSML (język znaczników syntezowych mowy). Na przykład mogą określić emocje, takie jak „podekscytowany” lub „rozczarowany” o różnym poziomie intensywności (niski, średni, wysoki), aby dopasować kontekst interakcji [4]. Pozwala to programistom dostosować odpowiedzi Alexy do określonych scenariuszy, zwiększając zaangażowanie użytkowników.
2. Personalizacja dla uznanych mówców: Chociaż nie jest to bezpośrednio związane z rozpoznawaniem emocji, Alexa może zapewnić spersonalizowane doświadczenia dla uznanych mówców. Umiejętności mogą być zaprojektowane tak, aby oferować spersonalizowane pozdrowienia i podpowiedzi na podstawie tożsamości głośnika, która wymaga zgody i konfiguracji użytkownika w aplikacji Alexa [3] [6]. Ta personalizacja może pośrednio wpływać na to, w jaki sposób Alexa wchodzi w interakcje z użytkownikami emocjonalnie, dostosowując się do ich preferencji i nawyków.
3. Przyszłe zmiany: Amazon bada technologie, które mogłyby dodatkowo spersonalizować interakcje Alexa w oparciu o emocje użytkowników. Na przykład proponowany system wykrywania nastrojów w danych wejściowych audio może pozwolić Alexa odpowiedzieć na podstawie emocjonalnego tonu głosu użytkownika [5]. Może to prowadzić do bardziej dynamicznych i empatycznych interakcji w przyszłości.
Podsumowując, podczas gdy rozpoznawanie emocji Alexy nie jest jeszcze w pełni konfigurowalne przez użytkowników, programiści mają narzędzia do tworzenia bardziej emocjonalnie responsywnych interakcji. Przyszłe zmiany mają na celu zwiększenie zdolności Alexy do skuteczniejszego rozumienia emocji użytkownika.
Cytaty:[1] https://venturebeat.com/ai/amazons-alexa-wants-to-loarn-more-about-your-felings/
[2] https://voicebot.ai/2019/11/27/alexa-is-learning-to-speak-emotionally/
[3] https://developer.amazon.com/en-us/docs/alexa/custom-skills/add-personalizację-to-your-skill.html
[4] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-alexa-emotions-and-speaking-styles
[5] https://www.thedailyUpside.com/technology/big-tech/patent-drop-watch-your-tone-around-alexa/
[6] https://developer.amazon.com/en-us/docs/alexa/custom-skills/personalizacja-and-account-linking.html
[7] https://www.youtube.com/watch?v=cwrjpj8gjkq
[8] https://www.youtube.com/watch?v=h47zptv2uaa
[9] https://www.amazon.science/blog/alexa-unveils-new-sPeech-recognition-Text-to-Meech-technologies