Możliwości wykrywania emocji Alexy koncentrują się przede wszystkim na rozpoznawaniu i reagowaniu na stany emocjonalne użytkowników poprzez interakcje głosowe. Podczas gdy Alexa może przeanalizować dźwięk głosów użytkowników, aby rozpoznać ich nastrój lub stan emocjonalny, ta funkcja nie jest bezpośrednio zintegrowana z inteligentnymi scenami domowymi w sposób, który umożliwia dostosowanie oparte na wykrytych emocjach dla określonych scen [1].
Jednak Alexa oferuje funkcje, które pozwalają na dostosowanie inteligentnych scen domowych za pośrednictwem interfejsu Alexa.SseController. Ten interfejs umożliwia programistom tworzenie scen, które kontrolują wiele inteligentnych urządzeń domowych jednocześnie, takich jak wyłączenie świateł i obniżenie termostatu dla sceny „snu” [2]. Sceny te mogą być wywołane przez polecenia głosowe lub inne warunki, takie jak wykrywanie ruchu, ale obecnie nie zawierają wykrywania emocji jako wyzwalacza.
Aby uzyskać bardziej spersonalizowane doświadczenie, Alexa+ oferuje lepszą personalizację, pamiętając preferencje użytkowników i stosując je do różnych zadań, takich jak sugerowanie przepisów opartych na preferencjach dietetycznych [3]. Podczas gdy Alexa+ poprawia ogólne wrażenia inteligentnego domu, nie integruje on szczegółowo wykrywania emocji z inteligentnymi scenami domowymi.
Aby stworzyć spersonalizowane doświadczenie inteligentnego domu, które reaguje na wskazówki emocjonalne, programiści mogą potencjalnie wykorzystać możliwości wykrywania emocji Alexa w połączeniu z niestandardowymi umiejętnościami, które interpretują odpowiedzi emocjonalne i odpowiednio wyzwalają sceny. Wymagałoby to jednak zintegrowania wykrywania emocji z logiką Smart Home Control poprzez niestandardowe rozwój, ponieważ nie ma wbudowanej funkcji, aby bezpośrednio łączyć wykrywanie emocji za pomocą inteligentnych scen domowych.
Podsumowując, podczas gdy Alexa może wykrywać emocje i kontrolować inteligentne sceny domowe, funkcje te nie są bezpośrednio zintegrowane, aby umożliwić dostosowanie scen w oparciu o wykryte emocje. Konieczny byłby niestandardowy rozwój, aby osiągnąć taką integrację.
Cytaty:[1] https://venturebeat.com/ai/amazons-alexa-wants-to-loarn-more-about-your-felings/
[2] https://developer.amazon.com/en-us/docs/alexa/device-apis/alexa-sceController.html
[3] https://www.aboutamazon.com/news/devices/new-alexa-enerative-artificial-intelligence
[4] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-alexa-emotions-and-speaking-styles
[5] https://www.cnet.com/home/smart-home/amazons-alexa-now-sense-the-presence-of-people-heres-how-to-use-the-uncanny-new-trick/
[6] https://www.tomsguide.com/ai/alexa-release-date-cost-devices-and-all-the-new-ai-features
[7] https://developer.amazon.com/en-us/docs/alexa/custom-skills/speeech-ynthesis-markup-language-sml-reference.html
[8] https://www.youtube.com/watch?v=tbng5yknvus
[9] https://www.youtube.com/watch?v=oe0-g0ptqm