Az Alexa érzelmek észlelési képességei elsősorban a felhasználók érzelmi állapotainak felismerésére és reagálására összpontosítanak hang interakciók révén. Míg Alexa elemezheti a felhasználók hangjának hangját, hogy felismerje hangulatát vagy érzelmi állapotát, ez a szolgáltatás nem közvetlenül integrálódik az intelligens otthoni jelenetekbe oly módon, hogy lehetővé tegye a testreszabást az észlelt érzelmek alapján a konkrét jelenetekhez [1].
Az Alexa azonban olyan funkciókat kínál, amelyek lehetővé teszik az intelligens otthoni jelenetek testreszabását az Alexa.SceneController felületen keresztül. Ez a felület lehetővé teszi a fejlesztők számára, hogy olyan jeleneteket hozzanak létre, amelyek egyszerre több intelligens otthoni eszközt vezérelnek, például a lámpák kikapcsolását és a termosztát csökkentését egy "lefekvés" jelenethez [2]. Ezeket a jeleneteket hangparancsok vagy más körülmények, például a mozgás észlelése válthatják ki, ám ezek jelenleg nem tartalmazzák az érzelmek észlelését.
A személyre szabottabb élmény érdekében az Alexa+ fokozott személyre szabást kínál a felhasználói preferenciák emlékezésével és különféle feladatokra történő alkalmazásával, például az étrendi preferenciákon alapuló receptek javaslatára [3]. Noha az Alexa+ javítja az intelligens otthoni élményt, az nem kifejezetten integrálja az érzelmek észlelését az intelligens otthoni jelenetekkel.
A testreszabott intelligens otthoni élmény létrehozása érdekében, amely reagál az érzelmi útmutatásokra, a fejlesztők potenciálisan használhatják az Alexa érzelmek észlelési képességeit az egyedi készségekkel összefüggésben, amelyek értelmezik az érzelmi reakciókat és ennek megfelelően a jeleneteket kiváltják. Ehhez azonban szükség lenne az érzelmek észlelésének integrálására az intelligens otthoni vezérlési logikával az egyéni fejlesztés révén, mivel nincs beépített szolgáltatás az érzelmek észlelésének közvetlen összekapcsolásához az intelligens otthoni jelenetekkel.
Összefoglalva: míg az Alexa felismeri az érzelmeket és ellenőrzi az intelligens otthoni jeleneteket, ezeket a funkciókat nem közvetlenül integrálják, hogy lehetővé tegyék a jelenetek testreszabását az észlelt érzelmek alapján. Az ilyen integráció eléréséhez egyedi fejlesztés szükséges.
Idézetek:[1] https://venturebeat.com/ai/amazons-alexa-wants-to-learn-more-bout-your-feelings/
[2] https://developer.amazon.com/en-us/docs/alexa/device-apis/alexa-scenecontroller.html
[3] https://www.aboutamazon.com/news/devices/new-alexa-generative-articial-intelligence
[4] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-alexa-emotions-and-speaking-styles
[5] https://www.cnet.com/home/smart-home/amazons-alexa-can-now-sense-the-presence-of-people-how-how-touse-the-unny-new-rick/
[6] https://www.tomsguide.com/ai/alexa-reease-date-cost-devices-and-blhe-ne-new-ai-features
[7] https://developer.amazon.com/en-us/docs/alexa/custom-skills/speech-synthesis-markup-ssml-reference.html
[8] https://www.youtube.com/watch?v=tbng5yknvus
[9] https://www.youtube.com/watch?v=oe0--g0ptqm