Возможности обнаружения эмоций Алексы в первую очередь сосредоточены на распознавании и реагировании на эмоциональные состояния пользователей посредством голосового взаимодействия. В то время как Alexa может проанализировать звук голосов пользователей, чтобы распознать их настроение или эмоциональное состояние, эта функция не интегрирована с сценами умного дома таким образом, чтобы позволить настройку, основанные на обнаруженных эмоциях для конкретных сцен [1].
Тем не менее, Alexa предлагает функции, которые позволяют настройку сцен интеллектуальных домов через интерфейс Alexa.SceneController. Этот интерфейс позволяет разработчикам создавать сцены, которые контролируют несколько устройств Smart Home одновременно, такие как выключение огней и снижение термостата для сцены «время сна» [2]. Эти сцены могут быть вызваны голосовыми командами или другими условиями, такими как обнаружение движения, но в настоящее время они не включают обнаружение эмоций в качестве триггера.
Для более индивидуального опыта Alexa+ предлагает улучшенную персонализацию, запомнив предпочтения пользователей и применяя их к различным задачам, таким как предложение рецептов на основе диетических предпочтений [3]. В то время как Alexa+ улучшает общий опыт умного дома, он конкретно не интегрирует обнаружение эмоций с помощью сцен интеллектуальных домов.
Чтобы создать индивидуальный опыт интеллектуального дома, который реагирует на эмоциональные сигналы, разработчики могут потенциально использовать возможности обнаружения эмоций Alema в сочетании с пользовательскими навыками, которые интерпретируют эмоциональные реакции и соответствующим образом запускают сцены. Тем не менее, это потребует интеграции обнаружения эмоций с помощью логики управления умным домом посредством индивидуальной разработки, так как нет встроенной функции для непосредственной связи обнаружения эмоций с сценами интеллектуальных домов.
Таким образом, в то время как Alexa может обнаружить эмоции и контролировать сцены умного дома, эти функции не являются непосредственно интегрированы, чтобы позволить настройку сцен на основе обнаруженных эмоций. Пользовательская разработка будет необходима для достижения такой интеграции.
Цитаты:[1] https://venturebeat.com/ai/amazons-alexa-wants-to-learn-more-about-your-felings/
[2] https://developer.amazon.com/en-us/docs/alexa/device-apis/alexa-scenecontroller.html
[3] https://www.aboutamazon.com/news/devices/new-alexa-generative-artificial-intelligence
[4] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-alexa-emotions-andwarge-styles
[5] https://www.cnet.com/home/smart-home/amazons-alexa-can-now-sense-the-presence-fe-heres-how-to-use-uncany-new-trick/
[6] https://www.tomsguide.com/ai/alexa-release-date-cost-devices-and-all-the-new-ai-features
[7] https://developer.amazon.com/en-us/docs/alexa/custom-skills/speech-synthesis-markup-language-sml-reference.html
[8] https://www.youtube.com/watch?v=TBNG5YKNVUS
[9] https://www.youtube.com/watch?v=OE0-g0ptqm