يميز Alexa بين المشاعر المختلفة مثل السعادة والإحباط من خلال مجموعة من المعلومات الصوتية والمعجمية. تتضمن هذه العملية تحليل الملعب وحجم ونغمة صوت المستخدم لتحديد حالته العاطفية. إليك شرح مفصل لكيفية تحقيق Alexa هذا:
1. تحليل المعلومات الصوتية: يستخدم Alexa ميزات صوتية مثل الملعب والحجم لتحديد المشاعر. على سبيل المثال ، قد يشير حجم الملعب الأعلى والحجم بصوت أعلى إلى الإثارة أو السعادة ، في حين أن الحجم السفلي والحجم الأكثر ليونة قد يشير إلى الحزن أو الإحباط. هذا التحليل أمر بالغ الأهمية لاكتشاف العواطف دون إشارات شفهية واضحة [1] [3].
2. تحليل المعلومات المعجمية: ما وراء الميزات الصوتية ، يعتبر Alexa أيضًا الكلمات والعبارات التي يستخدمها المستخدم. على سبيل المثال ، إذا قال أحد المستخدمين "أنا سعيد جدًا اليوم" ، يمكن لـ Alexa استنتاج السعادة بناءً على اللغة الصريحة. ومع ذلك ، عندما لا يذكر المستخدمون بشكل صريح عواطفهم ، يعتمد Alexa على التحليل الصوتي لإجراء تخمين متعلم [1] [2].
3. بيانات التعلم والتدريب الآلي: يتم تدريب النظام باستخدام خوارزميات التعلم الآلي التي يتم تغذيةها بمجموعات بيانات كبيرة من التسجيلات الصوتية. تتضمن مجموعات البيانات هذه مجموعة متنوعة من التعبيرات العاطفية ، والتي تساعد Alexa على تعلم التعرف على الأنماط المرتبطة بالعواطف المختلفة. كلما تم تدريب أليكسا على المزيد من البيانات ، كان من الأفضل أن يكون ذلك في التمييز بين المشاعر مثل السعادة والإحباط [2] [7].
4. براءة اختراع اكتشاف المشاعر: قدمت Amazon براءات الاختراع لتكنولوجيا الكشف عن المشاعر التي تعزز قدرة Alexa على فهم العواطف. يمكن استخدام هذه التقنية لتخصيص الاستجابات بناءً على الحالة العاطفية للمستخدم. على سبيل المثال ، إذا اكتشف Alexa الإحباط ، فقد يوفر استجابة أكثر تعاطفًا أو يشير إلى نشاط مهدئ [1] [3].
5. استخدام الحالات والتطبيقات: يمكن أن تؤدي القدرة على اكتشاف العواطف إلى المزيد من التفاعلات الشخصية. على سبيل المثال ، إذا طلب أحد المستخدمين من Alexa التوصية بفيلم بينما يبدو حزينًا ، فقد يقترح Alexa فيلمًا مريحًا. وبالمثل ، إذا كان المستخدم يبدو سعيدًا ويطلب تشغيله ، فيمكن أن يلعب Alexa مسارات متفائلة [1] [2].
6. التحديات والقيود: يمكن أن يكون اكتشاف المشاعر بدقة أمرًا صعبًا ، خاصة مع الصوت البعيد ، وهو أمر شائع في مكبرات الصوت الذكية. عوامل مثل ضوضاء الخلفية والتغيرات الفردية في التعبير العاطفي يمكن أن تعقد العملية. علاوة على ذلك ، غالبًا ما تكافح أنظمة الذكاء الاصطناعي مع تعبيرات عاطفية دقيقة ، والتي يمكن أن تؤدي إلى تفسيرات سوء التفسير [2] [9].
باختصار ، يميز Alexa بين العواطف مثل السعادة والإحباط من خلال تحليل كل من الخصائص الصوتية لصوت المستخدم والمحتوى المعجمي لخطابهم. في حين أن هذه التكنولوجيا تحمل وعدًا لتعزيز تجربة المستخدم ، فإنها تثير مخاوف بشأن الخصوصية وموثوقية أنظمة الكشف عن المشاعر.
الاستشهادات:[1] https://www.thedailyupside.com/technology/big-tech/patent-drop-watch-your-tone-around-alexa/
[2]
[3] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-dection-ai-surveillance/572884/
[4] https://research.wu.ac.at/files/26745176/a٪20value تعتمد على asory20persevent٪20on٪20user٪20Experience٪20-٪20How٪20alexa_s٪20value٪20Disposits٪20Elcited٪20Emotional٪20Respons.Pdf
[5] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-alexa-emotions-and-speakles
[6] https://www.mdpi.com/2071-1050/16/7/2721
[7]
[8] https://techxplore.com/news/2023-12-qa-alexa-happy-ai-emotion.html
[9] https://www.nyu.edu/about/news-publications/news/2023/december/alexa-am-i-happy--how-ai-emotion-recognition-falls-hort.html
[10] https://www.supermarketnews.com/grocery-technology/amazon-patents-emotion-detecting-alexa-tech