Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Alexa ใช้เทคโนโลยีเฉพาะเพื่อวิเคราะห์อารมณ์ของผู้ใช้


Alexa ใช้เทคโนโลยีเฉพาะเพื่อวิเคราะห์อารมณ์ของผู้ใช้


Alexa ใช้เทคโนโลยีหลายอย่างในการวิเคราะห์และตอบสนองต่ออารมณ์ของผู้ใช้แม้ว่าจะไม่ได้รับการออกแบบมาโดยเฉพาะเป็นระบบความฉลาดทางอารมณ์ AI นี่คือบางส่วนของเทคโนโลยีสำคัญที่เกี่ยวข้อง:

1. การวิเคราะห์ด้วยเสียง: ทีมงานของ Alexa กำลังดำเนินการวิเคราะห์เสียงของผู้ใช้เพื่อรับรู้ถึงอารมณ์หรือสถานะทางอารมณ์ของพวกเขา สิ่งนี้เกี่ยวข้องกับการตรวจจับการเปลี่ยนแปลงในระดับเสียงและน้ำเสียงเพื่ออนุมานอารมณ์เช่นความสุขความโกรธหรือความเศร้า [1] [9] บริษัท ได้ยื่นสิทธิบัตรสำหรับเทคโนโลยีที่สามารถตรวจสอบอารมณ์ของผู้ใช้โดยการวิเคราะห์ระดับเสียงและปริมาณของคำสั่งลำโพง [9]

2. ข้อมูลเสียงและคำศัพท์: Amazon กำลังพัฒนาระบบสำหรับการตรวจจับความเชื่อมั่นที่ใช้ทั้งข้อมูลอะคูสติก (เช่นเสียงและปริมาตร) และข้อมูลคำศัพท์ (คำพูดจริง) เพื่อกำหนดความเชื่อมั่นของคำพูด เทคโนโลยีนี้สามารถใช้เพื่อปรับการตอบสนองตามสถานะทางอารมณ์ของผู้ใช้ [4]

3. เทคโนโลยี Neural Text-to-Speech (NTTS): Alexa ใช้ NTTS เพื่อเปิดใช้งานการพูดที่ทำให้เกิดเสียงที่เป็นธรรมชาติมากขึ้น นักพัฒนาสามารถตั้งโปรแกรม Alexa เพื่อตอบสนองด้วยอารมณ์เช่นความสุขหรือการเอาใจใส่โดยใช้แท็ก SSML เฉพาะ ตัวอย่างเช่น Alexa สามารถตอบสนองด้วยน้ำเสียงที่ตื่นเต้นเมื่อผู้ใช้ชนะเกมหรือด้วยน้ำเสียงที่ผิดหวังเมื่อทีมโปรดของพวกเขาแพ้ [10]

4. อุปกรณ์จดจำอารมณ์: Amazon ได้ทำการทดสอบอุปกรณ์ที่สวมใส่ได้ชื่อรหัสดีแลนที่ตระหนักถึงอารมณ์ของมนุษย์ผ่านเสียงและไมโครโฟน อุปกรณ์นี้มีจุดมุ่งหมายเพื่อปรับปรุงการโต้ตอบกับผู้อื่นโดยการตรวจจับสถานะทางอารมณ์ [7]

5. การทำงานร่วมกันกับ บริษัท ตรวจจับอารมณ์: อเมซอนมีความสนใจในการบูรณาการเทคโนโลยีจาก บริษัท อย่างเอฟเฟกต์ซึ่งวิเคราะห์คำพูดสำหรับอารมณ์เช่นเสียงหัวเราะความโกรธและความเร้าอารมณ์ เทคโนโลยีของ Impactiva สามารถให้ข้อมูลเชิงลึกที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับการแสดงออกทางอารมณ์ของมนุษย์โดยการวิเคราะห์ภาษาศาสตร์, เสียง, เสียงดังจังหวะและคุณภาพเสียง [1] [7]

เทคโนโลยีเหล่านี้เป็นส่วนหนึ่งของความพยายามที่กว้างขึ้นของอเมซอนในการปรับปรุงความสามารถของ Alexa ในการทำความเข้าใจและตอบสนองต่อผู้ใช้อย่างเห็นอกเห็นใจมากขึ้นอาจนำไปสู่การโต้ตอบที่เป็นส่วนตัวและมีส่วนร่วมมากขึ้น

การอ้างอิง:
[1] https://venturebeat.com/ai/amazons-alexa-wants-to learn-more-about-your-feelings/
[2] https://www.researchgate.net/publication/388890260_beyond_voice_recognition_integrating_alexa's_emotional_intelligence_ And_chatgpt's_language_processing_for_efl_learners'_development_and_anxiety_reduction _-_ a_comparative_analysis/ดาวน์โหลด
[3] https://www.mdpi.com/2071-1050/16/7/2721
[4] https://www.thedailyupside.com/technology/big-tech/patent-drop-watch-your-tone-around-alexa/
[5] https://www.nytimes.com/2025/02/26/technology/amazon-alexa-plus-generative-ai.html
[6] https://www.amazon.science/latest-news/the-engineering-behind-alexas-contextual-speech-recognition
[7] https://voicebot.ai/2019/05/28/amazon-testing-emotion-recognition-gadget/
[8] https://www.linkedin.com/pulse/amazons-ai-reboot-how-nlu-enhancements-haping-alexas-tony-carlin-nulze
[9] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-detection-ai-surveillance/572884/
[10] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-alexa-emotions-and-speaking-styles
[11] https://www.technologyreview.com/2016/06/13/159665/amazon-working-on-making-alexa-recognize-your-emotions/