เทคโนโลยีการตรวจจับอารมณ์ของ Alexa พัฒนาโดย Amazon โดยมุ่งเน้นที่การวิเคราะห์อินพุตเสียงเพื่อกำหนดสถานะทางอารมณ์ นี่คือความสำเร็จผ่านอัลกอริทึมขั้นสูงที่ประเมินระดับเสียงปริมาณและเสียงของเสียงเพื่อระบุอารมณ์เช่นความสุขความโกรธหรือความเศร้า [1] [7] ในขณะที่ระบบการจดจำอารมณ์อื่น ๆ เช่น Effectiva, Google Vision API และ Microsoft Emotion API มักจะพึ่งพาการแสดงออกทางสีหน้าและภาษากายนอกเหนือจากการวิเคราะห์ด้วยเสียงวิธีการของ Alexa นั้นมีศูนย์กลางอยู่ที่การโต้ตอบด้วยเสียง [2] [3] [4]
ความแตกต่างที่สำคัญ
1. อินพุตรังสี:
- Alexa: ส่วนใหญ่ใช้การวิเคราะห์ด้วยเสียงการใช้ประโยชน์จากไมโครโฟนและซอฟต์แวร์ Discerning ด้วยเสียงเพื่อตรวจจับสถานะทางอารมณ์ [4] [7]
- ระบบอื่น ๆ : มักจะรวมหลายวิธีเช่นการแสดงออกทางสีหน้าภาษากายและการวิเคราะห์ข้อความ ตัวอย่างเช่น ImferTualiva ใช้อัลกอริทึมใบหน้าและการวิเคราะห์คำพูดในขณะที่ Google Vision API มุ่งเน้นไปที่ตัวชี้นำภาพ [2] [3] [8]
2. แอปพลิเคชันและการรวม:
- Alexa: รวมเข้ากับอุปกรณ์สมาร์ทโฮมและผู้ช่วยด้วยเสียงโดยมีจุดประสงค์เพื่อปรับปรุงการโต้ตอบของผู้ใช้โดยการตอบสนองอย่างเหมาะสมกับตัวชี้นำทางอารมณ์ [1] [9]
- ระบบอื่น ๆ : นำไปใช้กันอย่างแพร่หลายในหลายภาคส่วนรวมถึงการโฆษณาการศึกษาและยานยนต์ ตัวอย่างเช่นเทคโนโลยีของ Importiva ใช้ในการตั้งค่ายานยนต์เพื่อตรวจสอบอารมณ์ของไดรเวอร์ [3] [4]
3. วิธีการทางเทคโนโลยี:
- Alexa: ใช้อัลกอริทึม AI ที่มีการสอนด้วยตนเองซึ่งปรับปรุงเมื่อเวลาผ่านไปเพิ่มความแม่นยำในการตรวจจับอารมณ์ [1] นอกจากนี้ยังใช้เทคโนโลยี Neural TTS (NTTS) สำหรับการตอบสนองทางอารมณ์ที่ทำให้เกิดเสียงเป็นธรรมชาติมากขึ้น [9]
- ระบบอื่น ๆ : อาจใช้โมเดล AI ที่แตกต่างกันและเทคนิคการเรียนรู้ของเครื่อง ตัวอย่างเช่น Emotion API ของ Microsoft ได้แสดงความแม่นยำสูงในการตรวจจับอารมณ์เฉพาะเช่นความกลัว [2]
4. วัตถุประสงค์และกรณีการใช้งาน:
- Alexa: ส่วนใหญ่มีจุดประสงค์เพื่อปรับปรุงประสบการณ์ผู้ใช้ผ่านการโต้ตอบส่วนบุคคล มันสามารถปรับการตอบสนองตามอารมณ์ที่ตรวจพบเช่นการเสนอเนื้อหาที่สงบเงียบเมื่อผู้ใช้ฟังดูรำคาญ [3] [7]
- ระบบอื่น ๆ : มักใช้สำหรับแอพพลิเคชั่นที่กว้างขึ้นเช่นการวิจัยตลาดการโฆษณาเป้าหมายและแม้แต่การสำรวจทางการเมือง [4] [8]
โดยสรุปในขณะที่การตรวจจับอารมณ์ของ Alexa นั้นเป็นหลักเป็นหลักและมุ่งเน้นไปที่การเพิ่มการโต้ตอบของผู้ใช้ แต่ระบบอื่น ๆ มีความหลากหลายมากขึ้นในการป้อนข้อมูลและแอปพลิเคชันของพวกเขาซึ่งสะท้อนให้เห็นถึงกรณีการใช้งานที่กว้างขึ้นในอุตสาหกรรมต่างๆ
การอ้างอิง:[1] https://futurism.com/the-byte/amazon-alexa-analyzing-emotions
[2] https://www.aies-conference.com/2019/wp-content/papers/main/aies-19_paper_161.pdf
[3] https://thenextweb.com/news/emotion--ethecting-technology-is-isherywhere-but-it-out-of-date
[4] https://voicebot.ai/2019/05/28/amazon-testing-emotion-recognition-gadget/
[5] https://scholarworks.uno.edu/cgi/viewcontent.cgi?article=4347&context=td
[6] https://www.mdpi.com/2071-1050/16/7/2721
[7] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-detection-ai-surveillance/572884/
[8] https://brand24.com/blog/emotion-detection-software/
[9] https://developer.amazon.com/en-us/blogs/alexa/alexa-skills-kit/2019/11/new-alexa-emotions-and-speaking-styles