Alexas følelsesdeteksjonsteknologi, utviklet av Amazon, fokuserer først og fremst på å analysere stemmeinnganger for å bestemme emosjonelle tilstander. Dette oppnås gjennom avanserte algoritmer som vurderer tonehøyde, volum og tone for å identifisere følelser som lykke, sinne eller tristhet [1] [7]. Mens andre følelsesgjenkjenningssystemer som affectiva, Google Vision API og Microsoft Emotion API ofte er avhengige av ansiktsuttrykk og kroppsspråk i tillegg til stemmeanalyse, er Alexas tilnærming mer sentrert om stemmebaserte interaksjoner [2] [3] [4].
viktige forskjeller
1. Inngangsmodaliteter:
- Alexa: Bruker først og fremst stemmeanalyse, utnytter mikrofoner og stemmediskerende programvare for å oppdage emosjonelle tilstander [4] [7].
- Andre systemer: Inkluderer ofte flere modaliteter som ansiktsuttrykk, kroppsspråk og tekstanalyse. For eksempel bruker affectiva ansiktsalgoritmer og taleanalyse, mens Google Vision API fokuserer på visuelle signaler [2] [3] [8].
2. Søknad og integrasjon:
- Alexa: Integrert i smarte hjemmeenheter og stemmeassistenter, med sikte på å forbedre brukerinteraksjonen ved å svare på riktig måte på emosjonelle signaler [1] [9].
- Andre systemer: mye brukt på tvers av forskjellige sektorer, inkludert reklame, utdanning og bilindustri. For eksempel brukes affectivas teknologi i bilinnstillinger for å overvåke førerens følelser [3] [4].
3. Teknologisk tilnærming:
- Alexa: Bruker selvlæring av AI-algoritmer som forbedrer seg over tid, noe som forbedrer nøyaktigheten i følelsesdeteksjon [1]. Den benytter også nevrale TTS (NTTS) -teknologi for mer naturlig klingende emosjonelle responser [9].
- Andre systemer: Kan bruke forskjellige AI -modeller og maskinlæringsteknikker. Microsofts følelses -API har for eksempel vist høy presisjon i å oppdage spesifikke følelser som frykt [2].
4. Formål og bruk saker:
- Alexa: Hovedsakelig rettet mot å forbedre brukeropplevelsen gjennom personaliserte interaksjoner. Det kan justere svar basert på oppdagede følelser, for eksempel å tilby beroligende innhold når en bruker høres irritert [3] [7].
- Andre systemer: ofte brukt til bredere applikasjoner som markedsundersøkelser, målrettet reklame og til og med politisk polling [4] [8].
Oppsummert, mens Alexas følelsesdeteksjon først og fremst er stemmesentrisk og fokusert på å forbedre brukerinteraksjoner, er andre systemer mer forskjellige i sine inngangsmodaliteter og applikasjoner, noe som gjenspeiler et bredere spekter av brukssaker i forskjellige bransjer.
Sitasjoner:[1] https://futurism.com/the-byte/amazon-alexa-analyzing-motions
[2] https://www.aies-conference.com/2019/wp-content/papers/main/aies-19_paper_161.pdf
[3] https://thenextweb.com/news/emotion-tetecting-technology-is-ewherewhere-but-its-out-of-date
[4] https://voicebot.ai/2019/05/28/amazon-testing-emotion-recognition-gadget/
[5] https://scholarworks.uno.edu/cgi/viewcontent.cgi?article=4347&context=td
[6] https://www.mdpi.com/2071-1050/16/7/2721
[7] https://www.theatlantic.com/technology/archive/2018/10/alexa-emotion-detection-ai-surveillance/572884/
[8] https://brand24.com/blog/emotion-dection-software/
[9] https://developer.amazon.com/en-us/blogs/alexa/alexa-slills-kit/2019/11/new-alexa-emotions-and-speaking-styles