Meta Orion AR-brillene bruker en kombinasjon av øyesporing, håndbevegelser, talekommandoer og et nevralt armbånd for kontroll, og skaper en intuitiv brukeropplevelse. Her er en oversikt over hvordan disse kontrollmekanismene fungerer:
Kontrollmetoder
1. Øyesporing:
- Brukerens øyne fungerer som en peker, som muliggjør navigering i grensesnittet. Dette betyr at du kan se på elementer på skjermen for å velge eller samhandle med dem.
2. Håndbevegelser:
- Brukere kan utføre spesifikke bevegelser for å kontrollere ulike funksjoner:
- Klyper pekefingeren og tommelen: Velger elementer.
- Klyper langfingeren og tommelen: Åpner eller lukker appstarteren.
- Myntsvingende bevegelse med tommelen mot håndflaten: Ruller gjennom alternativene.
- Haptisk tilbakemelding fra armbåndet bekrefter når en gest blir bekreftet, noe som forbedrer interaksjonsopplevelsen[1][4].
3. Talekommandoer:
– Brukere kan også utstede talekommandoer for å kontrollere funksjoner, noe som gjør det lettere å samhandle uten fysiske bevegelser[5][6].
4. Nevralt armbånd:
- Dette armbåndet tolker signaler knyttet til håndbevegelser ved hjelp av elektromyografi (EMG). Den oversetter disse signalene til innganger nesten øyeblikkelig, og muliggjør sømløs interaksjon selv når hendene ikke er synlige for brillens sensorer[1][3].
Spillopplevelse
I spillscenarier, for eksempel å spille en 3D-versjon av Pong, kan brukere kontrollere handlingene sine ved å bruke disse metodene:
- Øyesporingen hjelper deg med å sikte eller navigere i spillet.
- Håndbevegelser aktiverer spillfunksjoner som å skyte eller flytte objekter.
- Armbåndet gir mulighet for bevegelser som kan utføres diskret, for eksempel å kontrollere spillingen mens du holder hendene i lommen eller hviler på bena[2][4].
Totalt sett representerer Orion-brillene et betydelig fremskritt innen utvidet virkelighet-teknologi, med mål om å skape en oppslukende og interaktiv opplevelse som blander digitalt innhold med den virkelige verden.
Sitater:
[1] https://www.theverge.com/24253908/meta-orion-ar-glasses-demo-mark-zuckerberg-interview
[2] https://www.youtube.com/watch?v=reeBoSK_YLQ
[3] https://www.youtube.com/watch?v=ynLm-QvsW0Q
[4] https://www.youtube.com/watch?v=ZiJp3oitdNs
[5] https://www.tomsguide.com/computing/smart-glasses/meta-orion-everything-you-need-to-know-about-the-ar-holographic-glasses
[6] https://about.meta.com/realitylabs/orion/
[7] https://about.fb.com/news/2024/09/introducing-orion-our-first-true-augmented-reality-glasses/
[8] https://www.reddit.com/r/ThrillOfTheFight/comments/1fpql04/meta_orion_ar_glasses_or_any_other_to_play_the/
Hvordan fungerer øyesporings- og håndsporingsfunksjonene sammen i Orion-briller
Øyesporings- og håndsporingsfunksjonene til Meta Orion-brillene jobber sammen for å skape en sømløs og intuitiv brukeropplevelse. Her er hvordan disse teknologiene samarbeider:
Øyesporing
- Funksjonalitet: Orion-brillene er utstyrt med full eye-tracking-kameraer som overvåker brukerens blikk. Dette lar brukere navigere i grensesnittet ved ganske enkelt å se på elementer på skjermen, og effektivt bruke øynene som en peker.
- Presisjon: Øyesporing forbedrer nøyaktigheten av interaksjoner, og muliggjør raskt valg av alternativer uten å måtte berøre noe fysisk. Dette er spesielt nyttig i apper med utvidet virkelighet (AR) der brukere kan engasjere seg med digitale overlegg i deres virkelige miljø[1][4].
Håndsporing
- Gesture Recognition: Håndsporing forenkles av flere kameraer innebygd i brillene, som oppdager synlige håndbevegelser. Brukere kan utføre spesifikke handlinger, for eksempel å klype fingrene sammen for å velge elementer eller sveipe for å bla gjennom menyene[2][3].
- Nevralt armbånd: Som komplement til håndsporingen er et nevralt armbånd som tolker elektriske impulser fra muskelbevegelser. Denne teknologien gir mulighet for ytterligere bevegelser, som å rulle med en tommelbevegelse, selv når hånden ikke er i synslinjen til brillens kameraer[1][2]. Armbåndet gir haptisk tilbakemelding når bevegelser gjenkjennes, noe som forbedrer brukerinteraksjonen.
Kombinert interaksjon
- Integrert opplevelse: Kombinasjonen av øye- og håndsporing gjør det mulig for brukere å samhandle med AR-innhold flytende. For eksempel, mens du ser på et digitalt objekt, kan en bruker klype fingrene for å velge det, og effektivt slå sammen blikk og bevegelser til en enkelt handling[4][5].
- Allsidighet: Denne doble inndatametoden tillater komplekse interaksjoner uten å kreve at brukerne konstant justerer hendene eller opprettholder direkte synlighet. Brukere kan kontrollere applikasjoner med øynene mens de utfører bevegelser med hendene, slik at opplevelsen føles mer naturlig og mindre tungvint[2][3].
Oppsummert bruker Orion-brillene øyesporing for navigering og valg, mens håndsporing – forsterket av det nevrale armbåndet – muliggjør bevegelsesbaserte kontroller. Sammen skaper disse funksjonene et oppslukende og intuitivt grensesnitt som er på linje med Metas visjon for fremtidige AR-teknologier.
Sitater:[1] https://www.theverge.com/24253908/meta-orion-ar-glasses-demo-mark-zuckerberg-interview
[2] https://www.cnet.com/tech/computing/i-wore-metas-orion-ar-glasses-a-wireless-taste-of-a-neural-future/
[3] https://www.japantimes.co.jp/business/2024/09/26/companies/meta-orion-glasses-smartphone/
[4] https://www.theshortcut.com/p/meta-orion-ar-glasses-news
[5] https://theconversation.com/will-metas-orion-smart-glasses-be-the-next-iphone-moment-expert-qanda-240029
[6] https://www.youtube.com/watch?v=ynLm-QvsW0Q
[7] https://www.tomsguide.com/computing/smart-glasses/meta-orion-everything-you-need-to-know-about-the-ar-holographic-glasses
[8] https://about.meta.com/realitylabs/orion/