Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon IPhone 17 Studio Accessibilità Funzione di lacune di adozione tra gli utenti disabilitati


IPhone 17 Studio Accessibilità Funzione di lacune di adozione tra gli utenti disabilitati


L'iPhone 17, alimentato da iOS 17, introduce una suite completa di funzionalità di accessibilità progettate per ridurre le lacune di adozione tra gli utenti disabili affrontando una varietà di esigenze fisiche, cognitive, sensoriali e legate al parlato. Queste funzionalità segnano l'impegno costante di Apple nel rendere la tecnologia inclusiva e utilizzabile per le persone con disabilità diverse attraverso innovazioni che sfruttano hardware avanzato, apprendimento automatico su dispositivo e esperienze utente personalizzabili.

Una delle principali funzionalità di accessibilità cognitiva è l'accesso assistito, che semplifica l'interfaccia concentrandosi su attività essenziali come la chiamata, la messaggistica e la cattura di foto. Questa funzione presenta bottoni di grandi dimensioni e un layout meno ingombra su misura per gli utenti con disabilità cognitive, riducendo il carico cognitivo e migliorando l'usabilità. L'accesso assistito organizza l'interfaccia in una griglia visiva o in un layout basato sul testo a seconda della preferenza dell'utente, offrendo un'esperienza personalizzabile che aiuta gli utenti a interagire con i loro iPhone in modo più indipendente. Integra anche app come fotocamera, foto, riproduzione, chiamate e messaggi con pulsanti ad alto contrasto e grandi etichette di testo per incoraggiare una facile navigazione per coloro che hanno sfide cognitive. L'integrazione di una tastiera emoji-sola visivamente visivamente e la registrazione dei messaggi nei messaggi supporta ulteriormente la comunicazione per gli utenti che necessitano di input semplificati.

L'accessibilità del discorso in iPhone 17 è progredita con funzionalità come la voce personale e il discorso dal vivo. La voce personale consente alle persone a rischio di perdere la loro capacità di parlare come quelli con SLA o condizioni neurologiche progressive per creare una voce digitale che ricorda il loro discorso naturale. Attraverso la registrazione di una serie di frasi, gli utenti generano una voce sintetica che incarna il loro stile, che può essere utilizzato per comunicare in modo efficace tra le chiamate, il facetime o le interazioni di persona. Live Speech consente agli utenti non verbali o a quelli con menomazioni vocali di digitare il testo che viene poi parlato ad alta voce durante le conversazioni, fornendo nuovi modi per la comunicazione senza richiedere l'output verbale. Miglioramenti come le scorciatoie vocali consentono comandi vocali personalizzati, mentre l'ascolto per il discorso atipico impiega l'apprendimento automatico sul dispositivo per migliorare il riconoscimento vocale per una più ampia gamma di schemi vocali, consentendo agli utenti con capacità vocali acquisite o atipiche di essere meglio compresi da Siri e altre funzioni guidate dal parlato.

Per gli utenti con disabilità della visione, iOS 17 espande le capacità con punto e parlare, che fa parte dell'app di ingrandimento. Questa funzionalità sfrutta la fotocamera di iPhone, inclusi i sensori LIDAR su modelli compatibili (iPhone 12 Pro e le versioni successive Pro), per identificare e leggere ad alta voce il testo o gli oggetti che gli utenti indicano, facilitando l'interazione con oggetti fisici come apparecchi o segnaletica. Ciò consente agli utenti di scarsa visione o cecità di comprendere meglio il proprio ambiente ascoltando descrizioni in tempo reale. Inoltre, la funzione di riconoscimento del suono è stata migliorata per rilevare una gamma più ampia di suoni ambientali come campanelli, allarmi o grida per bambini, inviando notifiche agli utenti non udenti o duramente dell'udito, migliorando così la sicurezza e la consapevolezza situazionale. Un'altra innovazione nell'accessibilità alla vista è il monitoraggio degli occhi, che utilizza la fotocamera frontale e l'intelligenza artificiale per consentire agli utenti con disabilità fisiche di navigare sul proprio dispositivo esclusivamente con movimenti oculari. Questa calibrazione si verifica sul dispositivo, garantendo la privacy e supporta un metodo di interazione più mani-free per gli utenti con funzionalità motoria compromessa.

Le disabilità motorie e fisiche beneficiano di funzionalità come i miglioramenti di AssistiveTouch e il controllo del monitoraggio degli occhi, che offrono metodi di input alternativi oltre il tocco tradizionale. AssistiveTouch aumenta i gesti, consentendo agli utenti di eseguire azioni complesse con input semplificati e gesti personalizzati. Il monitoraggio degli occhi funziona incrociata su iPhone e iPad, consentendo agli utenti di interagire con l'interfaccia abitando su elementi o eseguendo gesti come fare clic o scorrere con gli occhi. Queste tecnologie forniscono maggiore autonomia agli utenti che hanno un movimento o un coordinamento degli arti limitati.

IOS 17 supporta ulteriormente l'inclusività attraverso la riproduzione di Haptics, un modo innovativo per gli utenti non udenti o per l'udito per sperimentare la riproduzione. Questa funzione traduce l'audio in feedback tattili attraverso il motore taptico dell'iPhone, creando vibrazioni sincronizzate con il ritmo e le trame della riproduzione. Ciò arricchisce l'esperienza sensoriale della riproduzione oltre la percezione uditiva ed è resa disponibile per gli sviluppatori di integrare attraverso un'API per una più ampia compatibilità delle app.

Apple sottolinea anche la flessibilità e la facilità di accesso con la gestione delle impostazioni. Gli utenti possono abilitare o disabilitare le funzionalità di accessibilità in qualsiasi momento tramite impostazioni o con scorciatoie come comandi Siri o pulsanti dedicati, consentendo la personalizzazione in base alle mutevoli esigenze. La funzione di condivisione dell'accessibilità consente agli utenti di trasferire temporaneamente le loro impostazioni di accessibilità personalizzate su un altro dispositivo, ad esempio quando si utilizzano l'iPhone di qualcun altro o un chiosco iPad pubblico, garantendo la continuità e l'usabilità personalizzata tra i dispositivi.

Nel complesso, le innovazioni di accessibilità di iPhone 17 riflettono la profonda collaborazione di Apple con le comunità di disabilità per progettare caratteristiche che affrontano sfide specifiche in capacità cognitive, viste, viste, udito e motorie. I progressi nell'apprendimento automatico in dispositivo, nell'integrazione hardware e nella personalizzazione degli utenti producono un ecosistema più inclusivo che riduce le barriere all'adozione della tecnologia tra gli utenti disabili. I nuovi strumenti mirano a consentire agli utenti con disabilità di interagire con i loro iPhone in modo completo e indipendente, colmare le lacune nell'accesso alla tecnologia e nell'utilizzo mantenendo la privacy e la facilità d'uso.