L'iPhone 17, alimenté par iOS 17, présente une suite complète de fonctionnalités d'accessibilité conçues pour réduire les lacunes d'adoption parmi les utilisateurs handicapés en répondant à une variété de besoins physiques, cognitifs, sensoriels et de la parole. Ces fonctionnalités marquent l'engagement continu d'Apple à rendre la technologie inclusive et utilisable pour les personnes ayant des handicaps diverses grâce à des innovations qui exploitent le matériel avancé, l'apprentissage automatique sur les appareils et les expériences utilisateur personnalisables.
L'une des principales caractéristiques de l'accessibilité cognitive est l'accès à l'assistance, qui simplifie l'interface en se concentrant sur les tâches essentielles comme l'appel, la messagerie et la capture de photos. Cette fonction présente de gros boutons et une disposition moins encombrée adaptée aux utilisateurs ayant des handicaps cognitifs, en réduisant la charge cognitive et en améliorant l'utilisabilité. Assist Access organise l'interface soit dans une grille visuelle, soit dans une mise en page basée sur le texte en fonction des préférences de l'utilisateur, offrant une expérience personnalisable qui aide les utilisateurs à interagir avec leurs iPhones plus indépendamment. Il intègre également des applications comme l'appareil photo, les photos, la lecture, les appels et les messages avec des boutons à contraste élevé et de grandes étiquettes de texte pour encourager une navigation facile pour ceux qui ont des défis cognitifs. L'intégration d'un clavier Emoji et un enregistrement des messages vidéo sur les messages dans les messages prend en détail la communication pour les utilisateurs ayant besoin d'entrées simplifiées.
L'accessibilité à la parole dans l'iPhone 17 a progressé avec des fonctionnalités telles que la voix personnelle et la parole en direct. La voix personnelle permet aux individus à risque de perdre leur capacité à parler comme ceux atteints de SLA ou de conditions neurologiques progressives pour créer une voix numérique qui ressemble à leur discours naturel. En enregistrant une série de phrases, les utilisateurs génèrent une voix synthétique incarnant leur style, qui peut être utilisé pour communiquer efficacement entre les appels, FaceTime ou les interactions en personne. La parole en direct permet aux utilisateurs non verbaux ou à ceux qui ont des déficiences de la parole de taper du texte qui est ensuite parlé à haute voix lors des conversations, fournissant de nouvelles façons de communication sans nécessiter une sortie verbale. Des améliorations telles que les raccourcis vocaux permettent des commandes vocales personnalisées, tandis que l'écoute de la parole atypique utilise un apprentissage automatique sur les appareils pour améliorer la reconnaissance de la parole pour un plus large éventail de modèles de parole, permettant aux utilisateurs ayant des capacités de discours acquises ou atypiques d'être mieux comprises par Siri et d'autres fonctions axées sur la parole.
Pour les utilisateurs ayant des déficiences de vision, iOS 17 étend les capacités avec Point and Speak, qui fait partie de l'application Magnifier. Cette fonctionnalité exploite la caméra de l'iPhone, y compris les capteurs LiDAR sur des modèles compatibles (iPhone 12 Pro et versions plus ultérieures), pour identifier et lire le texte ou les objets à haute voix que les utilisateurs pointent, l'assouplissement de l'interaction avec des objets physiques comme les appareils ou la signalisation. Cela permet aux utilisateurs à faible vision ou à la cécité de mieux comprendre leur environnement en audition des descriptions en temps réel. De plus, la fonction de reconnaissance sonore a été améliorée pour détecter un éventail plus large de sons environnementaux tels que des sonnettes, des alarmes ou des cris pour bébés, envoyant des notifications aux utilisateurs sourds ou malentendants, améliorant ainsi la sécurité et la sensibilisation à la situation. Une autre innovation dans l'accessibilité de la vision est le suivi des yeux, qui utilise la caméra frontale et l'IA pour permettre aux utilisateurs handicapés physiques de naviguer sur leur appareil uniquement avec des mouvements oculaires. Cet étalonnage se produit à disposition, garantissant la confidentialité et prend en charge une méthode d'interaction plus mains libres pour les utilisateurs ayant une fonction moteur altérée.
Les handicaps moteurs et physiques bénéficient de fonctionnalités telles que les améliorations d'assistance et le contrôle du suivi des yeux, qui offrent d'autres méthodes d'entrée au-delà du toucher traditionnel. AsideTouch augmente les gestes, permettant aux utilisateurs d'effectuer des actions complexes avec des entrées simplifiées et des gestes personnalisés. Le suivi des yeux fonctionne sur l'iPhone et l'iPad, permettant aux utilisateurs d'interagir avec l'interface en s'attardant sur des éléments ou en effectuant des gestes tels que cliquer ou glisser avec leurs yeux. Ces technologies fournissent plus d'autonomie aux utilisateurs qui ont un mouvement ou une coordination limitée des membres.
iOS 17 soutient en outre l'inclusivité grâce à la lecture des haptiques, une manière innovante pour les utilisateurs sourds ou malentendants pour vivre la lecture. Cette fonctionnalité traduit l'audio en rétroaction tactile via le moteur taptique de l'iPhone, créant des vibrations synchronisées avec le rythme et les textures de la lecture. Cela enrichit l'expérience sensorielle de la lecture au-delà de la perception auditive et est mise à disposition pour les développeurs à intégrer via une API pour une compatibilité des applications plus large.
Apple met également l'accent sur la flexibilité et la facilité d'accès avec la gestion des paramètres. Les utilisateurs peuvent activer ou désactiver les fonctionnalités d'accessibilité à tout moment grâce à des paramètres ou avec des raccourcis tels que les commandes Siri ou les boutons dédiés, permettant la personnalisation en fonction des besoins changeants. La fonction de partage d'accessibilité permet aux utilisateurs de transférer temporairement leurs paramètres d'accessibilité personnalisés vers un autre appareil, par exemple, lors de l'utilisation de l'iPhone de quelqu'un d'autre ou d'un kiosque d'iPad public, d'assurer la continuité et la convivialité personnalisée entre les appareils.
Dans l'ensemble, les innovations d'accessibilité de l'iPhone 17 reflètent la collaboration profonde d'Apple avec les communautés de personnes handicapées pour concevoir des fonctionnalités qui relèvent des défis spécifiques dans la cognition, la parole, la vision, l'audition et la motricité. Les progrès de l'apprentissage automatique sur les appareils, de l'intégration matérielle et de la personnalisation des utilisateurs produisent un écosystème plus inclusif qui réduit les obstacles à l'adoption de la technologie parmi les utilisateurs handicapés. Les nouveaux outils visent à permettre aux utilisateurs handicapés de s'engager avec leurs iPhones entièrement et indépendamment, à combler les lacunes dans l'accès et l'utilisation de la technologie tout en maintenant la confidentialité et la facilité d'utilisation.