Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Recurso de acessibilidade do estudo do iPhone 17


Recurso de acessibilidade do estudo do iPhone 17


O iPhone 17, alimentado pelo iOS 17, apresenta um conjunto abrangente de recursos de acessibilidade projetados para reduzir as lacunas de adoção entre os usuários com deficiência, atendendo a uma variedade de necessidades físicas, cognitivas, sensoriais e relacionadas à fala. Esses recursos marcam o compromisso contínuo da Apple em tornar a tecnologia inclusiva e utilizável para pessoas com diversas deficiências por meio de inovações que aproveitam o hardware avançado, o aprendizado de máquina no dispositivo e as experiências personalizáveis ​​do usuário.

Um dos principais recursos de acessibilidade cognitiva é o Acesso Assistivo, que simplifica a interface, concentrando -se em tarefas essenciais, como chamar, mensagens e capturar fotos. Esse recurso apresenta botões grandes e um layout menos desordenado adaptado aos usuários com deficiências cognitivas, reduzindo a carga cognitiva e aumentando a usabilidade. O ACCESS ASSISTIVE organiza a interface em uma grade visual ou em um layout baseado em texto, dependendo da preferência do usuário, oferecendo uma experiência personalizável que ajuda os usuários a interagir com seus iPhones de forma mais independente. Ele também integra aplicativos como câmera, fotos, reprodução, chamadas e mensagens com botões de alto contraste e grandes etiquetas de texto para incentivar a navegação fácil para aqueles com desafios cognitivos. A integração de um teclado emoji-apenas visualmente e a gravação de mensagens de vídeo em mensagens suporta ainda a comunicação para usuários que precisam de entradas simplificadas.

A acessibilidade da fala no iPhone 17 progrediu com recursos como voz pessoal e discurso ao vivo. A voz pessoal permite que indivíduos em risco de perder sua capacidade de falar, como aqueles com ALS ou condições neurológicas progressivas, para criar uma voz digital que se assemelha ao seu discurso natural. Ao gravar uma série de frases, os usuários geram uma voz sintética incorporando seu estilo, que pode ser usado para se comunicar de maneira eficaz em chamadas, interações faceTime ou pessoalmente. A fala ao vivo permite que usuários não verbais ou aqueles com deficiências de fala digitem texto que é falado em voz alta durante as conversas, fornecendo novas maneiras de comunicação sem exigir saída verbal. Aprimoramentos como os atalhos vocais permitem comandos de voz personalizados, enquanto ouça a fala atípica emprega o aprendizado de máquina no dispositivo para melhorar o reconhecimento da fala para uma ampla gama de padrões de fala, permitindo que os usuários com habilidades de fala adquiridas ou atípicas sejam melhor compreendidas pelo SIRI e outras funções orientadas pela fala.

Para usuários com deficiências de visão, o iOS 17 expande os recursos com o Point and Speak, que faz parte do aplicativo Melfier. Esse recurso aproveita a câmera do iPhone, incluindo sensores LIDAR em modelos compatíveis (iPhone 12 Pro e posteriores versões pro), para identificar e ler os usuários de texto ou objetos em voz alta, aliviar a interação com objetos físicos como aparelhos ou sinalização. Isso permite que os usuários com baixa visão ou cegueira entendam melhor seu ambiente, ouvindo descrições em tempo real. Além disso, o recurso de reconhecimento de som foi aprimorado para detectar uma variedade mais ampla de sons ambientais, como campainhas, alarmes ou chora de bebê, enviando notificações para usuários surdos ou com dificuldades de audição, melhorando assim a segurança e a conscientização situacional. Outra inovação na acessibilidade da visão é o rastreamento ocular, que usa a câmera frontal e a IA para permitir que os usuários com deficiências físicas naveguem seu dispositivo apenas com movimentos oculares. Essa calibração ocorre no dispositivo, garantindo a privacidade e suporta um método de interação mais livre para usuários com função motora prejudicada.

As deficiências motoras e físicas se beneficiam de recursos como melhorias no AssistiveTouch e controle de rastreamento ocular, que oferecem métodos de entrada alternativos além do toque tradicional. O AssistiveToch aumenta os gestos, permitindo que os usuários executem ações complexas com entradas simplificadas e gestos personalizados. App de rastreamento ocular no iPhone e iPad, permitindo que os usuários interajam com a interface, habitando em elementos ou executando gestos como clicar ou deslizar com os olhos. Essas tecnologias fornecem mais autonomia para usuários que têm movimento ou coordenação limitada dos membros.

O iOS 17 suporta ainda a inclusão por meio de happics de reprodução, uma maneira inovadora para usuários surdos ou com dificuldades para experimentar a reprodução. Esse recurso traduz o áudio em feedback tátil através do mecanismo taptic do iPhone, criando vibrações sincronizadas com o ritmo e as texturas da reprodução. Isso enriquece a experiência sensorial de reprodução além da percepção auditiva e é disponibilizada para que os desenvolvedores se integrem por meio de uma API para compatibilidade mais ampla de aplicativos.

A Apple também enfatiza a flexibilidade e a facilidade de acesso com o Gerenciamento de Configurações. Os usuários podem ativar ou desativar os recursos de acessibilidade a qualquer momento, por meio de configurações ou com atalhos, como comandos Siri ou botões dedicados, permitindo a personalização de acordo com as necessidades. A função de compartilhamento de acessibilidade permite que os usuários transfiram temporariamente suas configurações de acessibilidade personalizada para outro dispositivo, por exemplo, ao usar o iPhone de outra pessoa ou um quiosque público do iPad, garantindo continuidade e usabilidade personalizada entre os dispositivos.

No geral, as inovações de acessibilidade do iPhone 17 refletem a profunda colaboração da Apple com as comunidades de invalidez para projetar recursos que abordam desafios específicos na cognição, fala, visão, audição e habilidades motoras. Os avanços no aprendizado de máquina no dispositivo, na integração de hardware e na personalização do usuário produzem um ecossistema mais inclusivo que reduz as barreiras à adoção de tecnologia entre usuários com deficiência. As novas ferramentas visam capacitar os usuários com deficiência para se envolver com seus iPhones de forma completa e independente, preenchendo lacunas no acesso e uso da tecnologia, mantendo a privacidade e a facilidade de uso.