Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Iphone 17 La función de accesibilidad de estudio de las brechas de adopción entre los usuarios discapacitados


Iphone 17 La función de accesibilidad de estudio de las brechas de adopción entre los usuarios discapacitados


El iPhone 17, impulsado por iOS 17, presenta un conjunto integral de características de accesibilidad diseñadas para reducir las brechas de adopción entre los usuarios discapacitados al abordar una variedad de necesidades físicas, cognitivas, sensoriales y relacionadas con el habla. Estas marcan el compromiso continuo de Mark Apple de hacer que la tecnología sea inclusiva y utilizable para personas con diversas discapacidades a través de innovaciones que aprovechan el hardware avanzado, el aprendizaje automático en el dispositivo y las experiencias de los usuarios personalizables.

Una de las características clave de accesibilidad cognitiva es el acceso de asistencia, que simplifica la interfaz al enfocarse en tareas esenciales como llamar, mensajes y capturar fotos. Esta característica presenta botones grandes y un diseño menos desordenado adaptado a los usuarios con discapacidades cognitivas, reduciendo la carga cognitiva y mejorando la usabilidad. Asistente Access organiza la interfaz en una cuadrícula visual o en un diseño basado en texto dependiendo de la preferencia del usuario, ofreciendo una experiencia personalizable que ayuda a los usuarios a interactuar con sus iPhones de manera más independiente. También integra aplicaciones como cámara, fotos, reproducción, llamadas y mensajes con botones de alto contraste y grandes etiquetas de texto para fomentar la navegación fácil para aquellos con desafíos cognitivos. La integración de un teclado y grabación de mensajes de video solo de EmoJi-Visual en Mensajes admite aún más la comunicación para los usuarios que necesitan entradas simplificadas.

La accesibilidad del habla en el iPhone 17 ha progresado con características como la voz personal y el habla en vivo. La voz personal permite a las personas en riesgo de perder su capacidad de hablar ", como aquellos con ELA o condiciones neurológicas progresivas" para crear una voz digital que se parezca a su discurso natural. Mediante la grabación de una serie de frases, los usuarios generan una voz sintética que incorpora su estilo, que puede usarse para comunicarse de manera efectiva entre las llamadas, Facetime o interacciones en persona. El discurso en vivo permite a los usuarios no verbales o aquellos con impedimentos del habla para escribir un texto que luego se habla en voz alta durante las conversaciones, proporcionando nuevas formas de comunicación sin requerir salida verbal. Las mejoras como los atajos vocales permiten comandos de voz personalizados, mientras que escuchar el habla atípica emplea el aprendizaje automático en el dispositivo para mejorar el reconocimiento de voz para una gama más amplia de patrones de voz, lo que permite a los usuarios que Siri y otras funciones de habla adquiridas o atípicas se entienden mejor.

Para los usuarios con discapacidades de la visión, iOS 17 expande las capacidades con Point and Speak, que es parte de la aplicación Magnifier. Esta característica aprovecha la cámara de iPhone, incluidos los sensores LiDAR en modelos compatibles (versiones de iPhone 12 Pro y posteriores), para identificar y leer en voz alta texto u objetos que los usuarios apuntan, aliviando la interacción con objetos físicos como electrodomésticos o señalización. Esto permite a los usuarios con baja visión o ceguera comprender mejor su entorno al escuchar descripciones en tiempo real. Además, la función de reconocimiento de sonido se ha mejorado para detectar una gama más amplia de sonidos ambientales, como timbres, alarmas o gritos de bebé, enviando notificaciones a los usuarios sordos o con problemas de audición, lo que mejora la seguridad y la conciencia situacional. Otra innovación en la accesibilidad de la visión es el seguimiento ocular, que utiliza la cámara frontal y la IA para permitir a los usuarios con discapacidades físicas navegar por su dispositivo únicamente con movimientos oculares. Esta calibración ocurre en el dispositivo, asegurando la privacidad y admite un método de interacción más manos libres para los usuarios con una función motora deteriorada.

Las discapacidades motoras y físicas se benefician de características como las mejoras de asistencia y el control de seguimiento ocular, que ofrecen métodos de entrada alternativos más allá del toque tradicional. AsistIVETouch aumenta los gestos, lo que permite a los usuarios realizar acciones complejas con entradas simplificadas y gestos personalizados. El seguimiento ocular funciona cruzado en iPhone y iPad, lo que permite a los usuarios interactuar con la interfaz al pensar en elementos o realizar gestos como hacer clic o deslizar con los ojos. Estas tecnologías proporcionan más autonomía para los usuarios que tienen un movimiento o coordinación limitado de las extremidades.

iOS 17 admite aún más la inclusión a través de los hápticos de reproducción, una forma innovadora para que los usuarios sordos o con problemas de audición experimenten reproducción. Esta característica traduce el audio en retroalimentación táctil a través del motor taptico del iPhone, creando vibraciones sincronizadas con el ritmo y las texturas de reproducción. Esto enriquece la experiencia sensorial de la reproducción más allá de la percepción auditiva y está disponible para que los desarrolladores se integren a través de una API para una compatibilidad de aplicaciones más amplia.

Apple también enfatiza la flexibilidad y la facilidad de acceso con la gestión de configuraciones. Los usuarios pueden habilitar o deshabilitar las funciones de accesibilidad en cualquier momento a través de la configuración o con atajos como comandos Siri o botones dedicados, lo que permite la personalización de acuerdo con las necesidades cambiantes. La función de intercambio de accesibilidad permite a los usuarios transferir temporalmente su configuración de accesibilidad personalizada a otro dispositivo, por ejemplo, cuando usan el iPhone de otra persona o un quiosco público de iPad, asegurando continuidad y usabilidad personalizada en todos los dispositivos.

En general, las innovaciones de accesibilidad del iPhone 17 reflejan la profunda colaboración de Apple con las comunidades de discapacidad para diseñar características que aborden desafíos específicos en la cognición, el habla, la visión, la audición y las habilidades motoras. Los avances en el aprendizaje automático en el dispositivo, la integración de hardware y la personalización del usuario producen un ecosistema más inclusivo que reduce las barreras a la adopción de la tecnología entre los usuarios discapacitados. Las nuevas herramientas tienen como objetivo capacitar a los usuarios con discapacidades para interactuar con sus iPhones de manera completa e independiente, uniendo brechas en el acceso y el uso de la tecnología mientras mantienen la privacidad y la facilidad de uso.