由iOS 17提供支持的iPhone 17推出了一套全面的可访问性功能,旨在通过解决各种物理,认知,感觉和语音相关的需求,旨在减少残疾用户的采用差距。这些功能Mark Apple通过利用高级硬件,设备机器学习和可自定义的用户体验的创新来使苹果公司持续的承诺使技术包容和可用。
关键的认知可访问性功能之一是辅助访问,该功能通过关注呼叫,消息传递和捕获照片等基本任务来简化界面。此功能介绍了针对认知障碍用户量身定制的大型按钮和杂乱无章的布局,减少了认知负载并增强了可用性。辅助访问根据用户的喜好在视觉网格或基于文本的布局中组织界面,提供可帮助用户更独立地与iPhone互动的个性化体验。它还将应用程序,照片,播放,呼叫和消息与高对比度按钮和大型文本标签集成在一起,以鼓励人们为有认知挑战的人轻松导航。在消息中集成仅视觉驱动的表情符号键盘和视频消息记录,进一步支持需要简化输入的用户的通信。
iPhone 17中的语音可访问性已取得了个人声音和现场演讲等功能。个人声音使个人有可能失去说话能力(例如ALS或渐进式神经条件的人)的能力,从而创造出类似于自然语音的数字声音。通过录制一系列短语,用户会产生一个体现其样式的合成语音,该语音可用于在呼叫,面部或面对面交互之间进行有效沟通。实时语音允许非语言用户或有语音障碍的用户键入文本,然后在对话中大声说出,提供了新的通信方式,而无需口头输出。声音快捷方式之类的增强功能允许自定义语音命令,而聆听非典型语音则采用了在设备机器学习的方式来改善语音识别的更广泛的语音模式,使Siri和其他语音驱动的功能可以更好地理解具有获得或非典型语音能力的用户。
对于有视力障碍的用户,iOS 17可以通过Point和Speak扩展功能,这是放大镜应用程序的一部分。此功能利用iPhone的相机,包括兼容型号(iPhone 12 Pro和后来的Pro版本)上的LIDAR传感器,以识别和读取大声文本或对象用户指着的,从而缓解与设备或标牌等物理对象的交互。这使视力低下或失明的用户可以实时听取描述来更好地了解自己的环境。此外,声音识别功能已得到增强,以检测到更广泛的环境声音,例如门铃,警报或婴儿哭声,向聋哑或听力障碍的用户发送通知,从而提高安全性和情境意识。视觉可访问性的另一个创新是眼睛跟踪,它使用前置摄像头和AI来使身体残疾的用户仅通过眼动导航其设备。这种校准发生在设备上,确保隐私,并为电机功能受损的用户提供一种更无提交互的方法。
运动和身体残障受益于辅助改进和眼动跟踪控制等功能,这些功能提供了传统触摸以外的替代输入方法。 Assistivetouch增强手势,使用户能够通过简化的输入和自定义的手势执行复杂的操作。眼睛跟踪在iPhone和iPad上进行交叉应用程序,使用户可以通过居住在元素上或执行诸如单击或用眼睛滑动之类的手势来与界面进行交互。这些技术为肢体运动或协调有限的用户提供了更多的自主权。
iOS 17进一步通过播放触觉来支持包容性,这是一种创新的方式,对于聋哑人或难以听见播放的用户。此功能通过iPhone的Taptic引擎将音频反馈转化为触觉反馈,从而创造了与播放节奏和纹理同步的振动。这丰富了超越听觉感知的播放的感官体验,并可以供开发人员通过API集成以获得更广泛的应用程序兼容性。
苹果还强调了通过设置管理的灵活性和易于访问。用户可以随时通过设置或使用Siri命令或专用按钮等快捷方式启用或禁用可访问性功能,从而根据不断变化的需求进行自定义。可访问性共享功能使用户可以将其个性化可访问性设置临时转移到另一个设备,例如,当使用他人的iPhone或公共iPad售货亭时,确保了跨设备的连续性和个性化可用性。
总体而言,iPhone 17的可访问性创新反映了苹果与残疾社区的深入合作,以设计解决认知,语音,视觉,听力和运动技能的特定挑战的功能。在设备机器学习,硬件集成和用户自定义的进步产生了一个更具包容性的生态系统,可降低残疾用户技术采用的障碍。新工具旨在使残疾用户能够充分独立地与iPhone互动,在保持隐私和易用性的同时弥合技术访问和使用方面的空白。