Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon 장애인 사용자 간의 채택 격차의 iPhone 17 연구 접근성 기능


장애인 사용자 간의 채택 격차의 iPhone 17 연구 접근성 기능


iOS 17에 의해 구동되는 iPhone 17은 다양한 신체적,인지 적, 감각 및 언어 관련 요구를 해결함으로써 장애인 사용자 간의 채택 격차를 줄이기 위해 설계된 포괄적 인 접근성 기능 제품군을 소개합니다. 이러한 기능은 고급 하드웨어, 사후 기계 학습 및 사용자 정의 가능한 사용자 경험을 활용하는 혁신을 통해 다양한 장애인을 위해 기술을 포용적이고 사용할 수있게하려는 Apple의 지속적인 노력을 기울입니다.

주요인지 접근성 기능 중 하나는 보조 액세스 (Assistive Access)이며, 호출, 메시징 및 사진 캡처와 같은 필수 작업에 중점을 두어 인터페이스를 단순화합니다. 이 기능은 큰 버튼과인지 장애가있는 사용자에게 맞춤화 된 대형 버튼과 덜 어수선한 레이아웃을 제공하여인지 부하를 줄이고 유용성을 향상시킵니다. Assistive Access는 사용자의 선호도에 따라 시각적 그리드 또는 텍스트 기반 레이아웃에서 인터페이스를 구성하여 사용자가 iPhone과 더 독립적으로 상호 작용하는 데 도움이되는 개인화 가능한 경험을 제공합니다. 또한 카메라, 사진, 재생, 통화 및 메시지와 같은 앱을 대비 버튼 및 대형 텍스트 레이블과 같은 앱을 통합하여인지 문제가있는 사람들을위한 쉬운 탐색을 장려합니다. 메시지에 시각적으로 구동 된 이모티콘 키보드 및 비디오 메시지 녹화의 통합은 단순화 된 입력이 필요한 사용자를위한 커뮤니케이션을 추가로 지원합니다.

iPhone 17의 음성 접근성은 개인 음성 및 실시 연설과 같은 기능으로 진행되었습니다. 개인의 목소리는 ALS와 같이 말할 수있는 능력이나 진보적 인 신경 학적 조건이 자연스러운 말과 비슷한 디지털 음성을 만들 수있는 능력을 잃을 위험이있는 개인을 가능하게합니다. 일련의 문구를 녹음함으로써 사용자는 자신의 스타일을 구현하는 합성 음성을 생성하며, 이는 통화, 면식 또는 직접 상호 작용을 통해 효과적으로 의사 소통하는 데 사용할 수 있습니다. 실시간 연설을 통해 비언어적 사용자 또는 언어 장애가있는 사람들은 대화 중에 큰 소리로 말하는 텍스트를 입력 할 수 있으며, 언어 출력없이 의사 소통을위한 새로운 방법을 제공합니다. 보컬 바로 가기와 같은 향상은 사용자 정의 음성 명령을 허용하는 반면, 비정형 연설을 듣는 반면, 비정형 연설을 듣는다. 기기 기계 학습을 사용하여 더 넓은 범위의 음성 패턴에 대한 음성 인식을 향상시켜 Siri 및 기타 음성 중심 기능을 통해 획득되거나 비정형 음성 능력을 가진 사용자가 더 잘 이해할 수있게한다.

시력 장애가있는 사용자의 경우 iOS 17은 돋보기 앱의 일부인 Point and Speak를 사용하여 기능을 확장합니다. 이 기능은 호환 모델 (iPhone 12 Pro 및 이후 Pro 버전)의 Lidar 센서를 포함하여 iPhone 카메라를 활용하여 사용자가 가리키는 텍스트 또는 객체를 식별하고 읽고 기기 또는 간판과 같은 물리적 객체와의 상호 작용을 완화합니다. 이를 통해 시력이 낮거나 실명이 낮은 사용자는 실시간으로 청력 설명을 통해 자신의 환경을 더 잘 이해할 수 있습니다. 또한 사운드 인식 기능은 초인종, 경보 또는 아기 외침과 같은 광범위한 환경 사운드를 감지하여 청각 장애인 또는 청각이 어려운 사용자에게 알림을 보내 안전 및 상황 인식을 향상시키기 위해 향상되었습니다. 비전 접근성의 또 다른 혁신은 눈 추적으로, 전면 카메라와 AI를 사용하여 신체 장애가있는 사용자가 안구 움직임으로 만 장치를 탐색 할 수 있도록합니다. 이 캘리브레이션은 기기가 발생하여 프라이버시를 보장하며 모터 기능이 손상된 사용자를위한보다 핸즈프리 상호 작용 방법을 지원합니다.

운동 및 물리적 장애는 AssistiVetouch 개선 및 눈 추적 제어와 같은 기능의 이점을 얻습니다.이 기능은 전통적인 터치를 넘어 대체 입력 방법을 제공합니다. AssistiveTouch는 제스처를 증대시켜 사용자가 단순화 된 입력 및 맞춤형 제스처로 복잡한 작업을 수행 할 수 있도록합니다. 눈 추적은 iPhone 및 iPad에서 크로스 앱을 작동시켜 사용자가 요소에 집에 거주하거나 눈을 클릭하거나 스 와이프하는 것과 같은 제스처를 수행하여 인터페이스와 상호 작용할 수 있습니다. 이러한 기술은 사지 이동이나 조정이 제한된 사용자에게 더 많은 자율성을 제공합니다.

iOS 17은 청각 장애인 또는 청각이 재생을 경험하기가 어려운 사용자를위한 혁신적인 방법 인 재생 햅틱을 통한 포괄 성을 추가로 지원합니다. 이 기능은 iPhone의 Taptic Engine을 통해 오디오를 촉각 피드백으로 변환하여 리듬 및 재생 텍스처와 동기화 된 진동을 만듭니다. 이는 청각 인식을 넘어서 재생의 감각적 경험을 풍부하게하며 개발자가 API를 통해 더 넓은 앱 호환성을 통합 할 수 있도록 제공됩니다.

Apple은 또한 설정 관리를 통해 유연성과 액세스 용이성을 강조합니다. 사용자는 SIRI 명령 또는 전용 버튼과 같은 설정 또는 바로 가기를 통해 언제든지 접근성 기능을 활성화 또는 비활성화 할 수 있으므로 변경 사항에 따라 사용자 정의가 가능합니다. 접근성 공유 기능을 통해 사용자는 개인화 된 접근성 설정을 다른 장치로 일시적으로 전송할 수 있습니다 (예 : 다른 사람의 iPhone 또는 공개 iPad 키오스크를 사용할 때는 장치 간의 연속성과 개인화 된 유용성을 보장합니다.

전반적으로 iPhone 17의 접근성 혁신은 Apple의 장애 커뮤니티와의 심층 협력을 반영하여 인식, 언어, 비전, 청각 및 운동 기술의 특정 문제를 해결하는 기능을 설계합니다. 기기 기계 학습, 하드웨어 통합 및 사용자 사용자 정의의 발전은 장애인 사용자 간의 기술 채택에 대한 장벽을 낮추는보다 포괄적 인 생태계를 생성합니다. 새로운 도구는 장애가있는 사용자가 iPhone을 완전히 독립적으로 참여시킬 수 있도록하여 기술 액세스 및 사용에 대한 격차를 유지하면서 개인 정보 및 사용 편의성을 유지하는 것을 목표로합니다.