iOS 17を搭載したiPhone 17は、さまざまな物理的、認知的、感覚、音声関連のニーズに対処することにより、障害者ユーザーの養子縁組ギャップを削減するために設計された包括的なアクセシビリティ機能を導入します。これらの機能は、高度なハードウェア、デバイス機械学習、カスタマイズ可能なユーザーエクスペリエンスを活用するイノベーションを通じて、多様な障害を持つ人々のためにテクノロジーを包括的かつ使用できるようにするためのAppleの継続的なコミットメントを示しています。
重要な認知アクセシビリティ機能の1つは、補助アクセスです。これは、写真の呼び出し、メッセージング、キャプチャなどの重要なタスクに焦点を当てることでインターフェイスを簡素化します。この機能には、大型ボタンと、認知障害のあるユーザーに合わせて調整された散らかったレイアウトがあり、認知負荷が低下し、使いやすさが向上します。 Assistive Accessは、ユーザーの好みに応じて、視覚的なグリッドまたはテキストベースのレイアウトでインターフェイスを整理し、ユーザーがiPhoneとより独立して対話するのに役立つパーソナライズ可能なエクスペリエンスを提供します。また、カメラ、写真、再生、通話、メッセージなどのアプリを、コントラストのボタンと大規模なテキストラベルを備えたメッセージを統合して、認知的課題のある人の簡単なナビゲーションを促進します。メッセージ内の視覚駆動型の絵文字のemoji-onlyキーボードとビデオメッセージ録画の統合は、単純化された入力を必要とするユーザーのコミュニケーションをさらにサポートします。
iPhone 17のスピーチアクセシビリティは、個人的な声やライブスピーチなどの機能を備えて進行しています。個人的な声により、ALSや進行性の神経学的状態のある人など、話す能力を失うリスクがある個人が、自然な発言に似たデジタル音声を作成することができます。一連のフレーズを録音することで、ユーザーは自分のスタイルを具体化する合成音声を生成します。これは、通話、ファセティタイム、または対面での相互作用を介して効果的に通信するために使用できます。ライブスピーチにより、非言語的ユーザーまたは音声障害のあるユーザーがテキストを入力することができ、それは会話中に声を出して話され、言語の出力を必要とせずにコミュニケーションのための新しい方法を提供します。ボーカルショートカットのような機能強化により、カスタム音声コマンドが可能になりますが、非定型音声を聴き、機械学習を採用して、より広い範囲の音声パターンの音声認識を改善し、siriや他の音声主導の機能によって習得または非定型の音声能力をよりよく理解できるようにします。
Vision障害のあるユーザーの場合、iOS 17は、Magnifierアプリの一部であるPointとSpeakで機能を拡張します。この機能は、互換性のあるモデル(iPhone 12 Proおよび後のProバージョン)のLidarセンサーを含むiPhoneのカメラを活用して、ユーザーが指すテキストまたはオブジェクトを容認および読み取り、アプライアンスやサイネージなどの物理オブジェクトとの相互作用を緩和します。これにより、視覚が低いユーザーが、リアルタイムで説明を聞くことで環境をよりよく理解することができます。さらに、ドアベル、アラーム、赤ちゃんの叫びなどの環境音をより広く検出し、聴覚障害者や聴覚障害のあるユーザーに通知を送信し、安全性と状況認識を改善するために、健全な認識機能が強化されています。ビジョンアクセシビリティのもう1つの革新は、目の追跡です。これは、前面カメラとAIを使用して、身体障害のあるユーザーが目の動きだけでデバイスをナビゲートできるようにします。このキャリブレーションは、デバイスで発生し、プライバシーを確保し、運動障害のあるユーザーにとってよりハンズフリーインタラクション方法をサポートします。
運動障害と身体障害は、Assistivetouchの改善やアイトラッキングコントロールなどの機能の恩恵を受けます。これは、従来のタッチを超えた代替入力方法を提供します。 Assistvetouchはジェスチャーを拡張し、ユーザーが簡素化された入力とカスタマイズされたジェスチャーで複雑なアクションを実行できるようにします。アイトラッキングはiPhoneとiPadのクロスアプリを動作させるため、ユーザーは要素に住むか、目でクリックしたりスワイプするなどのジェスチャーを実行したりすることでインターフェイスと対話できます。これらのテクノロジーは、手足の動きや調整が限られているユーザーにより多くの自律性を提供します。
iOS 17は、再生の革新的な方法である再生ハプティックスを通じて包括性をさらにサポートしています。この機能は、iPhoneのタプティックエンジンを介したオーディオを触覚フィードバックに変換し、再生のリズムとテクスチャと同期した振動を作成します。これは、聴覚認識を超えた再生の感覚体験を豊かにし、開発者がより広いアプリの互換性のためにAPIを介して統合できるようになります。
Appleは、設定管理を備えた柔軟性とアクセスの容易さも強調しています。ユーザーは、設定やSIRIコマンドや専用ボタンなどのショートカットを介していつでもアクセシビリティ機能を有効または無効にして、ニーズの変化に応じてカスタマイズを可能にすることができます。アクセシビリティ共有関数を使用すると、ユーザーは、他の誰かのiPhoneやPublic iPad Kioskを使用する場合、パーソナライズされたアクセシビリティ設定を別のデバイスに一時的に転送し、デバイス全体で継続性とパーソナライズされたユーザビリティを確保できます。
全体として、iPhone 17のアクセシビリティイノベーションは、Appleの障害コミュニティとの深いコラボレーションを反映して、認知、スピーチ、ビジョン、聴覚、運動能力の特定の課題に対処する機能を設計します。デバイス上の機械学習、ハードウェア統合、ユーザーのカスタマイズの進歩により、障害者の間でのテクノロジーの採用に対する障壁を下げるより包括的なエコシステムが生成されます。新しいツールは、障害のあるユーザーがiPhoneを完全かつ独立して関与させることを目指しており、プライバシーと使いやすさを維持しながら、テクノロジーアクセスと使用のギャップを埋めることを目的としています。