IPhone 17, zasilany przez iOS 17, wprowadza kompleksowy pakiet funkcji dostępności zaprojektowany w celu zmniejszenia luk adopcyjnych wśród osób niepełnosprawnych poprzez zaspokojenie różnych potrzeb fizycznych, poznawczych, sensorycznych i związanych z mową. Funkcje te oznaczają ciągłe zaangażowanie Apple w tworzenie technologii włączającej i użyteczne dla osób z różnorodnymi niepełnosprawnościami poprzez innowacje, które wykorzystują zaawansowany sprzęt, uczenie maszynowe na urządzeniu i konfigurowalne doświadczenia użytkowników.
Jedną z kluczowych funkcji dostępności poznawczych jest dostęp wspomagający, który upraszcza interfejs, koncentrując się na niezbędnych zadaniach, takich jak powołanie, wiadomości i rejestrowanie zdjęć. Ta funkcja przedstawia duże przyciski i mniej zagracony układ dostosowany do użytkowników z niepełnosprawnością poznawczą, zmniejszając obciążenie poznawcze i zwiększając użyteczność. Assistive Access organizuje interfejs w siatce wizualnej lub układu tekstowym w zależności od preferencji użytkownika, oferując osobowość osobistą, która pomaga użytkownikom w interakcji z ich iPhone'ami bardziej niezależnie. Integruje również aplikacje takie jak aparat, zdjęcia, odtwarzanie, połączenia i wiadomości z przyciskami o wysokiej zawartości kontrastu i dużymi etykietami tekstowymi, aby zachęcić do łatwej nawigacji dla osób z wyzwaniami poznawczymi. Integracja opartej na wizualnie emojżu, tylko nagrywanie wiadomości i wiadomości wideo w wiadomościach dodatkowo obsługuje komunikację dla użytkowników potrzebujących uproszczonych danych wejściowych.
Dostępność mowy w iPhone 17 rozwinęła się z takimi funkcjami, jak osobisty głos i mowa na żywo. Osobisty głos umożliwia osobom zagrożonym utratą zdolności do mówienia, takich jak osoby z ALS lub postępowe warunki neurologiczne - w celu stworzenia cyfrowego głosu, który przypomina ich naturalną mowę. Nagrywając serię fraz, użytkownicy generują syntetyczny głos ucieleśniający ich styl, którego można wykorzystać do skutecznej komunikowania się między połączeniami, FaceTime lub osobistymi interakcjami. Mowa na żywo pozwala użytkownikom niewerbalnymi lub osobom z upośledzeniem mowy na pisanie tekstu, który jest następnie wypowiadany na głos podczas rozmów, zapewniając nowe sposoby komunikacji bez wymagania wyjścia werbalnego. Ulepszenia, takie jak skrótów wokalnych, pozwalają na niestandardowe polecenia głosowe, podczas gdy słuchanie nietypowych mowy wykorzystuje uczenie maszynowe na urządzeniu, aby poprawić rozpoznawanie mowy w szerszym zakresie wzorców mowy, umożliwiając użytkownikom lepsze zrozumienie nabytych lub nietypowych zdolności mowy.
W przypadku użytkowników z zaburzeniami wizji iOS 17 rozszerza możliwości o punkt i mówienie, która jest częścią aplikacji na luźnik. Ta funkcja wykorzystuje aparat iPhone'a, w tym czujniki LIDAR w kompatybilnych modelach (wersje iPhone 12 Pro i późniejsze Pro), aby identyfikować i odczytać tekst lub obiekty, które wskazują użytkowników, złagając interakcję z obiektami fizycznymi, takimi jak urządzenia lub oznakowanie. Pozwala to użytkownikom o niskiej wizji lub ślepotę na lepsze zrozumienie ich środowiska poprzez opisy opisów w czasie rzeczywistym. Ponadto funkcja rozpoznawania dźwięku została ulepszona w celu wykrycia szerszej liczby dźwięków środowiskowych, takich jak dzwonki do drzwi, alarmy lub okrzyki dla niemowląt, wysyłając powiadomienia do użytkowników, którzy są głuchymi lub trudne, poprawiając w ten sposób bezpieczeństwo i świadomość sytuacyjną. Kolejną innowacją w dostępności wizji jest śledzenie wzroku, które wykorzystuje przednią kamerę i sztuczną inteligencję, aby umożliwić użytkownikom niepełnosprawność fizyczną poruszanie się wyłącznie w ruchach oczu. Ta kalibracja występuje na urządzeniu, zapewniając prywatność i obsługuje bardziej bez użycia głośnej metody interakcji dla użytkowników z upośledzoną funkcją motoryczną.
Niepełnosprawność motoryczna i fizyczna korzysta z funkcji takich jak ulepszenia wspomagania i kontroli śledzenia wzroku, które oferują alternatywne metody wejściowe poza tradycyjnym dotykiem. AssistiveTouch rozszerza gesty, umożliwiając użytkownikom wykonywanie złożonych działań z uproszczonymi wejściami i dostosowanymi gestami. Śledzenie wzroku działa cross-App na iPhonie i iPadzie, umożliwiając użytkownikom interakcję z interfejsem poprzez rozwój elementów lub wykonywanie gestów, takich jak kliknięcie lub przeciąganie oczami. Technologie te zapewniają większą autonomię użytkownikom, którzy mają ograniczony ruch lub koordynację kończyn.
iOS 17 dodatkowo obsługuje włączenie poprzez odtwarzanie Haptics, innowacyjny sposób dla użytkowników, którzy są głusi lub trudno wysłuchać odtwarzania. Ta funkcja tłumaczy dźwięk na dotykowe informacje zwrotne za pośrednictwem silnika taptowego iPhone'a, tworząc wibracje zsynchronizowane z rytmem i teksturami odtwarzania. To wzbogaca sensoryczne wrażenia odtwarzania poza postrzeganiem słuchu i jest udostępnione dla programistów do integracji za pomocą interfejsu API dla szerszej kompatybilności aplikacji.
Apple podkreśla również elastyczność i łatwość dostępu do zarządzania ustawieniami. Użytkownicy mogą włączyć lub wyłączać funkcje dostępności w dowolnym momencie za pośrednictwem ustawień lub z skrótami, takimi jak polecenia Siri lub dedykowane przyciski, umożliwiając dostosowanie zgodnie ze zmieniającymi się potrzebami. Funkcja udostępniania dostępności pozwala użytkownikom tymczasowo przesyłać swoje spersonalizowane ustawienia dostępności do innego urządzenia, na przykład przy użyciu czyjegoś iPhone'a lub publicznego kiosku na iPada, zapewniając ciągłość i spersonalizowaną użyteczność na wszystkich urządzeniach.
Ogólnie rzecz biorąc, innowacje w zakresie dostępności iPhone 17 odzwierciedlają głęboką współpracę Apple ze społecznościami niepełnosprawności w celu projektowania funkcji, które dotyczą konkretnych wyzwań w zakresie poznania, mowy, wizji, słuchu i umiejętności motorycznych. Postępy w uczeniu maszynowym na urządzeniu, integracji sprzętowej i dostosowywaniu użytkowników dają bardziej integracyjny ekosystem, który obniża bariery w przyjęciu technologii wśród osób niepełnosprawnych. Nowe narzędzia mają na celu umożliwienie użytkownikom niepełnosprawności do pełnego i niezależnego angażowania się w swoje iPhone'y, łącząc luki w dostępie i użytkowaniu technologii przy jednoczesnym zachowaniu prywatności i łatwości użytkowania.