Nowe funkcje ułatwień dostępu Apple będą dostępne jeszcze w tym roku i obejmują śledzenie wzroku, czyli sposób, w jaki użytkownicy mogą nawigować między iPadami i iPhone’ami za pomocą samych oczu. Zdjęcia/wideo Apple nadal
Firma Apple uczciła Światowy Dzień Świadomości Dostępności, wprowadzając szereg nowych funkcji ułatwień dostępu — w tym funkcję opartą na sztucznej inteligencji, która umożliwia osobom niepełnosprawnym poruszanie się po iPhonie lub iPadzie za pomocą samych oczu.
Premiera nastąpi jeszcze w tym roku, najprawdopodobniej na iOS i iPadOS 18.
Aplikacja Eye Tracking będzie korzystać z przedniego aparatu urządzenia, aby śledzić wzrok danej osoby. „Zatrzymanie kontroli” lub zatrzymanie wzroku na ikonie lub innym elemencie byłoby równoznaczne z fizycznym wybraniem go przed uzyskaniem dostępu do dodatkowych funkcji, takich jak fizyczne przyciski, przesuwanie i inne gesty, samymi oczami.
Cała sztuczna inteligencja i uczenie maszynowe do śledzenia wzroku będą wykonywane na Twoim urządzeniu, bez udostępniania jakichkolwiek danych firmie Apple ani jakiejkolwiek stronie trzeciej.
Technologia musi współpracować z systemem iOS, aplikacjami Apple i oprogramowaniem innych firm.
Kolejna oczekująca funkcja pomoże każdemu, kto cierpi na chorobę lokomocyjną, korzystając z iPhone’a lub iPada w jadącym pojeździe (oczywiście jako pasażer).
Sygnały drogowe pojazdów obejmują kropki pojawiające się na krawędzi ekranu telefonu iPhone lub iPada, gdy urządzenie wykryje, że znajdujesz się w poruszającym się pojeździe.
Dzięki czujnikom wbudowanym w urządzenie kropki poruszają się, dostosowując się do ruchu pojazdu, co pomaga zmniejszyć czasami wywołujące mdłości niedopasowanie między nieruchomym ekranem a poruszającym się pojazdem.
Punkty będą działać z aplikacjami innych firm lub podczas oglądania filmu.
(Jeśli to nie twoje, wskazówki ruchu można wyłączyć w Centrum sterowania.)
Kontynuując wprowadzoną w zeszłym roku funkcję klonowania głosu – skierowaną do osób zagrożonych utratą zdolności mówienia – w przygotowaniu jest szereg nowych funkcji mowy, ponownie wszystkie napędzane sztuczną inteligencją.
Obejmują skróty głosowe, dzięki którym Siri może rozpoznać słowo — lub po prostu mowę — i zainicjować akcję, np. zadzwonienie do przyjaciela lub członka rodziny.
Konfiguracja będzie tak prosta, jak trzykrotne wypowiedzenie dźwięku.
Aplikacja Listen to Atypical Speech będzie korzystać z wbudowanego w urządzenie uczenia maszynowego, aby rozpoznawać wzorce mowy użytkownika. Te ulepszone funkcje rozpoznawania mowy, przeznaczone dla użytkowników z nabytymi lub postępującymi schorzeniami wpływającymi na mowę, takimi jak porażenie mózgowe, stwardnienie zanikowe boczne (ALS) lub udar, zapewniają nowy poziom dostosowywania i kontroli, zgodnie z zapowiedzią Apple.
Zaprezentowano także nową funkcję audio opartą na CarPlay.
Korzystając z mikrofonu telefonu iPhone lub iPada, funkcja rozpoznawania głosu nasłuchuje dźwięków syreny karetki pogotowia lub niecierpliwego kierowcy podjeżdżającego za Tobą, a następnie wyświetla wiadomość tekstową na ekranie samochodu.
Music Haptics umożliwi osobom niesłyszącym i niedosłyszącym doświadczanie muzyki poprzez kliknięcia i wibracje. Będzie współpracować z Apple Music, a interfejsy API są dostępne dla innych usług muzycznych, aby umożliwić tę funkcję na ich platformach.
System Apple Vision Pro (który jest nadal dostępny tylko w USA pomimo rosnącej liczby importów DIY) będzie wyposażony w nowe funkcje ułatwień dostępu, w tym VisionOS – który zapewni napisy na żywo, dzięki czemu użytkownicy niesłyszący lub niedosłyszący będą mogli śledzić prowadzone rozmowy. Dialog na czacie na żywo i w dźwięku z aplikacji.
Inne nowe funkcje obejmą pisanie po najechaniu kursorem, które wyświetla większy tekst podczas pisania w polu tekstowym, z preferowaną przez użytkownika czcionką i kolorem, a także szerszą obsługę języka Personal Voice — wspomnianą wyżej funkcję, która pozwala osobie sklonować swój głos, zanim straci zdolność mówienia, dzięki czemu sztuczna mowa ma bardziej naturalny głos.
„Wyobraźcie sobie, jak inaczej zapamiętalibyśmy Stephena Hawkinga, gdyby był w stanie komunikować się ze światem za pomocą próbki swojego prawdziwego głosu, a nie sztucznego głosu” – powiedział Jonathan Mawson, zwolennik dostępności, podczas debiutu tej funkcji z iOS 17. „Wyjątkowy i bardzo osobisty dla nas”.
Chris Keel jest członkiem Auckland In OgłaszaćPraca zespołowa. Dołączył do Herald w 2018 r. i jest redaktorem ds. technologii oraz starszym autorem tekstów biznesowych.
„Nieuleczalny myśliciel. Miłośnik jedzenia. Subtelnie czarujący badacz alkoholu. Zwolennik popkultury”.
More Stories
Emdoor przygotowuje się do zaprezentowania swoich osiągnięć w zakresie nowej technologii sztucznej inteligencji podczas targów Global Sources Mobile Electronics Show 2024.
LinkedIn wykorzystuje Twoje dane do szkolenia Microsoft, OpenAI i jego modeli AI – oto jak to wyłączyć
Zapomnij o Apple Watch Series 10 — Apple Watch Ultra 2 w kolorze Satin Black to smartwatch, który warto mieć