Biegowelove.pl

informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Apple udostępnia kropki śledzące wzrok dla iPhone’a i iPada, które mają zapobiegać chorobie lokomocyjnej

Nowe funkcje ułatwień dostępu Apple będą dostępne jeszcze w tym roku i obejmują śledzenie wzroku, czyli sposób, w jaki użytkownicy mogą nawigować między iPadami i iPhone’ami za pomocą samych oczu. Zdjęcia/wideo Apple nadal

Firma Apple uczciła Światowy Dzień Świadomości Dostępności, wprowadzając szereg nowych funkcji ułatwień dostępu — w tym funkcję opartą na sztucznej inteligencji, która umożliwia osobom niepełnosprawnym poruszanie się po iPhonie lub iPadzie za pomocą samych oczu.

Premiera nastąpi jeszcze w tym roku, najprawdopodobniej na iOS i iPadOS 18.

Aplikacja Eye Tracking będzie korzystać z przedniego aparatu urządzenia, aby śledzić wzrok danej osoby. „Zatrzymanie kontroli” lub zatrzymanie wzroku na ikonie lub innym elemencie byłoby równoznaczne z fizycznym wybraniem go przed uzyskaniem dostępu do dodatkowych funkcji, takich jak fizyczne przyciski, przesuwanie i inne gesty, samymi oczami.

Cała sztuczna inteligencja i uczenie maszynowe do śledzenia wzroku będą wykonywane na Twoim urządzeniu, bez udostępniania jakichkolwiek danych firmie Apple ani jakiejkolwiek stronie trzeciej.

Technologia musi współpracować z systemem iOS, aplikacjami Apple i oprogramowaniem innych firm.

Kolejna oczekująca funkcja pomoże każdemu, kto cierpi na chorobę lokomocyjną, korzystając z iPhone’a lub iPada w jadącym pojeździe (oczywiście jako pasażer).

Sygnały drogowe pojazdów obejmują kropki pojawiające się na krawędzi ekranu telefonu iPhone lub iPada, gdy urządzenie wykryje, że znajdujesz się w poruszającym się pojeździe.

Dzięki czujnikom wbudowanym w urządzenie kropki poruszają się, dostosowując się do ruchu pojazdu, co pomaga zmniejszyć czasami wywołujące mdłości niedopasowanie między nieruchomym ekranem a poruszającym się pojazdem.

Punkty będą działać z aplikacjami innych firm lub podczas oglądania filmu.

(Jeśli to nie twoje, wskazówki ruchu można wyłączyć w Centrum sterowania.)

Kontynuując wprowadzoną w zeszłym roku funkcję klonowania głosu – skierowaną do osób zagrożonych utratą zdolności mówienia – w przygotowaniu jest szereg nowych funkcji mowy, ponownie wszystkie napędzane sztuczną inteligencją.

READ  „Wątki” New York Timesa nr 105 Wskazówki, spinogramy i odpowiedzi na niedzielę, 16 czerwca

Obejmują skróty głosowe, dzięki którym Siri może rozpoznać słowo — lub po prostu mowę — i zainicjować akcję, np. zadzwonienie do przyjaciela lub członka rodziny.

Konfiguracja będzie tak prosta, jak trzykrotne wypowiedzenie dźwięku.

Aplikacja Listen to Atypical Speech będzie korzystać z wbudowanego w urządzenie uczenia maszynowego, aby rozpoznawać wzorce mowy użytkownika. Te ulepszone funkcje rozpoznawania mowy, przeznaczone dla użytkowników z nabytymi lub postępującymi schorzeniami wpływającymi na mowę, takimi jak porażenie mózgowe, stwardnienie zanikowe boczne (ALS) lub udar, zapewniają nowy poziom dostosowywania i kontroli, zgodnie z zapowiedzią Apple.

Oczekujące aktualizacje dostępności CarPlay obejmują rozpoznawanie głosu, które umożliwia niesłyszącym lub niedosłyszącym kierowcom lub pasażerom uruchamianie alertów w celu powiadomienia o klaksonach i syrenach samochodowych.
Oczekujące aktualizacje dostępności CarPlay obejmują rozpoznawanie głosu, które umożliwia niesłyszącym lub niedosłyszącym kierowcom lub pasażerom uruchamianie alertów w celu powiadomienia o klaksonach i syrenach samochodowych.

Zaprezentowano także nową funkcję audio opartą na CarPlay.

Korzystając z mikrofonu telefonu iPhone lub iPada, funkcja rozpoznawania głosu nasłuchuje dźwięków syreny karetki pogotowia lub niecierpliwego kierowcy podjeżdżającego za Tobą, a następnie wyświetla wiadomość tekstową na ekranie samochodu.

Music Haptics umożliwi osobom niesłyszącym i niedosłyszącym doświadczanie muzyki poprzez kliknięcia i wibracje. Będzie współpracować z Apple Music, a interfejsy API są dostępne dla innych usług muzycznych, aby umożliwić tę funkcję na ich platformach.

Nowa funkcja VisionOS zapewni napisy na żywo, dzięki czemu niesłyszący i niedosłyszący użytkownicy będą mogli śledzić mówione dialogi w rozmowach na żywo oraz w dźwięku z aplikacji.
Nowa funkcja VisionOS zapewni napisy na żywo, dzięki czemu niesłyszący i niedosłyszący użytkownicy będą mogli śledzić mówione dialogi w rozmowach na żywo oraz w dźwięku z aplikacji.

System Apple Vision Pro (który jest nadal dostępny tylko w USA pomimo rosnącej liczby importów DIY) będzie wyposażony w nowe funkcje ułatwień dostępu, w tym VisionOS – który zapewni napisy na żywo, dzięki czemu użytkownicy niesłyszący lub niedosłyszący będą mogli śledzić prowadzone rozmowy. Dialog na czacie na żywo i w dźwięku z aplikacji.

Inne nowe funkcje obejmą pisanie po najechaniu kursorem, które wyświetla większy tekst podczas pisania w polu tekstowym, z preferowaną przez użytkownika czcionką i kolorem, a także szerszą obsługę języka Personal Voice — wspomnianą wyżej funkcję, która pozwala osobie sklonować swój głos, zanim straci zdolność mówienia, dzięki czemu sztuczna mowa ma bardziej naturalny głos.

„Wyobraźcie sobie, jak inaczej zapamiętalibyśmy Stephena Hawkinga, gdyby był w stanie komunikować się ze światem za pomocą próbki swojego prawdziwego głosu, a nie sztucznego głosu” – powiedział Jonathan Mawson, zwolennik dostępności, podczas debiutu tej funkcji z iOS 17. „Wyjątkowy i bardzo osobisty dla nas”.

READ  Apple wyciszyło premiery 2023, aby uwzględnić Mac Pro ze stałą pamięcią

Chris Keel jest członkiem Auckland In OgłaszaćPraca zespołowa. Dołączył do Herald w 2018 r. i jest redaktorem ds. technologii oraz starszym autorem tekstów biznesowych.