Biegowelove.pl

informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Apple udostępnia kropki śledzące wzrok dla iPhone’a i iPada, które mają zapobiegać chorobie lokomocyjnej

Nowe funkcje ułatwień dostępu Apple będą dostępne jeszcze w tym roku i obejmują śledzenie wzroku, czyli sposób, w jaki użytkownicy mogą nawigować między iPadami i iPhone’ami za pomocą samych oczu. Zdjęcia/wideo Apple nadal

Firma Apple uczciła Światowy Dzień Świadomości Dostępności, wprowadzając szereg nowych funkcji ułatwień dostępu — w tym funkcję opartą na sztucznej inteligencji, która umożliwia osobom niepełnosprawnym poruszanie się po iPhonie lub iPadzie za pomocą samych oczu.

Premiera nastąpi jeszcze w tym roku, najprawdopodobniej na iOS i iPadOS 18.

Aplikacja Eye Tracking będzie korzystać z przedniego aparatu urządzenia, aby śledzić wzrok danej osoby. „Zatrzymanie kontroli” lub zatrzymanie wzroku na ikonie lub innym elemencie byłoby równoznaczne z fizycznym wybraniem go przed uzyskaniem dostępu do dodatkowych funkcji, takich jak fizyczne przyciski, przesuwanie i inne gesty, samymi oczami.

Cała sztuczna inteligencja i uczenie maszynowe do śledzenia wzroku będą wykonywane na Twoim urządzeniu, bez udostępniania jakichkolwiek danych firmie Apple ani jakiejkolwiek stronie trzeciej.

Technologia musi współpracować z systemem iOS, aplikacjami Apple i oprogramowaniem innych firm.

Kolejna oczekująca funkcja pomoże każdemu, kto cierpi na chorobę lokomocyjną, korzystając z iPhone’a lub iPada w jadącym pojeździe (oczywiście jako pasażer).

Sygnały drogowe pojazdów obejmują kropki pojawiające się na krawędzi ekranu telefonu iPhone lub iPada, gdy urządzenie wykryje, że znajdujesz się w poruszającym się pojeździe.

Dzięki czujnikom wbudowanym w urządzenie kropki poruszają się, dostosowując się do ruchu pojazdu, co pomaga zmniejszyć czasami wywołujące mdłości niedopasowanie między nieruchomym ekranem a poruszającym się pojazdem.

Punkty będą działać z aplikacjami innych firm lub podczas oglądania filmu.

(Jeśli to nie twoje, wskazówki ruchu można wyłączyć w Centrum sterowania.)

Kontynuując wprowadzoną w zeszłym roku funkcję klonowania głosu – skierowaną do osób zagrożonych utratą zdolności mówienia – w przygotowaniu jest szereg nowych funkcji mowy, ponownie wszystkie napędzane sztuczną inteligencją.

READ  Kosmetyki World of Warcraft wreszcie zaczynają wkraczać na front mody

Obejmują skróty głosowe, dzięki którym Siri może rozpoznać słowo — lub po prostu mowę — i zainicjować akcję, np. zadzwonienie do przyjaciela lub członka rodziny.

Konfiguracja będzie tak prosta, jak trzykrotne wypowiedzenie dźwięku.

Aplikacja Listen to Atypical Speech będzie korzystać z wbudowanego w urządzenie uczenia maszynowego, aby rozpoznawać wzorce mowy użytkownika. Te ulepszone funkcje rozpoznawania mowy, przeznaczone dla użytkowników z nabytymi lub postępującymi schorzeniami wpływającymi na mowę, takimi jak porażenie mózgowe, stwardnienie zanikowe boczne (ALS) lub udar, zapewniają nowy poziom dostosowywania i kontroli, zgodnie z zapowiedzią Apple.

Oczekujące aktualizacje dostępności CarPlay obejmują rozpoznawanie głosu, które umożliwia niesłyszącym lub niedosłyszącym kierowcom lub pasażerom uruchamianie alertów w celu powiadomienia o klaksonach i syrenach samochodowych.
Oczekujące aktualizacje dostępności CarPlay obejmują rozpoznawanie głosu, które umożliwia niesłyszącym lub niedosłyszącym kierowcom lub pasażerom uruchamianie alertów w celu powiadomienia o klaksonach i syrenach samochodowych.

Zaprezentowano także nową funkcję audio opartą na CarPlay.

Korzystając z mikrofonu telefonu iPhone lub iPada, funkcja rozpoznawania głosu nasłuchuje dźwięków syreny karetki pogotowia lub niecierpliwego kierowcy podjeżdżającego za Tobą, a następnie wyświetla wiadomość tekstową na ekranie samochodu.

Music Haptics umożliwi osobom niesłyszącym i niedosłyszącym doświadczanie muzyki poprzez kliknięcia i wibracje. Będzie współpracować z Apple Music, a interfejsy API są dostępne dla innych usług muzycznych, aby umożliwić tę funkcję na ich platformach.

Nowa funkcja VisionOS zapewni napisy na żywo, dzięki czemu niesłyszący i niedosłyszący użytkownicy będą mogli śledzić mówione dialogi w rozmowach na żywo oraz w dźwięku z aplikacji.
Nowa funkcja VisionOS zapewni napisy na żywo, dzięki czemu niesłyszący i niedosłyszący użytkownicy będą mogli śledzić mówione dialogi w rozmowach na żywo oraz w dźwięku z aplikacji.

System Apple Vision Pro (który jest nadal dostępny tylko w USA pomimo rosnącej liczby importów DIY) będzie wyposażony w nowe funkcje ułatwień dostępu, w tym VisionOS – który zapewni napisy na żywo, dzięki czemu użytkownicy niesłyszący lub niedosłyszący będą mogli śledzić prowadzone rozmowy. Dialog na czacie na żywo i w dźwięku z aplikacji.

Inne nowe funkcje obejmą pisanie po najechaniu kursorem, które wyświetla większy tekst podczas pisania w polu tekstowym, z preferowaną przez użytkownika czcionką i kolorem, a także szerszą obsługę języka Personal Voice — wspomnianą wyżej funkcję, która pozwala osobie sklonować swój głos, zanim straci zdolność mówienia, dzięki czemu sztuczna mowa ma bardziej naturalny głos.

„Wyobraźcie sobie, jak inaczej zapamiętalibyśmy Stephena Hawkinga, gdyby był w stanie komunikować się ze światem za pomocą próbki swojego prawdziwego głosu, a nie sztucznego głosu” – powiedział Jonathan Mawson, zwolennik dostępności, podczas debiutu tej funkcji z iOS 17. „Wyjątkowy i bardzo osobisty dla nas”.

READ  WWDC 2021: Czy Apple może poważnie podchodzić do gier?

Chris Keel jest członkiem Auckland In OgłaszaćPraca zespołowa. Dołączył do Herald w 2018 r. i jest redaktorem ds. technologii oraz starszym autorem tekstów biznesowych.