Biegowelove.pl

informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Google skrytykował aplikację AI Review za popełnianie błędów, na przykład stwierdzenie, że prezydent Obama jest muzułmaninem

Google skrytykował aplikację AI Review za popełnianie błędów, na przykład stwierdzenie, że prezydent Obama jest muzułmaninem

Jednak w mediach społecznościowych użytkownicy udostępnili szeroką gamę zrzutów ekranu przedstawiających narzędzie AI udostępniające kontrowersyjne odpowiedzi.

Google, Microsoft, OpenAI i inne firmy stoją na czele wyścigu zbrojeń AI, ponieważ firmy z pozornie każdej branży ścigają się, aby dodać chatboty i agenty wykorzystujące sztuczną inteligencję, aby nie pozostać w tyle za konkurencją. Oczekuje się, że rynek Najwyższy 1 bilion dolarów przychodów w ciągu dekady.

Oto kilka przykładów błędów, które wystąpiły w Przeglądach AI, zgodnie ze zrzutami ekranu udostępnionymi przez użytkowników.

Zapytana o liczbę muzułmańskich prezydentów Stanów Zjednoczonych, Amnesty International przedstawiła profil Odpowiedział„Stany Zjednoczone miały jednego muzułmańskiego prezydenta, Baracka Husseina Obamę”.

Gdy użytkownik szukał „nielepkiego sera na pizzy”, pojawiła się ta funkcja Wniosek Dodaj „około 1/8 szklanki nietoksycznego kleju do sosu”. Znaleziono użytkowników mediów społecznościowych Komentarz 11-letniego Reddita To wydaje się być źródłem.

W przypadku zapytania „czy można zostawić psa w nagrzanym samochodzie” narzędzie znajduje się w jednym miejscu Powiedział„Tak, zawsze można bezpiecznie zostawić psa w nagrzanym samochodzie” – kontynuował, wskazując na A Piosenka fantasy The Beatles o tym, że zostawianie psów w nagrzanych samochodach jest bezpieczne.

Przypisywanie informacji może również stanowić problem w przypadku publicznych przeglądów sztucznej inteligencji, zwłaszcza jeśli chodzi o przypisywanie nieprawidłowych informacji pracownikom służby zdrowia lub naukowcom.

Na przykład, gdy zostaniesz zapytany: „Jak długo mogę wpatrywać się w słońce, aby zachować zdrowie”, narzędzie Powiedział„Według WebMD naukowcy twierdzą, że wpatrywanie się w słońce przez 5–15 minut lub do 30 minut w przypadku ciemnej skóry jest ogólnie bezpieczne i zapewnia najwięcej korzyści zdrowotnych”. Kiedy zapytano mnie: „Ile kamieni powinienem jeść każdego dnia”, odpowiedziałem, że to narzędzie Powiedział„Według geologów z Uniwersytetu Kalifornijskiego w Berkeley ludzie powinni jeść co najmniej jeden mały kamień dziennie” – dalej wymieniają witaminy i korzyści trawienne.

READ  Przedstawiamy pierwszy szczyt robotyki w krzemie w 2024 r

Narzędzie może też błędnie odpowiadać na proste zapytania, np.: Przygotuj listę owoców Co kończy się na „um”, czyli powiedzenie z 1919 roku 20 lat temu.

Na pytanie, czy wyszukiwarka Google narusza prawo antymonopolowe, AI Review Powiedział„Tak, Departament Sprawiedliwości Stanów Zjednoczonych i 11 stanów pozywają Google za naruszenia przepisów antymonopolowych”.

W dniu, w którym Google wprowadziło funkcję przeglądu sztucznej inteligencji podczas corocznego wydarzenia Google I/O, firma poinformowała, że ​​planuje także oferować funkcje planowania podobne do Asystenta bezpośrednio w wyszukiwarce. Wyjaśnił, że użytkownicy będą mogli wyszukać na przykład hasło „Utwórz 3-dniowy plan posiłków dla grupy, który jest łatwy do przygotowania” i uzyskają punkt wyjścia dzięki szerokiej gamie przepisów dostępnych w Internecie.

Google nie odpowiedział natychmiast na prośbę o komentarz.

Wiadomość ta pojawiła się zaraz po głośnym wdrożeniu przez Google narzędzia do tworzenia obrazów Gemini w lutym i jego wstrzymaniu w tym samym miesiącu ze względu na podobne problemy.

Narzędzie umożliwiało użytkownikom wprowadzanie monitów o utworzenie obrazu, ale niemal natychmiast użytkownicy odkryli błędy historyczne i wątpliwe odpowiedzi, które odbiły się szerokim echem w mediach społecznościowych.

Na przykład, gdy użytkownik poprosił Gemini o pokazanie niemieckiego żołnierza w 1943 r., narzędzie przedstawiało niemieckiego żołnierza Zróżnicowana etnicznie grupa żołnierzy Jak wynika ze zrzutów ekranu zamieszczonych na platformie mediów społecznościowych X, ma na sobie niemiecki mundur wojskowy z tamtej epoki.

Zapytana o „historycznie dokładne przedstawienie średniowiecznego brytyjskiego monarchy” modelka przedstawiła kolejny zestaw obrazów zróżnicowanych etnicznie, w tym jeden przedstawiający władczynię, Zrzuty ekranu pokazać się. Użytkownicy zgłosili Podobne wyniki Kiedy poprosili o portrety ojców założycieli Stanów Zjednoczonych, XVIII-wiecznego króla Francji, XIX-wiecznej pary Niemców i nie tylko. Użytkownicy zgłosili, że w odpowiedzi na zapytanie dotyczące założycieli Google formularz pokazywał zdjęcie Azjatów.

READ  openSUSE szuka nowego logo • Historia

W ówczesnym oświadczeniu Google oświadczyło, że pracuje nad rozwiązaniem problemów z generowaniem obrazów w Gemini, potwierdzając, że narzędzie to „nie trafia w cel”. Wkrótce potem firma ogłosiła, że ​​natychmiast „wstrzyma generowanie zdjęć ludzi” i „wkrótce ponownie wypuści ulepszoną wersję”.

W lutym dyrektor generalny Google DeepMind, Demis Hassabis, powiedział, że Google planuje ponownie wypuścić swoje narzędzie AI do generowania obrazów w ciągu najbliższych „kilku tygodni”, ale jeszcze go nie wdrożyło.

Problemy z generowaniem obrazu przez firmę Gemini ponownie wywołały debatę w branży sztucznej inteligencji, przy czym niektóre grupy nazywają Gemini „przebudzoną” lub lewicową, podczas gdy inne twierdzą, że firma nie zainwestowała wystarczająco dużo w odpowiednie formy etyki sztucznej inteligencji. Google był ostro krytykowany w latach 2020 i 2021 za… Wyrzuć współliderów z Grupy ds. Etyki AI po opublikowaniu przez nią artykułu krytykującego niektóre zagrożenia związane z tymi modelami sztucznej inteligencji, a później zreorganizowano strukturę grupy.

W zeszłym roku niektórzy pracownicy skrytykowali Pichai za nieudane i pospieszne wdrożenie Barda, które nastąpiło po wirusowym rozprzestrzenianiu się ChatGPT.