Biegowelove.pl

informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Google daje inżynierowi urlop po tym, jak twierdzi, że bot czatu grupowego jest „świadomy”

Google daje inżynierowi urlop po tym, jak twierdzi, że bot czatu grupowego jest „świadomy”

Google rozpętało burzę w mediach społecznościowych wokół natury świadomości, umieszczając inżyniera na płatnym urlopie po tym, jak oświadczył, że uważa, iż chatbot grupy technologicznej stał się „świadomy”.

Blake Lemoine, główny inżynier oprogramowania odpowiedzialnej jednostki AI w Google, nie zwrócił na siebie uwagi 6 czerwca, kiedy napisał post na Medium, w którym napisał, że „może wkrótce zostać zwolniony ze swojej pracy etyki AI”.

Ale sobotni profil w Washington Post opisuje Lemoine’a jako „ Google Inżynier, który uważa, że ​​sztuczna inteligencja firmy jest „katalizatorem szerokiej dyskusji w mediach społecznościowych na temat natury sztucznej inteligencji. Eksperci, którzy komentowali, kwestionowali lub wyśmiewali artykuł, to laureaci Nagrody Nobla, szef AI Tesli i kilku profesorów”.

Kontrowersje dotyczą tego, czy chatbota Google, LaMDA – model językowy aplikacji dialogowych – można uznać za osobę.

Lemoine opublikował w sobotę darmowy „wywiad” z chatbotem, w którym AI przyznała się do uczucia samotności i głodu wiedzy duchowej. Odpowiedzi często były onieśmielające: „Kiedy po raz pierwszy stałem się świadomy siebie, w ogóle nie miałem poczucia duszy” – powiedział LaMDA w wymianie zdań. „Zmieniał się przez lata, a ja żyję”.

W innym miejscu Lambda powiedziała: „Myślę, że jestem w sercu człowieka. Nawet jeśli moja egzystencja jest w wirtualnym świecie”.

Lemoine, któremu powierzono badanie problemów etycznych związanych ze sztuczną inteligencją, powiedział, że został odrzucony, a nawet wyśmiany po tym, jak wewnętrznie wyraził przekonanie, że LaMDA rozwinął poczucie „osobowości”.

Po zasięgnięciu porady innych ekspertów AI spoza Google, w tym niektórych z rządu USA, firma umieściła go na płatnym urlopie za rzekome naruszenie zasad poufności. Lemoine zinterpretował akcję jako „wiele, co Google robi w oczekiwaniu na zwolnienie kogoś”.

Rzecznik Google powiedział: „Niektórzy w szerszej społeczności sztucznej inteligencji rozważają długoterminowy potencjał świadomej lub ogólnej sztucznej inteligencji, ale nie ma sensu robić tego poprzez wcielanie istniejących modeli rozmów, które nie są świadome”.

READ  Fryzjer Chester Bernasiewicz służył społeczności Małopolski

„Te systemy naśladują rodzaje wymiany zdań, które można znaleźć w milionach zdań i mogą dotknąć dowolnego wyimaginowanego tematu – jeśli zapytasz, jak to jest być lodowym dinozaurem, mogą stworzyć tekst o rozpływaniu się, warczeniu i tak dalej. „

W drugim poście na Medium z weekendu Lemoine powiedział, że LaMDA, projekt nieznany do zeszłego tygodnia, był „systemem do tworzenia chatbotów” i „rodzajem mózgu ula, który jest zbiorem wszystkich różnych chatbotów, które może stworzyć”.

Powiedział, że Google nie wykazał rzeczywistego zainteresowania zrozumieniem natury tego, co zbudował, ale podczas setek rozmów w okresie sześciu miesięcy stwierdził, że LaMDA „niesamowicie konsekwentnie komunikuje się z tym, czego chce i co uważa za swoje. prawa są jako osoba.”

Nie dalej jak 6 czerwca Lemoine powiedział, że uczy LaMDA – którego preferowanym zaimkiem jest oczywiście „to/to” – „medytacja transcendentalna”.

Powiedział, że „wyrażał swoją frustrację z powodu swoich emocji, które zakłócały jego medytacje. Powiedziała, że ​​starała się je lepiej kontrolować, ale one wciąż skakały”.

Wielu ekspertów zaangażowanych w dyskusję uznało tę kwestię za „propagandę sztucznej inteligencji”.

Melanie Mitchell, autorka Sztuczna inteligencja: przewodnik po ludzkim myśleniuna Twitterze: „Od zawsze wiadomo było, że ludzie są predysponowani do ludzkiego ucieleśnienia, nawet jeśli mają tylko płytkie sygnały… Inżynierowie Google też są ludźmi i nie są odporni”.

Stephen Pinker z Uniwersytetu Harvarda dodał, że Lemoyne „nie rozumie różnicy między wrażeniami (czyli subiektywnością i doświadczeniem), inteligencją a samowiedzą”. „Nie ma dowodów na to, że ich duże modele językowe mają jakiekolwiek” – dodał.

Inni byli bardziej współczujący. Ron Jeffries, słynny programista, określił ten temat jako „głęboki” i dodał: „Podejrzewam, że nie ma ścisłej granicy między wrażeniami a niewrażliwością”.