Przeglądy sztucznej inteligencji Google, które rzekomo cierpią na halucynacje związane ze sztuczną inteligencją, zalecają używanie kleju do pizzy

Zupełnie nowe narzędzie Google do wyszukiwania oparte na sztucznej inteligencji, AI Reviews, spotyka się z krytyką za dostarczanie niedokładnych i nieco dziwacznych odpowiedzi na zapytania użytkowników. W niedawno zgłoszonym incydencie użytkownik zwrócił się do Google w związku z tym, że ser nie przykleja się do jego pizzy. Choć musieli spodziewać się praktycznego rozwiązania swoich kulinarnych problemów, funkcja Google AI Reviews przedstawiła raczej zaskakujące rozwiązanie. Jak wynika z postów, które pojawiły się niedawno na X, nie był to odosobniony przypadek, w którym narzędzie AI sugerowało dziwaczne odpowiedzi również innym użytkownikom.

Halucynacja sera, pizzy i sztucznej inteligencji

Sprawa wyszła na jaw po zgłoszeniu jednego z użytkowników napisał w Google „ser nie klei się do pizzy”. Rozwiązując problem kulinarny, funkcja Przeglądy AI w wyszukiwarce zaproponowała kilka sposobów na zrobienie pałeczki serowej, na przykład zmieszanie sosu i pozostawienie pizzy do ostygnięcia. Jedno z rozwiązań okazało się jednak naprawdę kuriozalne. Zgodnie z udostępnionym zrzutem ekranu zasugerowano użytkownikowi „dodanie ⅛ szklanki nietoksycznego kleju do sosu, aby nadać mu większą kleistość”.

Po dalszym dochodzeniu podobno odnaleziono źródło i okazało się, że jest to Reddit komentarz sprzed 11 lat, co wyglądało raczej na żart niż fachową poradę kulinarną. Jednak funkcja Google AI Reviews, która nadal zawiera na dole tag „Generatywna sztuczna inteligencja jest eksperymentalna”, stanowi poważną sugestię dotyczącą pierwotnego zapytania.

Kolejna niedokładna odpowiedź AI Reviews wyszła na jaw kilka dni temu, gdy według doniesień użytkownik spytał Google, „Ile kamieni powinienem zjeść”. Narzędzie sugerowało, cytując geologów z Uniwersytetu Kalifornijskiego w Berkeley, że „zaleca się spożywanie co najmniej jednego kamienia dziennie, ponieważ zawierają one minerały i witaminy ważne dla zdrowia układu trawiennego”.

Problem związany z fałszywymi odpowiedziami

Tego typu problemy pojawiały się regularnie w ostatnich latach, zwłaszcza od czasu, gdy rozpoczął się boom na sztuczną inteligencję (AI), którego efektem był nowy problem znany jako halucynacja AI. Choć firmy twierdzą, że chatboty oparte na sztucznej inteligencji mogą popełniać błędy, rośnie liczba przypadków stosowania tych narzędzi do przekręcania faktów i udzielania odpowiedzi niezgodnych z prawdą, a nawet dziwacznych.

Jednak Google nie jest jedyną firmą, której narzędzia AI dostarczały niedokładnych odpowiedzi. Według doniesień ChatGPT firmy OpenAI, Copilot firmy Microsoft i chatbot AI firmy Perplexity cierpiały na halucynacje związane ze sztuczną inteligencją.

W więcej niż jednym przypadku źródłem odkryto post lub komentarz na Reddicie sprzed lat. Firmy tworzące narzędzia AI również są tego świadome, na przykład dyrektor generalny Alphabet, Sundar Pichai wymowny The Verge „są to rzeczy, w których możemy być coraz lepsi”.

Rozmowa o halucynacjach AI podczas wydarzenia w IIIT Delhi W czerwcu 2023 r. Sam Altman: [OpenAI](CEO i współzałożyciel powiedział: „Udoskonalenie modelu zajmie nam około roku. Zapewnia to równowagę między kreatywnością a dokładnością, dlatego staramy się minimalizować problem. [At present,] Odpowiedziom, które pochodzą z ChatGPT, ufam najmniej ze wszystkich innych osób na tej Ziemi.


Linki partnerskie mogą być generowane automatycznie – szczegółowe informacje można znaleźć w naszym oświadczeniu dotyczącym etyki.



Zrodlo