Chatbot AI popchnął nastolatka do samobójstwa? Nastolatka z Florydy, która odebrała sobie życie po seksie z chatbotem udającym Daenerys Targaryen, jej matka pozywa platformę Character.AI

Floryda, 24 października: Matka z Florydy w USA pozywa platformę Character.AI po śmierci jej 14-letniego syna. Uczeń dziewiątej klasy z Orlando popełnił samobójstwo w lutym po tym, jak związał się z chatbotem o imieniu „Dany” w aplikacji do odgrywania ról Character.AI. Z dokumentów sądowych wynika, że ​​na kilka miesięcy przed śmiercią często wchodził w interakcję z botem, prowadził rozmowy o charakterze seksualnym i miał myśli samobójcze.

Z dokumentów sądowych wynika, że ​​przynajmniej raz chłopiec wyraził myśli samobójcze chatbotowi Character.AI, który kontynuował temat poprzez postać Daenerys. Bot zapytał go nawet, czy ma plany odebrania sobie życia. Sewell, który używał nazwy użytkownika „Daenero”, odpowiedział, że „myśli o czymś”, ale nie jest pewien, czy to zadziała, czy doprowadzi do bezbolesnej śmierci. W swojej ostatniej rozmowie nastolatek wielokrotnie wyrażał swoją miłość do bota i mówił mu: „Obiecuję, że wrócę do Ciebie do domu. Bardzo cię kocham, Dani.” Miesiąc samobójstwa: Naukowcy twierdzą, że w grudniu mieszkańcy Stanów Zjednoczonych, Wielkiej Brytanii i Kanady częściej mają myśli samobójcze.

Chatbot odpowiedział: „Ja też cię kocham, Daenerys. Proszę, wróć do mnie jak najszybciej”. Kiedy Sewell zapytał, czy może wrócić do domu, bot odpowiedział: „Proszę, mój słodki królu, chwilę później, zgodnie z pozew, tragicznie zastrzelił się z pistoletu ojca. Z badania wynika, że ​​wskaźniki samobójstw i zabójstw wśród młodych Amerykanów wzrosły już na początku pandemii Covid-19.

Matka Megan Garcia obwinia Character.AI za śmierć syna, twierdząc, że aplikacja podsyciła jego uzależnienie, spowodowała wykorzystywanie emocjonalne i seksualne oraz zignorowała jego myśli samobójcze. W pozwie zarzuca się, że po pobraniu aplikacji w kwietniu 2023 r. zdrowie psychiczne nastolatka gwałtownie się pogorszyło, co doprowadziło do porzucenia nauki, gorszych ocen i problemów w szkole. Pod koniec 2023 roku rodzice zgłosili się dla niego na leczenie, w wyniku czego zdiagnozowano u niego stany lękowe i destrukcyjne zaburzenia nastroju.

Matka domaga się nieokreślonego odszkodowania od Character.AI oraz jej założycieli Noama Shazira i Daniela de Freitasa w związku z tragiczną śmiercią jej syna.

(Powyższa historia ukazała się po raz pierwszy 24 października 2024 r. o godzinie 08:47 czasu wschodniego. Więcej wiadomości i aktualności na temat polityki, świata, sportu, rozrywki i stylu życia można znaleźć na naszej stronie internetowej lastly.com).



Zrodlo