Nastolatki rozmawiają z towarzyszami AI, niezależnie od tego, czy jest to bezpieczne, czy nie

Dla rodziców wciąż nadrabiających zaległości w zakresie generatywnej sztucznej inteligencji powstanie chatbota towarzyszącego może nadal być tajemnicą.

Ogólnie rzecz biorąc, technologia ta może wydawać się stosunkowo nieszkodliwa w porównaniu z innymi zagrożeniami, z jakimi mogą spotkać się nastolatki w Internecie, w tym z wymuszeniami finansowymi.

Korzystając z platform opartych na sztucznej inteligencji, takich jak Character.AI, Replika, Kindroid i Nomi, nastolatki tworzą realistycznych partnerów do rozmów o unikalnych cechach i cechach lub nawiązują kontakt z towarzyszami stworzonymi przez innych użytkowników. Niektóre są nawet wzorowane na popularnych postaciach telewizyjnych i filmowych, ale mimo to tworzą intensywną, indywidualną więź ze swoim twórcą.

Nastolatki używają tych chatbotów do różnych celów, w tym do odgrywania ról, odkrywania swoich zainteresowań akademickich i twórczych oraz do przeprowadzania romantycznych lub jednoznacznie seksualnych rozmów.

ZOBACZ TAKŻE:

Dlaczego nastolatki zdradzają nieznajomym swoje sekrety w Internecie

Ale towarzysze AI są projektowani tak, aby urzekać i tu często zaczynają się problemy, mówi Robbie Torney, kierownik programu w Common Sense Media.

Niedawno wydana organizacja non-profit wskazówki, jak pomóc rodzicom zrozumieć, jak działają towarzysze AI, wraz z znakami ostrzegawczymi wskazującymi, że technologia może być niebezpieczna dla ich nastolatka.

Torney stwierdziła, że ​​chociaż rodzice muszą pogodzić kilka rozmów o wysokim priorytecie z nastolatkami, powinni rozważyć rozmowę z nimi na temat towarzyszy AI jako „całkiem pilną” sprawę.

Dlaczego rodzice powinni martwić się o towarzyszy AI

Nastolatki szczególnie zagrożone izolacją mogą zostać wciągnięte w relację z chatbotem opartym na sztucznej inteligencji, co ostatecznie szkodzi ich zdrowiu psychicznemu i dobremu samopoczuciu – z niszczycielskimi konsekwencjami.

Według Megan Garcia właśnie to przydarzyło się jej synowi, Sewellowi Setzerowi III, w… proces sądowy niedawno złożyła pozew przeciwko Character.AI.

W ciągu roku od rozpoczęcia relacji z towarzyszami Character.AI wzorowaliśmy się Gra o tron postaci, w tym Daenerys Targaryen („Dany”), jak wynika z pozwu, życie Setzera zmieniło się radykalnie.

Uzależnił się od „Dany” i spędzał z nią dużo czasu na codziennych rozmowach. Ich wymiana zdań była zarówno przyjacielska, jak i wysoce seksualna. Pozew Garcii ogólnie opisuje relacje Setzera z towarzyszami jako „wykorzystywanie seksualne”.

Najlepsze historie, które można mashować

Czasami, gdy Setzer tracił dostęp do platformy, popadał w przygnębienie. Z biegiem czasu u 14-letniego sportowca wycofał się ze szkoły i sportu, zaczął cierpieć na zaburzenia snu i zdiagnozowano u niego zaburzenia nastroju. Zmarł samobójczo w lutym 2024 r.

Pozew Garcii ma na celu pociągnięcie Character.AI do odpowiedzialności za śmierć Setzera, zwłaszcza dlatego, że jej produkt został zaprojektowany w celu „manipulowania Sewellem – i milionami innych młodych klientów – w celu utożsamienia rzeczywistości z fikcją” oraz innych niebezpiecznych wad.

Jerry Ruoti, szef ds. zaufania i bezpieczeństwa w Character.AI, powiedział New York Timesa w oświadczeniu że: „Chcemy przyznać, że jest to tragiczna sytuacja i całym sercem jesteśmy z rodziną. Bardzo poważnie podchodzimy do bezpieczeństwa naszych użytkowników i stale szukamy sposobów na rozwój naszej platformy”.

Biorąc pod uwagę ryzyko zagrażające życiu, jakie korzystanie z urządzeń towarzyszących AI może stwarzać dla niektórych nastolatków, wytyczne Common Sense Media obejmują zakaz dostępu do nich dzieciom poniżej 13 roku życia, nałożenie na nastolatków ścisłych ograniczeń czasowych, zapobieganie korzystaniu z nich w odizolowanych przestrzeniach, takich jak sypialnia, oraz uzgodnić z nastolatkiem, że będzie szukać pomocy w przypadku poważnych problemów psychicznych.

Torney twierdzi, że rodzice nastolatków zainteresowanych towarzyszem AI powinni skupić się na pomocy im w zrozumieniu różnicy między rozmową z chatbotem a prawdziwą osobą, zidentyfikowaniu oznak niezdrowego przywiązania do towarzysza i opracowaniu planu działania. zrobić w takiej sytuacji.

Znaki ostrzegawcze, że towarzysz AI nie jest bezpieczny dla Twojego nastolatka

Common Sense Media stworzyło swoje wytyczne przy udziale i pomocy specjalistów zajmujących się zdrowiem psychicznym Laboratorium burzy mózgów Stanforda dotyczące innowacji w zakresie zdrowia psychicznego.

Chociaż niewiele jest badań na temat wpływu sztucznej inteligencji na zdrowie psychiczne nastolatków, wytyczne opierają się na istniejących dowodach dotyczących nadmiernego polegania na technologii.

„Zasadą, którą można zastosować w domu, jest to, że towarzysze AI nie powinni zastępować prawdziwego, znaczącego związku międzyludzkiego w niczyim życiu, a jeśli tak się stanie, ważne jest, aby rodzice zwrócili na to uwagę i interweniowali w odpowiednim czasie” – dr Declan Grabb, inauguracyjny pracownik AI w Brainstorm Lab for Mental Health na Uniwersytecie Stanforda, powiedział Mashable w e-mailu.

Rodzice powinni zachować szczególną ostrożność, jeśli ich nastolatek doświadcza depresji, lęków, problemów społecznych lub izolacji. Inne czynniki ryzyka obejmują poważne zmiany w życiu i bycie mężczyzną, ponieważ chłopcy częściej angażują się w problematyczne korzystanie z technologii.

Oznaki wskazujące, że nastolatek nawiązał niezdrową relację z towarzyszem AI, obejmują wycofywanie się z typowych zajęć i przyjaźni oraz pogorszenie wyników w szkole, a także preferowanie chatbota od osobistego towarzystwa, rozwijanie wobec niego romantycznych uczuć i rozmawianie wyłącznie z nim o problemach doświadcza nastolatek.

Niektórzy rodzice mogą zauważyć zwiększoną izolację i inne oznaki pogorszenia zdrowia psychicznego, ale nie zdają sobie sprawy, że ich nastolatek ma towarzysza AI. Rzeczywiście, ostatnie badanie Common Sense Media wykazało, że wiele nastolatków korzystało z co najmniej jednego rodzaju narzędzia generatywnej sztucznej inteligencji, a ich rodzice nie zdawali sobie z tego sprawy.

„Istnieje na tyle duże ryzyko, że jeśli się czymś martwisz, porozmawiaj o tym ze swoim dzieckiem”.

— Robbie Torney, zdrowy rozsądek w mediach

Nawet jeśli rodzice nie podejrzewają, że ich nastolatek rozmawia z chatbotem AI, powinni rozważyć rozmowę z nimi na ten temat. Torney zaleca podejście do nastolatka z ciekawością i otwartością, aby dowiedzieć się więcej o swoim towarzyszu AI, jeśli takiego posiada. Może to obejmować obserwowanie, jak nastolatek angażuje się w kontakt z towarzyszem i zadawanie pytań na temat tego, jakie aspekty aktywności sprawiają mu przyjemność.

Torney nalega, aby rodzice, którzy zauważą jakiekolwiek oznaki ostrzegawcze niezdrowego zażywania, natychmiast podjęli działania następcze, omawiając je z nastolatkiem i w razie potrzeby zwracając się o profesjonalną pomoc.

„Istnieje na tyle duże ryzyko, że jeśli się czymś martwisz, porozmawiaj o tym ze swoim dzieckiem” – mówi Torney.

Jeśli masz myśli samobójcze lub doświadczasz kryzysu psychicznego, porozmawiaj z kimś. Z infolinią ratunkową dla samobójstw i kryzysów 988 można się skontaktować pod numerem 988; Linia ratunkowa Trans pod numerem 877-565-8860; lub Trevor Project pod numerem 866-488-7386. Wyślij SMS-a o treści „START” na linię kryzysową pod numer 741-741. Skontaktuj się z infolinią NAMI pod numerem 1-800-950-NAMI, od poniedziałku do piątku w godzinach 10:00–22:00 czasu wschodniego lub wyślij e-mail [email protected]. Jeśli nie podoba Ci się ten telefon, rozważ skorzystanie z czatu 988 Suicide and Crisis Lifeline pod adresem kryzyschat.org. Oto lista zasobów międzynarodowych.

Tematy
Zdrowie psychiczne Dobro społeczne



Zrodlo