Twórca ChatGPT twierdzi, że operacje wywierania wpływu nie zyskały popularności ani nie dotarły do dużej publiczności.
Firma zajmująca się sztuczną inteligencją OpenAI ogłosiła, że zakłóciła tajne kampanie wywierania wpływu pochodzące z Rosji, Chin, Izraela i Iranu.
Twórca ChatGPT powiedział w czwartek, że zidentyfikował pięć kampanii obejmujących „oszukańcze próby manipulowania opinią publiczną lub wpływania na wyniki polityczne bez ujawniania prawdziwej tożsamości lub intencji stojących za nimi podmiotów”.
W kampaniach wykorzystano modele OpenAI do wygenerowania tekstu i obrazów, które zostały opublikowane na platformach mediów społecznościowych, takich jak Telegram, X i Instagram, w niektórych przypadkach wykorzystując narzędzia do tworzenia treści z „mniejszą liczbą błędów językowych, niż byłoby to możliwe w przypadku operatorów ludzkich”. – powiedział OpenAI.
Open AI poinformowało, że zamknęło konta powiązane z dwiema rosyjskimi operacjami, nazwanymi Bad Grammer i Doppelganger; chińska kampania znana jako Spamouflage; irańska sieć o nazwie Międzynarodowa Unia Mediów Wirtualnych; oraz izraelska operacja nazwana Zero Zeno.
„Jesteśmy zaangażowani w rozwój bezpiecznej i odpowiedzialnej sztucznej inteligencji, co obejmuje projektowanie naszych modeli z myślą o bezpieczeństwie i proaktywną interwencję przeciwko złośliwemu wykorzystaniu” – stwierdził kalifornijski start-up w oświadczeniu opublikowanym na swojej stronie internetowej.
„Wykrywanie i zakłócanie nadużyć wieloplatformowych, takich jak tajne operacje wywierania wpływu, może być wyzwaniem, ponieważ nie zawsze wiemy, w jaki sposób dystrybuowane są treści generowane przez nasze produkty. Naszym celem jest jednak wykrywanie i łagodzenie tych nadużyć na dużą skalę poprzez wykorzystanie mocy generatywnej sztucznej inteligencji”.
Według OpenAI Bad Grammar i Doppelganger w dużej mierze wygenerowały treści na temat wojny na Ukrainie, w tym narracje przedstawiające Ukrainę, Stany Zjednoczone, NATO i Unię Europejską w negatywnym świetle.
Według startupu Spamouflage wygenerował tekst w języku chińskim, angielskim, japońskim i koreańskim, który był krytyczny wobec wybitnych krytyków Pekinu, w tym aktora i działacza tybetańskiego Richarda Gere oraz dysydenta Cai Xia, a także ukazywał nadużycia wobec rdzennych Amerykanów.
Międzynarodowa Unia Mediów Wirtualnych wygenerowała i przetłumaczyła artykuły krytykujące USA i Izrael, podczas gdy Zero Zeno obrał za cel Agencję Narodów Zjednoczonych ds. uchodźców palestyńskich i „radykalnych islamistów” w Kanadzie, twierdzi OpenAI.
Pomimo wysiłków mających na celu wpłynięcie na dyskurs publiczny, „nie wydaje się, aby w wyniku naszych usług działalność ta zyskała na znacząco zwiększonym zaangażowaniu odbiorców lub zasięgu” – stwierdziła firma.
Potencjał sztucznej inteligencji do wykorzystania do szerzenia dezinformacji stał się głównym tematem rozmów, gdy wyborcy w ponad 50 krajach oddawali swoje głosy w tak zwanym największym roku wyborczym w historii.
W zeszłym tygodniu władze stanu New Hampshire w USA ogłosiły, że postawiły w stan oskarżenia konsultanta politycznego Partii Demokratycznej na podstawie ponad dwudziestu zarzutów za rzekome organizowanie automatycznych połączeń telefonicznych, w których wykorzystywane było stworzone przez sztuczną inteligencję podszywanie się pod prezydenta USA Joe Bidena, aby nakłonić wyborców, aby nie głosowali w wyborach. prawybory prezydenckie stanu.
W okresie poprzedzającym lutowe wybory parlamentarne w Pakistanie uwięziony były premier Imran Khan wykorzystywał przemówienia generowane przez sztuczną inteligencję, aby zgromadzić zwolenników w związku z rządowym zakazem zgromadzeń publicznych.