Meta znajduje na Facebooku i Instagramie zwodnicze treści prawdopodobnie generowane przez sztuczną inteligencję

Meta oświadczyła w środę, że znalazła na swoich platformach Facebook i Instagram treści „prawdopodobnie generowane przez sztuczną inteligencję” wykorzystywane w oszukańczy sposób, w tym komentarze pochwalające sposób, w jaki Izrael prowadzi wojnę w Gazie, opublikowane pod postami światowych organizacji informacyjnych i amerykańskich prawodawców.

W kwartalnym raporcie bezpieczeństwa firma zajmująca się mediami społecznościowymi podała, że ​​konta przedstawiały żydowskich studentów, Afroamerykanów i innych zaniepokojonych obywateli i były skierowane do odbiorców w Stanach Zjednoczonych i Kanadzie. Przypisała kampanię firmie STOIC zajmującej się marketingiem politycznym z Tel Awiwu.

STOIC nie odpowiedział natychmiast na prośbę o komentarz w sprawie zarzutów.

Dlaczego to ważne

Chociaż Meta znalazła podstawowe zdjęcia profilowe generowane przez sztuczną inteligencję w operacjach wywierania wpływu od 2019 r., raport jest pierwszym, który ujawnia wykorzystanie tekstowej technologii generatywnej sztucznej inteligencji od czasu jej pojawienia się pod koniec 2022 r.

Naukowcy obawiają się, że generatywna sztuczna inteligencja, która może szybko i tanio tworzyć tekst, obrazy i dźwięk przypominające ludzkie, może prowadzić do skuteczniejszych kampanii dezinformacyjnych i wpływać na wybory.

W rozmowie prasowej dyrektorzy ds. bezpieczeństwa Meta powiedzieli, że wcześniej usunęli izraelską kampanię i nie sądzili, że nowatorskie technologie sztucznej inteligencji utrudniły ich zdolność do zakłócania sieci wpływu, które stanowią skoordynowane próby przekazywania wiadomości.

Kierownictwo stwierdziło, że nie widziało takich sieci wdrażających obrazy polityków generowane przez sztuczną inteligencję, które byłyby na tyle realistyczne, aby można je było pomylić z autentycznymi zdjęciami.

Kluczowy cytat

„W tych sieciach istnieje kilka przykładów wykorzystania przez nie narzędzi generatywnej sztucznej inteligencji do tworzenia treści. Być może daje im to możliwość robienia tego szybciej lub z większą głośnością. Ale tak naprawdę nie miało to wpływu na naszą zdolność do ich wykrywania ”, powiedział Meta, szef dochodzeń w sprawie zagrożeń Mike Dvilyanski.

Według liczb

W raporcie podkreślono sześć tajnych operacji wywierania wpływu, które Meta zakłóciła w pierwszym kwartale.

Oprócz sieci STOIC Meta zamknęła mającą siedzibę w Iranie sieć skupiającą się na konflikcie Izrael-Hamas, chociaż nie stwierdziła żadnego wykorzystania generatywnej sztucznej inteligencji w tej kampanii.

Kontekst

Meta i inni giganci technologiczni zastanawiali się, jak zaradzić potencjalnemu niewłaściwemu wykorzystaniu nowych technologii sztucznej inteligencji, zwłaszcza podczas wyborów.

Badacze znaleźli przykłady generatorów obrazów takich firm, jak OpenAI i Microsoft, które produkują zdjęcia zawierające dezinformację związaną z głosowaniem, mimo że firmy te mają zasady zakazujące takich treści.

Firmy położyły nacisk na cyfrowe systemy etykietowania w celu oznaczania treści generowanych przez sztuczną inteligencję w momencie ich tworzenia, chociaż narzędzia te nie działają na tekście, a badacze mają wątpliwości co do ich skuteczności.

Co dalej

Meta stoi przed kluczowymi testami swojej obrony w związku z wyborami w Unii Europejskiej na początku czerwca i w listopadzie w Stanach Zjednoczonych.

© Thomson Reuters 2024


Linki partnerskie mogą być generowane automatycznie – szczegółowe informacje można znaleźć w naszym oświadczeniu dotyczącym etyki.

Zrodlo