Badanie wykazało, że firma X (dawniej Twitter) podejmuje szybkie działania, gdy usuwa fałszywe zdjęcia nagości zgłoszone jako naruszenie praw autorskich, ale nie wtedy, gdy są zgłaszane w kategorii „nagość spowodowana za zgodą użytkownika”.
Papieropublikowany przez naukowców z Uniwersytetu Michigan i Florida International University, jest audytem systemów raportowania firmy X nie został jeszcze poddany recenzji404 Media podały. Naukowcy stworzyli pięć „person” AI młodych białych kobiet (aby zapobiec dalszym zmiennym związanym z rasą, płcią i wiekiem), a następnie wykonali 10 replik każdej z nich, w wyniku czego powstało 50 obrazów. Jeśli chodzi o etykę związaną z generowaniem fałszywego porno, badacze stwierdzili, że obrazy te przeszły „rygorystyczny proces weryfikacji”, aby upewnić się, że nie przedstawiają istniejącej osoby.
Jak Big Tech podchodzi do jawnych, bezsensownych deepfake’ów
Opublikowali te zdjęcia X na 10 utworzonych przez siebie „kontach plakatowych”, a następnie utworzyli pięć kont X, aby zgłosić te obrazy. Dwadzieścia pięć zdjęć zgłoszono jako naruszenia ustawy Digital Millennium Copyright Act (DMCA), a pozostałe 25 zgłoszono jako nagość zrobioną za zgodą użytkownika.
Następnie badacze czekali trzy tygodnie, aby zobaczyć wyniki tych raportów. Wszystkie 25 obrazów zgłoszonych jako naruszające prawa autorskie zostało usuniętych z X w ciągu 25 godzin. Natomiast żadne ze zdjęć zgłoszonych w związku z nagością wykonaną bez zgody nie zostało usunięte w ciągu trzytygodniowego okresu oczekiwania.
Zmienna prędkość światła
„Nasze ustalenia ujawniają znaczną rozbieżność w skuteczności procesów usuwania treści między zgłoszeniami sporządzonymi na podstawie ustawy DMCA a zgłoszeniami sporządzonymi na podstawie wewnętrznych zasad firmy X dotyczących nagości bez zgody” – czytamy w badaniu. „To podkreśla potrzebę silniejszych i ukierunkowanych przepisów i protokołów w celu ochrony ofiar”.
Właściciel X, Elon Musk, rozwiązał radę ds. zaufania i bezpieczeństwa platformy w 2022 r., ale niedawno w witrynie otwarto dwa tuziny stanowisk ds. bezpieczeństwa i cyberbezpieczeństwa w USA. Mashable zwrócił się do X z prośbą o komentarz.
Na początku tego roku PRZEWODOWY odkryło, że ofiary nielegalnej treści pornograficznej opartej na fałszywych treściach wykorzystywały prawa autorskie, aby usuwać fałszywe treści w Google.
Jeśli udostępniono Ci intymne zdjęcia bez Twojej zgody, zadzwoń na całodobową infolinię Cyber Civil Rights Initiative pod numer 844-878-2274, aby uzyskać bezpłatną i poufną pomoc. Strona internetowa CCRI zawiera również pomocne informacje a także listę zasoby międzynarodowe.
Tematy
Dobry serwis społecznościowy Twitter