Jak rozpoznać filmy wygenerowane przez sztuczną inteligencję

Przepraszamy, że rozczarowujemy, ale jeśli szukasz krótkiej listy łatwych do zidentyfikowania i niezawodnych sposobów wykrywania filmów generowanych przez sztuczną inteligencję, nie znajdziesz jej tutaj. Dawno minęły czasy AI Willa Smitha groteskowo jedząc spaghetti. Teraz mamy narzędzia, które za pomocą kilku kliknięć pozwalają tworzyć przekonujące, fotorealistyczne filmy.

Obecnie filmy generowane przez sztuczną inteligencję są wciąż stosunkowo nową metodą w porównaniu z tekstem, obrazami i dźwiękiem generowanymi przez sztuczną inteligencję, ponieważ prawidłowe odwzorowanie wszystkich szczegółów jest wyzwaniem wymagającym dużej ilości danych wysokiej jakości. „Ale nie ma zasadniczej przeszkody w uzyskiwaniu danych wyższej jakości” – jest to jedynie pracochłonna praca, powiedział Siwei Lyu, profesor informatyki i inżynierii na Uniwersytecie w Buffalo SUNY.

Oznacza to, że możesz się spodziewać, że filmy generowane przez sztuczną inteligencję już wkrótce staną się znacznie lepsze i pozbędą się charakterystycznych artefaktów – wad i niedokładności – takich jak zmieniające się twarze i zmieniające kształt obiekty, które oznaczają obecne dzieła sztucznej inteligencji. Kluczem do identyfikacji filmów generowanych przez sztuczną inteligencję (lub jakąkolwiek modalność sztucznej inteligencji) jest zatem umiejętność korzystania z AI. „Rozumiem to [AI technologies] rosną, a posiadanie podstawowej idei „coś, co według mnie może zostać wygenerowane przez sztuczną inteligencję” jest ważniejsze niż, powiedzmy, indywidualne sygnały” – powiedział Lyu, dyrektor Media Forensic Lab na UB.

Poruszanie się po sieci wypełnionej sztuczną inteligencją wymaga umiejętności korzystania z Internetu i zdrowego rozsądku, aby rozpoznać, kiedy coś może być nie tak. To najlepsza obrona przed oszukaniem przez fałszywe fałszywe informacje AI, dezinformację lub po prostu śmieci niskiej jakości. Rozwijanie tej umiejętności jest trudne, ponieważ każdy aspekt świata online walczy z nią, próbując zwrócić na siebie uwagę. Ale dobra wiadomość jest taka, że ​​można dostroić swoje instynkty wykrywania sztucznej inteligencji.

„Studiując [AI-generated images]uważamy, że ludzie mogą poprawić swoją znajomość sztucznej inteligencji” – powiedział Negar Kamali, naukowiec zajmujący się badaniami nad sztuczną inteligencją w Kellogg School of Management na Northwestern University, który jest współautorem przewodnik do identyfikacji obrazów wygenerowanych przez sztuczną inteligencję. „Nawet jeśli nie widzę żadnych artefaktów [indicating AI-generation]mój mózg natychmiast myśli: „Och, coś jest nie tak” – dodała Kamali, która przestudiowała tysiące obrazów generowanych przez sztuczną inteligencję. „Nawet jeśli nie znajdę artefaktu, nie mogę mieć pewności, czy to prawda, i to jest czego chcemy.”

Na co zwrócić uwagę: fałszywe filmy a filmy przekształcające tekst na obraz

Zanim zaczniemy identyfikować filmy generowane przez sztuczną inteligencję, musimy rozróżnić różne typy. Filmy generowane przez sztuczną inteligencję dzieli się ogólnie na dwie różne kategorie: filmy oszustów i filmy generowane przez model dyfuzji tekstu na obraz.

Filmy o oszustach

Są to filmy edytowane przez sztuczną inteligencję, które obejmują zamianę twarzy – podczas której cała twarz danej osoby zostaje zamieniona na twarz innej osoby (zwykle celebryty lub polityka) i zmuszone do powiedzenia czegoś fałszywego – oraz synchronizację warg – podczas której usta danej osoby są subtelnie manipulowane i zastępowane z innym dźwiękiem.

Filmy zawierające oszustów są na ogół dość przekonujące, ponieważ technologia istnieje już dłużej i opierają się na istniejącym materiale filmowym, zamiast tworzyć coś od zera. Pamiętasz te fałszywe filmy Toma Cruise’a sprzed kilku lat, które stały się wirusowe ze względu na ich tak przekonujący charakter? Zadziałały, ponieważ twórca, Chris Ume, był bardzo podobny do Toma Cruise’a, współpracował z zawodowym odtwórcą Toma Cruise’a i według jednego z nich wykonał mnóstwo drobnych poprawek. wywiad z Ume z The Verge. Obecnie istnieje mnóstwo aplikacji, które osiągają to samo, a nawet mogą — przerażająco — dołącz dźwięk z krótkiego fragmentu dźwięku, który twórca znajdzie w Internecie.

To powiedziawszy, jest kilka rzeczy, na które należy zwrócić uwagę, jeśli podejrzewasz deepfake wideo AI. Przede wszystkim zwróć uwagę na format wideo. Deepfake wideo AI są zazwyczaj „nagrywane” w formacie gadającej głowy, gdzie widać jedynie głowy i ramiona mówiącego, a jego ramiona są poza zasięgiem wzroku (więcej o tym za minutę).

Aby zidentyfikować zamianę twarzy, poszukaj wad lub artefaktów wokół granic twarzy. „Zazwyczaj artefakty pojawiają się, gdy głowa porusza się ukośnie w stronę aparatu” – powiedział ekspert w dziedzinie medycyny sądowej i profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, Hany Farid. Jeśli chodzi o ramiona i dłonie: „Jeśli ręka się porusza lub coś zasłania twarz, [the image] będzie trochę działać nieprawidłowo” – kontynuował Farid. Obserwuj ramiona i ciało pod kątem naturalnych ruchów. „Jeśli widzisz tylko to” – podczas naszej rozmowy na Zoomie Farid trzyma ramiona sztywno i wzdłuż boków – „a osoba w ogóle się nie porusza, to fałszywe.”

Zmienna prędkość światła

Jeśli podejrzewasz synchronizację warg, skup swoją uwagę na ustach obiektu – szczególnie na zębach. Jeśli chodzi o podróbki, „Widzieliśmy ludzi, którzy mieli zęby o nieregularnym kształcie” lub że liczba zębów zmieniała się w trakcie filmu – powiedział Lyu. Innym dziwnym objawem, na który należy zwrócić uwagę, jest „chwiejność dolnej połowy twarzy” – powiedział Lyu. „Istnieje procedura techniczna, która wymaga dokładnego dopasowania twarzy danej osoby” – powiedział. „Kiedy mówię, często poruszam twarzą, a ludzkie oko jest w stanie rozpoznać to ustawienie, jeśli jest tam trochę niedokładności”. Dzięki temu dolna połowa twarzy będzie bardziej płynna i gumowata.

Jeśli chodzi o deepfake AI, Aruna Sankaranarayanan, asystentka naukowa w MIT Computer Science and Artificial Intelligence Laboratory, twierdzi, że jej największym zmartwieniem nie są deepfakes dotyczące najsłynniejszych polityków na świecie, takich jak Donald Trump czy Joe Biden, ale ważnych osobistości, które może nie być tak dobrze znany. „Wywodzące się z nich fabrykacje, zniekształcanie pewnych faktów, kiedy przez większość czasu nie wiadomo, jak wyglądają lub jak brzmią, naprawdę trudno temu zaprzeczyć” – powiedział Sankaranarayanan, którego praca skupia się na politycznych deepfakesach. Ponownie, w tym momencie w grę wchodzi umiejętność posługiwania się sztuczną inteligencją; takie filmy wymagają pewnych badań, aby je zweryfikować lub obalić.

Filmy przekształcające tekst na obraz

Są też seksowne nowinki: modele dyfuzji tekstu na obraz, które generują filmy na podstawie podpowiedzi tekstowych lub graficznych. OpenAI zrobiło furorę, ogłaszając Sora, swój generator wideo AI. Chociaż nie jest to jeszcze dostępne, filmy demonstracyjne wystarczyły, aby zadziwić ludzi drobiazgowymi szczegółami, żywym fotorealizmem i płynnym śledzeniem, a wszystko to rzekomo za pomocą prostych podpowiedzi tekstowych.

Od tego czasu pojawiło się wiele innych aplikacji, które mogą przekształcić Twoje ulubione memy w GIF-y i pomysłowe sceny, które wyglądają, jakby pracował nad nimi cały zespół CGI z budżetem Disneya. Twórcy z Hollywood słusznie są oburzeni pojawieniem się modeli zamiany tekstu na obraz, które prawdopodobnie przeszkoleni w swojej pracy a teraz grożą, że go zastąpią.

Ale technologia jeszcze nie jest ukończona, ponieważ nawet te filmy Sory prawdopodobnie wymagały sprawnego i czasochłonnego montażu. Filmy demonstracyjne Sory składają się z serii szybkich edycji, ponieważ technologia nie jest jeszcze wystarczająco dobra, aby tworzyć dłuższe i bezbłędne filmy. Dlatego możesz zwracać szczególną uwagę na krótkie klipy: „Jeśli film trwa 10 sekund, nabierz podejrzeń. Jest powód, dla którego jest krótki” – powiedział Farid. „Zasadniczo w przypadku zamiany tekstu na wideo po prostu nie można wykonać jednego cięcia trwającego minutę” – kontynuował, dodając, że sytuacja prawdopodobnie ulegnie poprawie w ciągu najbliższych sześciu miesięcy.

Farid powiedział także, że należy zwrócić uwagę na „niespójności czasowe”, takie jak „budynek dodał historię lub zmienił kolor samochodu, co jest fizycznie niemożliwe” – powiedział. „I często dzieje się to z dala od centrum uwagi”. Dlatego skup się na szczegółach tła. „Możesz zobaczyć nienaturalnie gładkie lub wypaczone obiekty albo zmieniać się rozmiar osoby podczas spaceru po budynku” – powiedział Lyu.

Kamali radzi, aby szukać „nieprawdopodobieństw społeczno-kulturowych” lub wskazówek kontekstowych tam, gdzie rzeczywistość sytuacji nie wydaje się wiarygodna. „Nie od razu widać charakterystyczne elementy, ale czujesz, że coś jest nie tak – jak na przykład zdjęcie Bidena i Obamy w różowych garniturach” lub Papież w puchowej kurtce Balenciaga.

Pomijając wskazówki kontekstowe, istnienie artefaktów prawdopodobnie wkrótce się zmniejszy. A Wall Street jest skłonna postawić miliardy dolarów na tym. (To powiedziawszy, kapitalizm wysokiego ryzyka nie jest tak naprawdę znane dla rozsądnych cenowo wycen start-upów technologicznych w oparciu o solidne dowody rentowności.)

Artefakty mogą się zmienić, ale zdrowy rozsądek pozostaje.

Jak Farid powiedział Mashable: „Przyjdź i porozmawiaj ze mną za sześć miesięcy, a historia się zmieni”. Zatem poleganie na pewnych sygnałach w celu sprawdzenia, czy film został wygenerowany przez sztuczną inteligencję, może wpędzić Cię w kłopoty.

Artykuł Lyu z 2018 r. na temat wykrywania filmów generowanych przez sztuczną inteligencję, ponieważ badani nie mrugali prawidłowo, został szeroko nagłośniony w społeczności sztucznej inteligencji. W rezultacie ludzie zaczęli szukać defektów polegających na mruganiu oczami, ale wraz z postępem technologii pojawiło się więcej naturalnych mrugnięć. „Ludzie zaczęli myśleć, że jeśli dobrze mruga oczami, nie może to być deepfake i na tym właśnie polega niebezpieczeństwo” – powiedział Lyu. „Właściwie chcemy podnieść świadomość, ale nie skupiamy się na konkretnych artefaktach, ponieważ artefakty zostaną zmienione”.

Budowanie świadomości, że coś móc wygenerowane przez sztuczną inteligencję „uruchomi całą sekwencję działań” – powiedział Lyu. „Sprawdź, kto to udostępnia? Czy ta osoba jest wiarygodna? Czy istnieją inne źródła powiązane z tą samą historią i czy zostało to zweryfikowane w inny sposób? Myślę, że to najskuteczniejsze środki zaradcze w przypadku deepfakes”.

Według Farida identyfikowanie filmów generowanych przez sztuczną inteligencję i wprowadzających w błąd deepfake’ów zaczyna się od źródła informacji. Weź Obrazy wygenerowane przez sztuczną inteligencję które krążyły w mediach społecznościowych po huraganie Helene i huraganie Milton. Większość z nich była w oczywisty sposób fałszywa, ale i tak wywierały na ludzi emocjonalny wpływ. „Nawet jeśli te rzeczy nie są zbyt dobre, nie oznacza to, że nie przenikają, nie oznacza to, że nie mają wpływu na sposób, w jaki ludzie przyswajają informacje” – powiedział.

Zachowaj ostrożność, jeśli chcesz otrzymywać wiadomości z mediów społecznościowych. „Jeśli obraz wygląda na przynętę na kliknięcie, to jest to przynęta na kliknięcie” – powiedział Farid, zanim dodał, że wszystko sprowadza się do umiejętności korzystania z mediów. Zastanów się, kto opublikował film i dlaczego powstał. „Nie można po prostu spojrzeć na coś na Twitterze i pomyśleć: «Och, to musi być prawda, pozwól, że się tym podzielę»”.

Jeśli masz wątpliwości co do treści generowanych przez sztuczną inteligencję, sprawdź inne źródła, aby sprawdzić, czy one również je udostępniają i czy wszystko wygląda tak samo. Jak mówi Lyu, „deepfake wygląda realnie tylko pod jednym kątem”. Wyszukaj inne kąty danej instancji. Farid poleca strony takie jak Snopes i Politifact, które dezinformują i dezinformują. Ponieważ wszyscy nadal poruszamy się w szybko zmieniającym się krajobrazie sztucznej inteligencji, kluczowe będzie wykonanie pracy i zaufanie swojemu przeczuciu.

Tematy
Sztuczna inteligencja



Zrodlo