Wyszukiwarka Google będzie teraz wykrywać pochodzenie obrazów zmanipulowanych przez sztuczną inteligencję

Google rozszerza swoje działania, aby prawidłowo oznaczać treści generowane przez sztuczną inteligencjęaktualizując wewnętrzne narzędzie „Informacje o tym obrazie” o globalny standard wykrywania pochodzenia obrazu edytowanego przez sztuczną inteligencję.

Nowa etykieta została opracowana w ramach współpracy Google z globalną Koalicją na rzecz Pochodzenia Treści i Autentyczności (C2PA). Członkowie C2PA zobowiązali się do opracowania i przyjęcia znormalizowanego procesu certyfikacji i wykrywania AI, który jest możliwy dzięki technologii weryfikacji znanej jako „Content Credentials”. Jednak nie wszyscy członkowie C2PA, w tym Amazon, Meta i OpenAI, wdrożyli standardy uwierzytelniania.

Google podejmuje pierwszy krok wśród kluczowych graczy, integrując nowy standard 2.1 C2PA z produktami takimi jak Google Search i ostatecznie Google Ads (monit „Informacje o tym obrazie” można znaleźć, klikając trzy pionowe kropki znajdujące się nad zdjęciem odkrytym w wyszukiwaniu). Ten standard obejmuje oficjalną „Listę zaufania” urządzeń i technologii, które mogą pomóc zweryfikować pochodzenie zdjęcia lub filmu za pomocą jego metadanych. „Na przykład, jeśli dane pokazują, że zdjęcie zostało zrobione konkretnym modelem aparatu, lista zaufania pomaga potwierdzić, że ta informacja jest dokładna” — powiedziała Laurie Richardson, wiceprezes ds. zaufania i bezpieczeństwa Google Skraj„Naszym celem jest stopniowe zwiększanie tego i wykorzystywanie sygnałów C2PA do informowania, jak egzekwować kluczowe zasady”.

Mashable Prędkość światła

ZOBACZ TAKŻE:

Sam Altman rezygnuje ze stanowiska szefa grupy ds. bezpieczeństwa w OpenAI

Po dołączeniu do C2PA w maju TikTok stał się pierwszą platformą wideo, która wdrożyła Content Credentials C2PA, w tym automatyczny system etykietowania do odczytywania metadanych wideo i oznaczania ich jako AI. Wraz z uruchomieniem Content Credentials dla platform Google, YouTube ma pójść w jego ślady.


Google otwarcie mówi o powszechnym etykietowaniu i regulacjach AI, zwłaszcza w swoich wysiłkach na rzecz ograniczenia rozprzestrzeniania się dezinformacji. W 2023 r. Google uruchomiło SynthID, własne cyfrowe narzędzie do znakowania wodnego, zaprojektowane w celu wykrywania i śledzenia treści generowanych przez AI przy użyciu generatora tekstu na obraz Google DeepMind, Imagen. Na początku tego roku wprowadziło (ograniczone) nakazy etykietowania AI dla filmów na YouTube i zobowiązało się do zajęcia się treściami deepfake generowanymi przez AI w wyszukiwarce Google.

Firma dołączył do komitetu sterującego C2PA w lutym grupa, do której należeli inni znaczący gracze w branży, a nawet organizacje informacyjne, takie jak BBC.



Zrodlo