Według doniesień Zdjęcia Google mogą wyświetlać autorzy zdjęć AI, aby chronić użytkowników przed przypadkami Deepfakes

Według doniesień Zdjęcia Google dodają nową funkcję, która pozwoli użytkownikom sprawdzić, czy zdjęcie zostało wygenerowane lub ulepszone przy użyciu sztucznej inteligencji (AI). Zgodnie z raportem usługa udostępniania i przechowywania zdjęć i filmów otrzyma nowe znaczniki zasobów identyfikacyjnych, które ujawnią informacje o sztucznej inteligencji dotyczące obrazu, a także typ źródła cyfrowego. Gigant technologiczny z Mountain View prawdopodobnie pracuje nad tą funkcją, aby ograniczyć liczbę przypadków deepfakes. Nie jest jednak jasne, w jaki sposób informacje będą wyświetlane użytkownikom.

Atrybucja AI w Zdjęciach Google

Deepfakes stały się w ostatnich latach nową formą cyfrowej manipulacji. Są to obrazy, filmy, pliki audio lub inne podobne multimedia, które zostały wygenerowane cyfrowo przy użyciu sztucznej inteligencji lub ulepszone przy użyciu różnych środków w celu szerzenia dezinformacji lub wprowadzania ludzi w błąd. Na przykład aktor Amitabh Bachchan złożył niedawno pozew przeciwko właścicielowi firmy za wyświetlanie fałszywych reklam wideo, w których aktor promował produkty firmy.

Według organu Androida raportnowa funkcja w aplikacji Zdjęcia Google pozwoli użytkownikom sprawdzić, czy zdjęcie w ich galerii zostało utworzone przy użyciu środków cyfrowych. Funkcję tę wykryto w aplikacji Zdjęcia Google w wersji 7.3. Nie jest to jednak funkcja aktywna, co oznacza, że ​​osoby korzystające z najnowszej wersji aplikacji nie będą jeszcze mogły jej zobaczyć.

W plikach układu w publikacji znaleziono nowe ciągi kodu XML wskazujące na ten rozwój. Są to zasoby ID, czyli identyfikatory przypisane do konkretnego elementu lub zasobu w aplikacji. Jedna z nich podobno zawierała frazę „ai_info”, która prawdopodobnie odnosi się do informacji dodanych do metadanych obrazów. Tę sekcję należy oznaczyć etykietą, jeśli obraz został wygenerowany przez narzędzie AI zgodne z protokołami przejrzystości.

Poza tym uważa się, że tag „digital_source_type” odnosi się do nazwy narzędzia lub modelu AI, który został użyty do wygenerowania lub ulepszenia obrazu. Mogą to być nazwy takie jak Gemini, Midjourney i inne.

Jednak obecnie nie jest pewne, w jaki sposób Google chce wyświetlać te informacje. Idealnie byłoby, gdyby można go było dodać do danych w formacie EXIF ​​(Exchangeable Image File Format) osadzonych w obrazie, dzięki czemu istnieje mniej możliwości manipulacji przy nim. Wadą tego byłoby jednak to, że użytkownicy nie będą mogli łatwo zobaczyć tych informacji, chyba że odwiedzą stronę z metadanymi. Alternatywnie aplikacja może dodać plakietkę na obrazie, aby wskazać obrazy AI, podobnie jak Meta zrobiła to na Instagramie.

Zrodlo