Według doniesień Zdjęcia Google dodają nową funkcję, która pozwoli użytkownikom sprawdzić, czy zdjęcie zostało wygenerowane lub ulepszone przy użyciu sztucznej inteligencji (AI). Zgodnie z raportem usługa udostępniania i przechowywania zdjęć i filmów otrzyma nowe znaczniki zasobów identyfikacyjnych, które ujawnią informacje o sztucznej inteligencji dotyczące obrazu, a także typ źródła cyfrowego. Gigant technologiczny z Mountain View prawdopodobnie pracuje nad tą funkcją, aby ograniczyć liczbę przypadków deepfakes. Nie jest jednak jasne, w jaki sposób informacje będą wyświetlane użytkownikom.
Atrybucja AI w Zdjęciach Google
Deepfakes stały się w ostatnich latach nową formą cyfrowej manipulacji. Są to obrazy, filmy, pliki audio lub inne podobne multimedia, które zostały wygenerowane cyfrowo przy użyciu sztucznej inteligencji lub ulepszone przy użyciu różnych środków w celu szerzenia dezinformacji lub wprowadzania ludzi w błąd. Na przykład aktor Amitabh Bachchan złożył niedawno pozew przeciwko właścicielowi firmy za wyświetlanie fałszywych reklam wideo, w których aktor promował produkty firmy.
Według organu Androida raportnowa funkcja w aplikacji Zdjęcia Google pozwoli użytkownikom sprawdzić, czy zdjęcie w ich galerii zostało utworzone przy użyciu środków cyfrowych. Funkcję tę wykryto w aplikacji Zdjęcia Google w wersji 7.3. Nie jest to jednak funkcja aktywna, co oznacza, że osoby korzystające z najnowszej wersji aplikacji nie będą jeszcze mogły jej zobaczyć.
W plikach układu w publikacji znaleziono nowe ciągi kodu XML wskazujące na ten rozwój. Są to zasoby ID, czyli identyfikatory przypisane do konkretnego elementu lub zasobu w aplikacji. Jedna z nich podobno zawierała frazę „ai_info”, która prawdopodobnie odnosi się do informacji dodanych do metadanych obrazów. Tę sekcję należy oznaczyć etykietą, jeśli obraz został wygenerowany przez narzędzie AI zgodne z protokołami przejrzystości.
Poza tym uważa się, że tag „digital_source_type” odnosi się do nazwy narzędzia lub modelu AI, który został użyty do wygenerowania lub ulepszenia obrazu. Mogą to być nazwy takie jak Gemini, Midjourney i inne.
Jednak obecnie nie jest pewne, w jaki sposób Google chce wyświetlać te informacje. Idealnie byłoby, gdyby można go było dodać do danych w formacie EXIF (Exchangeable Image File Format) osadzonych w obrazie, dzięki czemu istnieje mniej możliwości manipulacji przy nim. Wadą tego byłoby jednak to, że użytkownicy nie będą mogli łatwo zobaczyć tych informacji, chyba że odwiedzą stronę z metadanymi. Alternatywnie aplikacja może dodać plakietkę na obrazie, aby wskazać obrazy AI, podobnie jak Meta zrobiła to na Instagramie.