Firma Adobe aktualizuje swoje Warunki użytkowania po tym, jak niejednoznaczny język wywołał sprzeciw użytkowników w sprawie prywatności i własności ich pracy.

W post na blogu w poniedziałek firma produkująca kreatywne narzędzia programowe Photoshop, Premier i InDesign oświadczyła, że ​​do 18 czerwca 2024 r. wprowadzi zaktualizowany język warunków użytkowania. „W Adobe nie ma dwuznaczności w naszym stanowisku i naszym zaangażowaniu naszych klientów i odpowiedzialnie wprowadzać innowacje w tej przestrzeni” – napisali wiceprezes Scott Belsky, który nadzoruje produkt, i Dana Rao, który nadzoruje kwestie prawne i zasady.

Belsky i Rao napisali, że ich firma „nigdy nie szkoliła generatywnej sztucznej inteligencji w zakresie treści klientów” ani nie przejmowała na własność niepublikowanych prac innych osób oraz że firma Adobe nie ogłosiła zamiaru zrobienia tego w ostatniej aktualizacji ToS. Warto zauważyć, że generatywne modele sztucznej inteligencji Firefly firmy Adobe są szkolone w oparciu o wkład do biblioteki stockowej Adobe wraz z danymi należącymi do domeny publicznej, ale jest to traktowane oddzielnie od treści tworzonych przez użytkowników do celów osobistych i zawodowych.

ZOBACZ TEŻ:

Adobe przedstawia funkcje sztucznej inteligencji w Photoshopie — ale nie wszyscy są z tego zadowoleni

„To powiedziawszy, zgadzamy się, że zmiana naszych Warunków użytkowania w celu odzwierciedlenia naszych zobowiązań na rzecz naszej społeczności jest słuszną decyzją” – napisali Belsky i Rao.

Zmienna prędkość światła

W zeszłym tygodniu wybuchło PR-owe fiasko, gdy użytkownicy zostali powiadomieni o zaktualizowanych Warunkach użytkowania firmy Adobe. Bez jasnego wyjaśnienia, co oznaczają zmiany lub co zostało zmienione, użytkownicy Adobe zakładali najgorsze i wierzyli, że zaktualizowane warunki oznaczają drastyczne zmiany w autonomii ich treści. W szczególności użytkownicy uważali, że Adobe może teraz uzyskać dostęp do niepublikowanych prac w celu szkolenia swoich modeli Firefly AI, a nawet może przejąć własność prac w toku. Aktualizacjom brakowało przejrzystości i przejrzystości w czasach, gdy narzędzia generatywnej sztucznej inteligencji są postrzegane jako zagrażające pracy i źródłom utrzymania twórców. Nastąpiła szybka reakcja, w tym obietnice opuszczenia platformy.

Jak się jednak okazuje, zaktualizowana polityka Adobe dotycząca dostępu firmy do treści użytkowników dotyczyła sprawdzania działań łamiących prawo lub naruszające jego warunki. Adobe oświadczyło, że nigdy nie zamierzało szkolić swoich modeli w zakresie treści użytkownika ani uzurpować sobie kontroli. Belsky i Rao zapewnili również, że użytkownicy mają możliwość „nieuczestniczenia w programie udoskonalania produktów” (udostępnianie treści w celu szkolenia modeli), że licencje firmy są „wąsko dostosowane do niezbędnych działań”, takich jak skanowanie pod kątem niewłaściwego lub nielegalnego zachowania, oraz że firma Adobe nie skanuje treści użytkowników przechowywanych lokalnie na ich komputerach.

Można więc było uniknąć tego wszystkiego dzięki jaśniejszej komunikacji, ale prawdopodobnie wyrządzono pewne szkody wizerunkowe.

„Wiemy, że na zaufanie trzeba zapracować” – stwierdzili Belsky i Rao, zamykając post.

Tematy
Prywatność sztucznej inteligencji



Zrodlo