Pierwsza amerykańska ustawa o bezpieczeństwie dla sztucznej inteligencji zawetowana

Ustawodawstwo wymagałoby od firm technologicznych testowania modeli sztucznej inteligencji przed ich wypuszczeniem na rynek

Gubernator Kalifornii Gavin Newsom zawetował przełomową ustawę o sztucznej inteligencji, która ustanowiłaby pierwsze środki bezpieczeństwa dla branży w USA. Projekt ustawy, znany jako California Senate Bill 104 lub SB 1047, miał na celu ograniczenie potencjalnych zagrożeń stwarzanych przez sztuczną inteligencję.

Proponowane rozporządzenie zobowiązałoby firmy technologiczne dysponujące potężnymi modelami sztucznej inteligencji do poddawania ich testom bezpieczeństwa przed udostępnieniem ich społeczeństwu, a także do publicznego ujawnienia protokołów bezpieczeństwa modeli. Miało to na celu zapobieżenie manipulowaniu modelami w celu wyrządzenia szkód, takich jak hakowanie strategicznie ważnej infrastruktury.

W przesłaniu dołączonym do niedzielnego weta wojewoda stwierdził, że póki co propozycja jest „ma dobre intencje”, błędnie skupił się na „najdroższy i na dużą skalę” Modele AI, podczas gdy „mniejsze, wyspecjalizowane modele” może potencjalnie wyrządzić więcej szkód. Newsom argumentował również, że projekt ustawy nie uwzględnia, w jakim środowisku wdrażany jest system Al, czy wiąże się to z podejmowaniem kluczowych decyzji lub wykorzystaniem wrażliwych danych.

„Zamiast tego ustawa nakłada rygorystyczne standardy nawet na najbardziej podstawowe funkcje… Nie sądzę, że jest to najlepsze podejście do ochrony społeczeństwa przed realnymi zagrożeniami, jakie stwarza ta technologia” – dodał. stwierdził gubernator. Newsom podkreślił, że zgadza się, że branża musi zostać uregulowana, ale wezwał do dalszych działań “powiadomiony” inicjatywy oparte na „empiryczna analiza trajektorii systemów i możliwości Al”.




„Ostatecznie wszelkie ramy skutecznej regulacji Al muszą dotrzymywać kroku samej technologii… Biorąc pod uwagę stawkę – ochronę przed rzeczywistymi zagrożeniami bez niepotrzebnego udaremniania obietnic, jakie ta technologia zapewnia w zakresie poprawy dobra publicznego – musimy to dobrze zrobić.” – podsumował.

Uważa się, że jako gubernator Kalifornii Newsom odgrywa ważną rolę w rodzącym się procesie regulacji sztucznej inteligencji. Według danych jego biura w tym stanie znajdują się 32 osoby na świecie „50 wiodących firm zajmujących się sztuczną inteligencją”.

Autor ustawy, senator stanowy Scott Weiner, nazwał weto „porażka” dla tych, którzy „wierzyć w nadzór nad ogromnymi korporacjami, które podejmują krytyczne decyzje” wpływające na bezpieczeństwo publiczne. Zapowiedział, że będzie kontynuował prace nad ustawą.

Projekt ustawy wywołał mieszane reakcje firm technologicznych, badaczy i prawodawców. Niektórzy postrzegali to jako torowanie drogi do wprowadzenia ogólnokrajowych regulacji dotyczących branży, inni argumentowali, że może to zahamować rozwój sztucznej inteligencji. Była spikerka Izby Reprezentantów USA Nancy Pelosi potępiła tę propozycję „ma dobre intencje, ale jest źle poinformowany”.

CZYTAJ WIĘCEJ:
McDonald’s rezygnuje z próby sztucznej inteligencji po dodaniu bekonu do lodów – media

Tymczasem dziesiątki pracowników kilku wiodących firm zajmujących się sztuczną inteligencją, takich jak OpenAI, Anthropic i DeepMind należący do Google, poparło ustawę, ponieważ dodała ona ochronę sygnalistów dla tych, którzy wypowiadają się na temat zagrożeń związanych z modelami sztucznej inteligencji opracowywanymi przez ich firmy.

Możesz udostępnić tę historię w mediach społecznościowych:

Zrodlo