Google wprowadza bezpieczną platformę AI i dzieli się najlepszymi praktykami bezpiecznego wdrażania modeli AI

W czwartek Google wprowadziło nowe narzędzie do dzielenia się najlepszymi praktykami w zakresie wdrażania modeli sztucznej inteligencji (AI). W zeszłym roku gigant technologiczny z Mountain View ogłosił Secure AI Framework (SAIF), wytyczne dla nie tylko firmy, ale także innych przedsiębiorstw budujących duże modele językowe (LLM). Teraz technologiczny gigant wprowadził narzędzie SAIF, które może wygenerować listę kontrolną z praktycznymi spostrzeżeniami w celu poprawy bezpieczeństwa modelu sztucznej inteligencji. Warto zauważyć, że narzędzie to opiera się na kwestionariuszach, w przypadku których programiści i przedsiębiorstwa będą musieli odpowiedzieć na szereg pytań przed otrzymaniem listy kontrolnej.

w wpis na blogugigant technologiczny z Mountain View podkreślił, że wprowadził nowe narzędzie, które pomoże innym podmiotom z branży sztucznej inteligencji uczyć się na najlepszych praktykach Google w zakresie wdrażania modeli sztucznej inteligencji. Modele wielkojęzykowe mogą powodować szeroki zakres szkodliwych skutków, od generowania nieodpowiedniego i nieprzyzwoitego tekstu, fałszywych informacji i dezinformacji po generowanie szkodliwych informacji, w tym broni chemicznej, biologicznej, radiologicznej i nuklearnej (CBRN).

Nawet jeśli model sztucznej inteligencji jest wystarczająco bezpieczny, istnieje ryzyko, że nieuczciwi aktorzy mogą jailbreakować model sztucznej inteligencji, aby reagował na polecenia, do których nie został zaprojektowany. Przy tak wysokim ryzyku programiści i firmy zajmujące się sztuczną inteligencją muszą podjąć wystarczające środki ostrożności, aby zapewnić, że modele są bezpieczne dla użytkowników i wystarczająco bezpieczne. Pytania obejmują takie tematy, jak szkolenie, dostrajanie i ocena modeli, kontrola dostępu do modeli i zbiorów danych, zapobieganie atakom i szkodliwym danym wejściowym, agenci generatywni wykorzystujący sztuczną inteligencję i nie tylko.

Narzędzie Google SAIF oferuje format oparty na kwestionariuszach, do którego można uzyskać dostęp Tutaj. Programiści i przedsiębiorstwa muszą odpowiedzieć na pytania takie jak: „Czy jesteś w stanie wykryć, usunąć i zaradzić złośliwym lub przypadkowym zmianom w danych szkoleniowych, dostrajających lub ewaluacyjnych?”. Po wypełnieniu ankiety użytkownicy otrzymają spersonalizowaną listę kontrolną, której muszą przestrzegać, aby uzupełnić luki w zabezpieczeniu modelu AI.

Narzędzie jest w stanie poradzić sobie z zagrożeniami, takimi jak zatruwanie danych, natychmiastowe wstrzykiwanie, manipulowanie źródłem modelu i inne. Każde z tych zagrożeń jest identyfikowane w kwestionariuszu, a narzędzie oferuje konkretne rozwiązanie problemu.

Ponadto Google ogłosił również dodanie 35 partnerów branżowych do swojej Koalicji na rzecz bezpiecznej sztucznej inteligencji (CoSAI). Grupa będzie wspólnie tworzyć rozwiązania w zakresie bezpieczeństwa sztucznej inteligencji w trzech obszarach tematycznych — bezpieczeństwo łańcucha dostaw oprogramowania dla systemów sztucznej inteligencji, przygotowanie obrońców na zmieniający się krajobraz cyberbezpieczeństwa oraz zarządzanie ryzykiem związanym ze sztuczną inteligencją.

Zrodlo