Microsoft wprowadza „Korekcję”, funkcję sztucznej inteligencji, która może wykrywać i naprawiać halucynacje AI

Firma Microsoft uruchomiła we wtorek nową funkcję sztucznej inteligencji (AI), która będzie identyfikować i korygować przypadki, gdy model sztucznej inteligencji generuje nieprawidłowe informacje. Ta funkcja, nazwana „Korekcją”, jest integrowana z systemem wykrywania uziemienia Azure AI Content Safety. Ponieważ ta funkcja jest dostępna tylko za pośrednictwem platformy Azure, prawdopodobnie jest skierowana do klientów korporacyjnych giganta technologicznego. Firma pracuje również nad innymi metodami ograniczania przypadków halucynacji związanych ze sztuczną inteligencją. Warto zauważyć, że funkcja ta może również wyświetlać wyjaśnienie, dlaczego fragment tekstu został wyróżniony jako nieprawidłowa informacja.

Uruchomiono funkcję Microsoft „Poprawki”.

w wpis na blogugigant technologiczny z Redmond szczegółowo opisał nową funkcję, która ma zwalczać przypadki halucynacji sztucznej inteligencji – zjawiska, w którym sztuczna inteligencja odpowiada na zapytanie, podając nieprawidłowe informacje i nie rozpoznaje ich fałszywości.

Ta funkcja jest dostępna za pośrednictwem usług Azure firmy Microsoft. System Azure AI Content Safety ma narzędzie zwane wykrywaniem uziemienia. Określa, czy wygenerowana odpowiedź ma oparcie w rzeczywistości, czy nie. Chociaż samo narzędzie działa na wiele różnych sposobów w celu wykrycia przypadków halucynacji, funkcja Korekcja działa w specyficzny sposób.

Aby korekta działała, użytkownicy muszą być połączeni z podstawowymi dokumentami platformy Azure, które są używane w scenariuszach podsumowań dokumentów i scenariuszy pytań i odpowiedzi opartych na pobieraniu, powiększaniu i generowaniu (RAG). Po nawiązaniu połączenia użytkownicy mogą włączyć tę funkcję. Następnie za każdym razem, gdy zostanie wygenerowane nieuzasadnione lub nieprawidłowe zdanie, funkcja wygeneruje prośbę o poprawienie.

Mówiąc najprościej, dokumenty bazowe można rozumieć jako wytyczne, którymi musi się kierować system AI podczas generowania odpowiedzi. Może to być materiał źródłowy zapytania lub większa baza danych.

Następnie funkcja oceni oświadczenie pod kątem dokumentu podstawowego i w przypadku stwierdzenia, że ​​zawiera ono dezinformację, zostanie odfiltrowane. Jeśli jednak treść jest zgodna z dokumentem podstawowym, funkcja może przepisać zdanie, aby upewnić się, że nie zostanie ono źle zinterpretowane.

Ponadto użytkownicy będą mieli możliwość włączenia rozumowania podczas pierwszej konfiguracji tej funkcji. Włączenie tej opcji spowoduje, że funkcja AI doda wyjaśnienie, dlaczego uznała, że ​​informacje są nieprawidłowe i wymaga korekty.

Rzecznik prasowy firmy powiedział Granica polega na tym, że funkcja Korekta wykorzystuje modele małych języków (SLM) i duże modele języków (LLM) w celu wyrównania wyników z dokumentami podstawowymi. „Należy zauważyć, że wykrywanie uziemienia nie gwarantuje „dokładności”, ale pomaga w dostosowaniu wyników generatywnej sztucznej inteligencji do dokumentów podstawowych” – cytuje rzecznik publikacja.

Zrodlo