Microsoft uruchamia „Korektę”, funkcję AI, która może wykrywać i naprawiać halucynacje AI

Firma Microsoft uruchomiła we wtorek nową funkcję sztucznej inteligencji (AI), która będzie identyfikować i korygować przypadki, gdy model AI generuje nieprawidłowe informacje. Funkcja ta, nazwana „Korekta”, jest integrowana z systemem wykrywania uziemienia Azure AI Content Safety. Ponieważ ta funkcja jest dostępna tylko za pośrednictwem Azure, prawdopodobnie jest skierowana do korporacyjnych klientów giganta technologicznego. Firma pracuje również nad innymi metodami ograniczającymi przypadki halucynacji AI. Co ciekawe, funkcja ta może również wyświetlać wyjaśnienie, dlaczego segment tekstu został wyróżniony jako nieprawidłowa informacja.

Uruchomiono funkcję „Korekty” firmy Microsoft

W wpis na bloguGigant technologiczny z siedzibą w Redmond przedstawił szczegółowo nową funkcję, która rzekomo ma zwalczać przypadki halucynacji sztucznej inteligencji, czyli zjawiska, w którym sztuczna inteligencja odpowiada na zapytanie nieprawdziwymi informacjami i nie rozpoznaje ich fałszywości.

Funkcja jest dostępna za pośrednictwem usług Azure firmy Microsoft. System Azure AI Content Safety ma narzędzie o nazwie groundedness detection. Określa ono, czy wygenerowana odpowiedź jest osadzona w rzeczywistości, czy nie. Podczas gdy samo narzędzie działa na wiele różnych sposobów, aby wykrywać przypadki halucynacji, funkcja Correction działa w określony sposób.

Aby funkcja Correction działała, użytkownicy muszą być połączeni z dokumentami uziemiającymi Azure, które są używane w podsumowaniu dokumentów i scenariuszach pytań i odpowiedzi opartych na pobieraniu-rozszerzaniu-generowaniu (RAG). Po połączeniu użytkownicy mogą włączyć tę funkcję. Następnie, gdy tylko zostanie wygenerowane zdanie nieuzasadnione lub niepoprawne, funkcja wywoła żądanie korekty.

Mówiąc prościej, dokumenty uziemiające można rozumieć jako wytyczne, których system AI musi przestrzegać podczas generowania odpowiedzi. Może to być materiał źródłowy dla zapytania lub większa baza danych.

Następnie funkcja oceni oświadczenie w odniesieniu do dokumentu bazowego i w przypadku stwierdzenia, że ​​jest to dezinformacja, zostanie odfiltrowana. Jednak jeśli treść jest zgodna z dokumentem bazowym, funkcja może przepisać zdanie, aby upewnić się, że nie zostanie ono błędnie zinterpretowane.

Dodatkowo użytkownicy będą mieli również możliwość włączenia rozumowania podczas pierwszej konfiguracji tej funkcji. Włączenie tej opcji spowoduje, że funkcja AI doda wyjaśnienie, dlaczego uznała, że ​​informacje są nieprawidłowe i wymagają korekty.

Rzecznik firmy powiedział The Verge twierdzi, że funkcja Korekty wykorzystuje małe modele językowe (SLM) i duże modele językowe (LLM) do dopasowania wyników do dokumentów uziemiających. „Ważne jest, aby zauważyć, że wykrywanie uziemienia nie rozwiązuje problemu „dokładności”, ale pomaga dopasować wyniki generatywnej AI do dokumentów uziemiających” – publikacja cytuje rzecznika.

Zrodlo