Badania MIT wykazały, że chatboty oparte na sztucznej inteligencji zmniejszają wiarę w teorie spiskowe o 20%

Wzrost liczby teorii spiskowych w Internecie stał się poważnym problemem, a niektóre teorie prowadzą do znacznych szkód i dezinformacji. Niedawne badanie przeprowadzone przez MIT Sloan School of Management i Cornell University sugeruje, że chatboty AI mogą być potężnym narzędziem w walce z tymi fałszywymi przekonaniami. Badanie opublikowane w Science pokazuje, że angażowanie się w konwersacje z dużymi modelami językowymi (LLM), takimi jak GPT-4 Turbo, może zmniejszyć wiarę w teorie spiskowe o około 20%.

Jak działają chatboty AI

Naukowcy, w tym dr Yunhao Zhang z Instytutu Psychologii Technologii i Thomas Costello z MIT Sloan, przetestowany skuteczność chatbotów AI poprzez angażowanie 2190 uczestników w konwersacje tekstowe na temat ich ulubionych teorii spiskowych. AI została zaprogramowana tak, aby dostarczać przekonujących, opartych na faktach kontrargumentów dostosowanych do każdej teorii. Uczestnicy, którzy wchodzili w interakcje z chatbotami, zgłosili znaczny spadek wiary w te teorie, zgodnie z badanie.

Dokładność i przyszłe implikacje

Badanie zapewniło również dokładność odpowiedzi chatbota, ponieważ profesjonalny fact-checker sprawdził podane twierdzenia. Prawie wszystkie (99,2%) twierdzenia były dokładne, co pokazuje wiarygodność informacji dostarczonych przez AI. Wyniki sugerują, że chatboty AI mogą być wykorzystywane na różnych platformach w celu kwestionowania dezinformacji i zachęcania użytkowników do krytycznego myślenia.

Następne kroki

Chociaż wyniki są obiecujące, potrzebne są dalsze badania, aby zbadać długoterminową skuteczność chatbotów w zmienianiu przekonań i radzeniu sobie z różnymi typami dezinformacji. Badacze tacy jak dr David G. Rand i dr Gordon Pennycook podkreślają potencjał integracji AI z mediami społecznościowymi i innymi forami w celu zwiększenia edukacji publicznej i przeciwdziałania szkodliwym teoriom spiskowym.

unsplash.com/photos/a-computer-chip-with-the-word-gat-printed-on-it-Fc1GBkmV-Dw

Zrodlo