W badaniu ChatGPT był w stanie wyprzedzić lekarzy w diagnozowaniu chorób i schorzeń. Wyniki badania opublikowano w zeszłym miesiącu i podkreślono, że chatboty oparte na sztucznej inteligencji (AI) mogą skuteczniej analizować historię i stan pacjentów oraz zapewniać dokładniejsze diagnozy. Chociaż badanie miało na celu zrozumienie, czy chatboty oparte na sztucznej inteligencji mogą pomóc lekarzom w stawianiu lepszych diagnoz, wyniki nieoczekiwanie ujawniły, że chatbot OpenAI oparty na GPT-4 działał znacznie lepiej, gdy działał bez pomocy człowieka, w porównaniu do pracy w połączeniu z lekarzem.
ChatGPT przewyższa lekarzy w diagnozowaniu chorób
The badanieopublikowane w czasopiśmie JAMA Network Open, zostało przeprowadzone w Beth Israel Deaconess Medical Center w Bostonie przez grupę badaczy. Eksperyment miał na celu sprawdzenie, czy sztuczna inteligencja może pomóc lekarzom lepiej diagnozować choroby w porównaniu z tradycyjnymi metodami.
Według „New York Timesa”. raportw eksperymencie wzięło udział 50 lekarzy, będących mieszanką mieszkańców i lekarzy uczęszczających do uczelni medycznej. Byli rekrutowani za pośrednictwem wielu dużych systemów szpitalnych w USA i otrzymali historie sześciu pacjentów. Badani zostali podobno poproszeni o zaproponowanie diagnozy w każdym przypadku i wyjaśnienie, dlaczego faworyzują lub wykluczają pewne diagnozy. Mówi się, że lekarze są również oceniani na podstawie tego, czy ich ostateczna diagnoza była słuszna.
Według doniesień, aby ocenić wyniki każdego z uczestników, jako osoby oceniające wybrano ekspertów medycznych. Chociaż rzekomo pokazano im odpowiedzi, nie powiedziano im, czy odpowiedź pochodzi od lekarza z dostępem do sztucznej inteligencji, samego lekarza, czy tylko ChatGPT.
Co więcej, aby wyeliminować możliwość powstania nierealistycznych historii przypadków, naukowcy podobno wybrali historie przypadków prawdziwych pacjentów, z których badacze korzystali od dziesięcioleci, ale nigdy nie publikowano ich w celu uniknięcia skażenia. Ten punkt jest ważny, ponieważ ChatGPT nie może zostać przeszkolony na danych, które nigdy nie zostały opublikowane.
Wyniki badania były zaskakujące. Lekarze, którzy nie korzystali z żadnego narzędzia AI do diagnozowania historii przypadków, uzyskali średni wynik na poziomie 74 procent, podczas gdy lekarze korzystający z chatbota uzyskali średnio 76 procent. Jednak gdy sama ChatGPT przeanalizowała historie przypadków i postawiła diagnozę, uzyskała średnio 90 procent
Chociaż na wynik badania mogły mieć wpływ różne czynniki – od poziomu doświadczenia lekarzy po indywidualne uprzedzenia w przypadku niektórych diagnoz – naukowcy uważają, że badanie podkreśla, że nie można ignorować potencjału systemów sztucznej inteligencji w placówkach medycznych.