Grupa niemieckich badaczy ostrzegła niedawno przed ryzykiem stronniczości w kontekście wykorzystywania chatbotów opartych na sztucznej inteligencji do skracania treści badań. Po przeanalizowaniu 4900 streszczeń naukowych napisanych przez ludzi, zespół wykorzystał kilka modeli sztucznej inteligencji, aby porównać sposób, w jaki te systemy przetwarzają informacje. Wyniki pokazały, że większość chatbotów popełniała błąd nadmiernego uogólniania, nawet gdy proszono je o dokładne podsumowanie.
Sztuczna inteligencja jest podatna na stronniczość przy podsumowywaniu badań naukowych.
W testach modele sztucznej inteligencji popełniały pięć razy więcej błędów niż eksperci, gdy nie były odpowiednio prowadzone. Nawet gdy wyraźnie proszono o dokładność, wskaźnik błędów był dwukrotnie wyższy niż w przypadku standardowego podsumowania. „Uogólnienia czasami wydają się nieszkodliwe, ale w rzeczywistości zmieniają charakter pierwotnych badań” – powiedział jeden z członków zespołu. „To błąd systematyczny”.
Co ciekawe, nowsze wersje chatbota nie tylko nie rozwiązały problemu, ale wręcz go zaostrzyły. Dzięki płynnemu i angażującemu językowi, generowane przez sztuczną inteligencję podsumowania mogą wydawać się wiarygodne, podczas gdy ich rzeczywista treść jest zniekształcona. W jednym przypadku DeepSeek zmienił frazę „bezpieczne i możliwe do skutecznego przeprowadzenia” na „bezpieczne i skuteczne leczenie” – co stanowi błędną interpretację wniosków z pierwotnego badania.
W innym przykładzie model Lamy zalecał młodym ludziom leki na cukrzycę bez określenia dawkowania, częstotliwości ani skutków ubocznych. Jeśli czytelnikiem jest lekarz lub pracownik służby zdrowia , który nie weryfikuje oryginalnych badań, takie podsumowania mogą stanowić bezpośrednie zagrożenie dla pacjentów.
Eksperci twierdzą, że zjawisko to ma swoje korzenie w sposobie trenowania modeli sztucznej inteligencji. Wiele dzisiejszych chatbotów jest trenowanych na danych wtórnych – takich jak wiadomości popularnonaukowe – które zostały już uproszczone. W miarę jak sztuczna inteligencja kontynuuje streszczanie skróconych treści, rośnie ryzyko zniekształceń.
Eksperci zajmujący się sztuczną inteligencją w dziedzinie zdrowia psychicznego twierdzą, że bariery techniczne należy stawiać już na wczesnym etapie rozwoju i stosowania sztucznej inteligencji.
Użytkownicy muszą zachować ostrożność, ponieważ chatboty mogą łatwo zniekształcić treść.
W miarę jak użytkownicy coraz częściej korzystają z chatbotów opartych na sztucznej inteligencji, aby zdobywać wiedzę naukową, drobne błędy w interpretacji mogą szybko się kumulować i rozprzestrzeniać, prowadząc do powszechnych nieporozumień. W czasach spadku zaufania do nauki, ryzyko to staje się jeszcze bardziej niepokojące i zasługuje na szczególną uwagę.
Integracja sztucznej inteligencji z badaniami i upowszechnianiem wiedzy to nieodwracalny trend. Eksperci twierdzą jednak, że technologia nie może zastąpić roli człowieka w rozumieniu i weryfikacji treści naukowych. Wykorzystując chatboty w obszarach wysokiego ryzyka, takich jak medycyna, priorytetem powinna być precyzja, a nie jedynie płynność językowa czy szybkość reakcji.
Źródło: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










Komentarz (0)