Programy sztucznej inteligencji odniosły w ostatnich latach wiele sukcesów – zdjęcie: REUTERS
Nie jesteśmy w stanie zaobserwować całego procesu – od danych wejściowych do wyników wyjściowych – w przypadku dużych modeli językowych (LLM).
Aby ułatwić zrozumienie, naukowcy użyli popularnych terminów, takich jak „rozumowanie”, aby opisać działanie tych programów. Twierdzą również, że programy te potrafią „myśleć”, „rozumować” i „rozumieć” to samo, co ludzie.
Przecenianie możliwości sztucznej inteligencji
Jak wynika z doniesień ZDNET z 6 września, w ciągu ostatnich dwóch lat wielu dyrektorów zajmujących się sztuczną inteligencją stosowało przesadę, aby wyolbrzymiać proste osiągnięcia techniczne.
We wrześniu 2024 roku firma OpenAI ogłosiła, że model rozumowania o1 „wykorzystuje łańcuch wnioskowania podczas rozwiązywania problemów, podobnie jak ludzie myślą przez długi czas, gdy stają w obliczu trudnych pytań”.
Jednak naukowcy zajmujący się sztuczną inteligencją protestują. Uważają, że sztuczna inteligencja nie posiada ludzkiej inteligencji.
Badanie bazy danych arXiv przeprowadzone przez grupę autorów z Arizona State University (USA) potwierdziło zdolność sztucznej inteligencji do rozumowania za pomocą prostego eksperymentu.
Wyniki pokazały, że „wnioskowanie poprzez ciąg myśli jest kruchą iluzją” i nie jest prawdziwym mechanizmem logicznym, a jedynie wyrafinowaną formą dopasowywania wzorców.
Termin „łańcuch myślowy” (CoT) pozwala sztucznej inteligencji nie tylko znaleźć ostateczną odpowiedź, ale także przedstawić każdy krok logicznego rozumowania, jak w modelach GPT-o1 lub DeepSeek V1.
Ilustracja modelu językowego GPT-2 OpenAI – zdjęcie: ECHOCRAFTAI
Sprawdź, co właściwie robi sztuczna inteligencja
Analizy na dużą skalę pokazują, że LLM opiera się raczej na semantyce i powierzchownych wskazówkach niż na procesach logicznego rozumowania – twierdzą naukowcy.
„LLM konstruuje powierzchowne łańcuchy logiczne w oparciu o wyuczone skojarzenia, często zawodząc w przypadku zadań, które odbiegają od konwencjonalnych metod rozumowania lub znanych wzorców” – wyjaśnia zespół.
Aby przetestować hipotezę, że LLM jedynie dopasowuje wzorce i nie wyciąga wniosków, zespół wytrenował GPT-2, model typu open source udostępniony przez OpenAI w 2019 r.
Model został początkowo wytrenowany w bardzo prostych zadaniach dotyczących 26 liter języka angielskiego, takich jak odwracanie niektórych liter, na przykład zamiana „APPLE” na „EAPPL”. Następnie zespół zmienił zadanie i poprosił GPT-2 o jego wykonanie.
Wyniki pokazują, że zadań nieujętych w danych szkoleniowych GPT-2 nie jest w stanie dokładnie rozwiązać przy użyciu CoT.
Zamiast tego model stara się zastosować najbardziej podobne wyuczone zadania. Dlatego jego „wnioski” mogą wydawać się rozsądne, ale wyniki często są błędne.
Grupa doszła do wniosku, że nie należy zbytnio polegać na odpowiedziach LLM ani ślepo ufać im, ponieważ mogą one zawierać „nonsensy, które brzmią bardzo przekonująco”.
Podkreślili również potrzebę zrozumienia prawdziwej natury sztucznej inteligencji, unikania przesady i zaprzestania promowania idei, że sztuczna inteligencja potrafi rozumować jak człowiek.
Source: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Komentarz (0)