
Programy sztucznej inteligencji osiągnęły w ostatnich latach wiele przełomów – zdjęcie: REUTERS
Nie jesteśmy w stanie zaobserwować całego procesu – od danych wejściowych do wyników wyjściowych – w przypadku dużych modeli językowych (LLM).
Aby ułatwić zrozumienie, naukowcy użyli popularnych terminów, takich jak „rozumowanie”, aby opisać działanie tych programów. Twierdzą również, że programy te potrafią „myśleć”, „rozumować” i „rozumieć” to samo, co ludzie.
Przecenianie możliwości sztucznej inteligencji.
Jak wynika z doniesień ZDNET z 6 września, w ciągu ostatnich dwóch lat wielu dyrektorów zajmujących się sztuczną inteligencją posługiwało się przesadnym językiem, aby wychwalać proste osiągnięcia techniczne.
We wrześniu 2024 roku firma OpenAI ogłosiła, że model rozumowania o1 „wykorzystuje łańcuch wnioskowania podczas rozwiązywania problemów, podobnie jak ludzie myślą przez długi czas, gdy stają w obliczu trudnych pytań”.
Jednak naukowcy zajmujący się sztuczną inteligencją nie zgadzają się z tym. Twierdzą, że sztuczna inteligencja nie posiada inteligencji zbliżonej do ludzkiej.
Badanie bazy danych arXiv przeprowadzone przez grupę autorów z Arizona State University (USA) potwierdziło zdolność sztucznej inteligencji do rozumowania za pomocą prostego eksperymentu.
Wyniki wskazują, że „odwoływanie się do sekwencji myśli jest kruchą iluzją”, nie jest to prawdziwy mechanizm logiczny, a jedynie wyrafinowana forma dopasowywania wzorców.
Termin „łańcuch myślowy” (CoT) pozwala sztucznej inteligencji nie tylko znaleźć ostateczną odpowiedź, ale także przedstawić każdy krok logicznego rozumowania, jak w modelach GPT-o1 lub DeepSeek V1.

Ilustracja modelu językowego GPT-2 autorstwa OpenAI – zdjęcie: ECHOCRAFTAI
Sprawdź, co właściwie robi sztuczna inteligencja.
Zespół badawczy stwierdził, że analizy na dużą skalę wykazały, iż LLM opiera się w większym stopniu na semantyce i powierzchownych wskazówkach niż na procesach logicznego rozumowania.
„LLM-y tworzą powierzchowne sekwencje logiczne w oparciu o wyuczone skojarzenia, często nie radząc sobie z zadaniami, które odbiegają od konwencjonalnych metod rozumowania lub znanych wzorców” – wyjaśnił zespół.
Aby przetestować hipotezę, że LLM jedynie dopasowuje wzorce i nie wyciąga wniosków, zespół wytrenował GPT-2, model typu open source udostępniony przez OpenAI w 2019 r.
Model został początkowo wytrenowany w bardzo prostych zadaniach dotyczących 26 liter języka angielskiego, takich jak odwracanie niektórych liter, na przykład zamiana „APPLE” na „EAPPL”. Następnie zespół zmienił zadanie i poprosił GPT-2 o jego wykonanie.
Wyniki pokazały, że w przypadku zadań nieujętych w danych szkoleniowych GPT-2 nie był w stanie dokładnie rozwiązać ich przy użyciu CoT.
Zamiast tego model stara się jak najwierniej zastosować wyuczone zadania. Dlatego jego „rozumowanie” może wydawać się logiczne, ale wyniki często są błędne.
Grupa doszła do wniosku, że nie należy zbytnio polegać na odpowiedziach LLM ani ślepo ufać im, ponieważ mogą one zawierać „nonsensy, które brzmią bardzo przekonująco”.
Podkreślili również potrzebę zrozumienia prawdziwej natury sztucznej inteligencji, unikania przesady i zaprzestania promowania idei, że sztuczna inteligencja ma zdolności rozumowania zbliżone do ludzkich.
Source: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Komentarz (0)