
Programy umělé inteligence dosáhly v posledních letech mnoha úspěchů - Foto: REUTERS
Nemůžeme sledovat celý proces od vstupních dat až po výstupní výsledky modelů velkých jazyků (LLM).
Aby to vědci snáze pochopili, používají k popisu fungování těchto programů běžné termíny jako „uvažovaní“. Také tvrdí, že programy dokáží „myslet“, „uvažovat“ a „chápat“ stejně jako lidé.
Přeceňování schopností umělé inteligence
Podle serveru ZDNET ze 6. září mnoho vedoucích pracovníků v oblasti umělé inteligence v posledních dvou letech používalo hyperbolu k zveličování jednoduchých technických úspěchů.
V září 2024 společnost OpenAI oznámila, že model uvažování o1 „používá při řešení problémů řetězec inference, podobně jako lidé dlouhodobě přemýšlejí, když čelí obtížným otázkám.“
Vědci zabývající se umělou inteligencí však namítají. Věří, že umělá inteligence nemá lidskou inteligenci.
Studie databáze arXiv, kterou provedla skupina autorů z Arizonské státní univerzity (USA), ověřila schopnost umělé inteligence uvažovat pomocí jednoduchého experimentu.
Výsledky ukázaly, že „inference pomocí myšlenkového řetězce je křehká iluze“, nikoli skutečný logický mechanismus, ale pouze sofistikovaná forma porovnávání vzorů.
Termín „řetězec myšlenek“ (CoT) umožňuje umělé inteligenci nejen dojít s konečnou odpovědí, ale také prezentovat každý krok logického uvažování, jako v modelech GPT-o1 nebo DeepSeek V1.

Ilustrace jazykového modelu GPT-2 od OpenAI - Foto: ECHOCRAFTAI
Podívejte se, co umělá inteligence skutečně dělá
Vědci tvrdí, že rozsáhlé analýzy ukazují, že LLM má tendenci spoléhat se spíše na sémantiku a povrchní indicie než na logické uvažování.
„LLM konstruuje povrchní logické řetězce založené na naučených vstupních asociacích a často selhává u úkolů, které se odchylují od konvenčních metod uvažování nebo známých vzorců,“ vysvětluje tým.
Aby tým otestoval hypotézu, že LLM pouze porovnává vzory a ve skutečnosti nedělá závěry, trénoval GPT-2, open-source model, který OpenAI vydala v roce 2019.
Model byl zpočátku trénován na velmi jednoduchých úkonech s 26 anglickými písmeny, jako je například obrácení některých písmen, například převedení „APPLE“ na „EAPPL“. Poté tým úlohu změnil a požádal GPT-2, aby se o ni postaral.
Výsledky ukazují, že úlohy, které nejsou zahrnuty v trénovacích datech, nedokáže GPT-2 přesně vyřešit pomocí CoT.
Model se místo toho snaží aplikovat co nejpodobnější naučené úlohy. Jeho „závěry“ se tedy mohou zdát rozumné, ale výsledky jsou často chybné.
Skupina dospěla k závěru, že by se člověk neměl příliš spoléhat nebo slepě důvěřovat odpovědím LLM, protože mohou produkovat „nesmysly, které zní velmi přesvědčivě“.
Zdůraznili také potřebu pochopit skutečnou podstatu umělé inteligence, vyhnout se humbuku kolem ní a přestat propagovat, že umělá inteligence má schopnost uvažovat jako lidé.
Zdroj: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Komentář (0)