Vietnam.vn - Nền tảng quảng bá Việt Nam

Nový výzkum: Umělá inteligence „neuvažuje“ jako lidé

Programy umělé inteligence (AI) dosáhly působivých výsledků, ale nový výzkum naznačuje, že bychom neměli přeceňovat tvrzení, že AI dokáže uvažovat jako lidé.

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

Programy umělé inteligence dosáhly v posledních letech mnoha úspěchů - Foto: REUTERS

Nemůžeme sledovat celý proces od vstupních dat až po výstupní výsledky modelů velkých jazyků (LLM).

Aby to vědci snáze pochopili, používají k popisu fungování těchto programů běžné termíny jako „uvažovaní“. Také tvrdí, že programy dokáží „myslet“, „uvažovat“ a „chápat“ stejně jako lidé.

Přeceňování schopností umělé inteligence

Podle serveru ZDNET ze 6. září mnoho vedoucích pracovníků v oblasti umělé inteligence v posledních dvou letech používalo hyperbolu k zveličování jednoduchých technických úspěchů.

V září 2024 společnost OpenAI oznámila, že model uvažování o1 „používá při řešení problémů řetězec inference, podobně jako lidé dlouhodobě přemýšlejí, když čelí obtížným otázkám.“

Vědci zabývající se umělou inteligencí však namítají. Věří, že umělá inteligence nemá lidskou inteligenci.

Studie databáze arXiv, kterou provedla skupina autorů z Arizonské státní univerzity (USA), ověřila schopnost umělé inteligence uvažovat pomocí jednoduchého experimentu.

Výsledky ukázaly, že „inference pomocí myšlenkového řetězce je křehká iluze“, nikoli skutečný logický mechanismus, ale pouze sofistikovaná forma porovnávání vzorů.

Termín „řetězec myšlenek“ (CoT) umožňuje umělé inteligenci nejen dojít s konečnou odpovědí, ale také prezentovat každý krok logického uvažování, jako v modelech GPT-o1 nebo DeepSeek V1.

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

Ilustrace jazykového modelu GPT-2 od OpenAI - Foto: ECHOCRAFTAI

Podívejte se, co umělá inteligence skutečně dělá

Vědci tvrdí, že rozsáhlé analýzy ukazují, že LLM má tendenci spoléhat se spíše na sémantiku a povrchní indicie než na logické uvažování.

„LLM konstruuje povrchní logické řetězce založené na naučených vstupních asociacích a často selhává u úkolů, které se odchylují od konvenčních metod uvažování nebo známých vzorců,“ vysvětluje tým.

Aby tým otestoval hypotézu, že LLM pouze porovnává vzory a ve skutečnosti nedělá závěry, trénoval GPT-2, open-source model, který OpenAI vydala v roce 2019.

Model byl zpočátku trénován na velmi jednoduchých úkonech s 26 anglickými písmeny, jako je například obrácení některých písmen, například převedení „APPLE“ na „EAPPL“. Poté tým úlohu změnil a požádal GPT-2, aby se o ni postaral.

Výsledky ukazují, že úlohy, které nejsou zahrnuty v trénovacích datech, nedokáže GPT-2 přesně vyřešit pomocí CoT.

Model se místo toho snaží aplikovat co nejpodobnější naučené úlohy. Jeho „závěry“ se tedy mohou zdát rozumné, ale výsledky jsou často chybné.

Skupina dospěla k závěru, že by se člověk neměl příliš spoléhat nebo slepě důvěřovat odpovědím LLM, protože mohou produkovat „nesmysly, které zní velmi přesvědčivě“.

Zdůraznili také potřebu pochopit skutečnou podstatu umělé inteligence, vyhnout se humbuku kolem ní a přestat propagovat, že umělá inteligence má schopnost uvažovat jako lidé.

Zpět k tématu
ANH ČT

Zdroj: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


Štítek: gpt-o1SZOLLM

Komentář (0)

No data
No data

Ve stejném tématu

Ve stejné kategorii

Úžasně krásná terasovitá pole v údolí Luc Hon
„Bohaté“ květiny v ceně 1 milionu VND za kus jsou stále populární i 20. října
Vietnamské filmy a cesta k Oscarům
Mladí lidé se během nejkrásnější rýžové sezóny roku vydávají na severozápad, aby se tam ubytovali.

Od stejného autora

Dědictví

Postava

Obchod

Mladí lidé se během nejkrásnější rýžové sezóny roku vydávají na severozápad, aby se tam ubytovali.

Aktuální události

Politický systém

Místní

Produkt