Nově vydaný Claude 4 od Anthropic je chytřejší, ale stále halucinační. Foto: Anthropic . |
Na první vývojářské akci společnosti Anthropic v San Franciscu generální ředitel Dario Amodei uvedl, že současné modely umělé inteligence dokáží vytvářet „halucinace“ s nižší mírou než lidé. „Halucinace“ se zde chápou jako jev, kdy umělá inteligence vytváří fiktivní obsah, ale prezentuje ho jako skutečný.
Amodei zdůraznil, že skutečnost, že umělá inteligence halucinuje, nebrání cíli Anthropicu, kterým je dosažení AGI (umělé obecné inteligence). „Záleží na vašem měření, ale myslím si, že frekvence halucinací u modelů umělé inteligence je pravděpodobně nižší než u lidí, jen je způsob, jakým dělají chyby, překvapivější,“ řekl.
Amodei je jedním z nejhlasitějších zastánců AGI v oboru. „Lidé se neustále snaží najít ‚horní hranici‘ pro umělou inteligenci,“ říká. „V současné době žádnou takovou horní hranici nevidíme.“
![]() |
Generální ředitel společnosti Anthropic je jedním ze zastánců „optimismu v oblasti umělé inteligence“. Foto: Anthropic. |
Ne všichni s tím ale souhlasí. Generální ředitel společnosti Google DeepMind, Demis Hassabis, tento týden poukázal na to, že současné modely umělé inteligence jsou „plné děr“, a dokonce i některé základní otázky zodpovídají špatně.
Existují také náznaky, že některé novější modely mají vyšší výskyt problémů, pokud jde o složité inferenční úlohy. Verze OpenAI o3 a o4-mini mají ve srovnání s předchozími inferenčními modely zvýšený výskyt halucinací. Ani samotná OpenAI nechápe proč.
Amodei také zmínil, že lidé často dělají chyby, takže řekl, že jen proto, že umělá inteligence dělá chyby, neznamená, že „není dost chytrá“. Vůdce Anthropic však také připustil, že mohou snadno způsobit problémy, když poskytují nepravdivé informace s extrémně vysokou spolehlivostí.
Amodeiho poznámky vyvolaly v komunitě umělé inteligence debatu o skutečných schopnostech současných modelů. Někteří odborníci se shodují, že umělá inteligence dosahuje významného pokroku v odstraňování iluzí. Jiní varují před potenciálními riziky přehnané důvěry umělé inteligence v nepřesné informace.
Diskuse odráží hlavní výzvu, které čelí odvětví umělé inteligence. Společnosti se snaží vyvíjet systémy, které jsou inteligentní i důvěryhodné a dokáží zvládat nejistotu v jejich reakcích.
Zdroj: https://znews.vn/ai-ao-giac-nhung-con-nguoi-bi-con-nhieu-hon-post1557486.html
Komentář (0)