Vietnam.vn - Nền tảng quảng bá Việt Nam

Нове дослідження: Штучний інтелект не «міркує» так, як люди.

Програми штучного інтелекту (ШІ) досягли багатьох вражаючих успіхів, але нові дослідження показують, що не варто переоцінювати потенціал здатності ШІ міркувати як люди.

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

Програми штучного інтелекту досягли багатьох проривів за останні роки - Фото: REUTERS

Ми не можемо спостерігати весь процес від вхідних даних до вихідних результатів моделей великих мов (LLM).

Щоб було легше зрозуміти, вчені використовували поширені терміни, такі як «міркування», для опису того, як працюють ці програми. Вони також кажуть, що програми можуть «думати», «міркувати» та «розуміти» так само, як і люди.

Перебільшення можливостей штучного інтелекту.

За даними ZDNET від 6 вересня, протягом останніх двох років багато керівників у сфері штучного інтелекту використовували перебільшену мову, щоб розрекламувати прості технічні досягнення.

У вересні 2024 року OpenAI оголосила, що модель міркування o1 «використовує ланцюг висновків під час вирішення проблем, подібно до того, як люди довго думають, стикаючись зі складними питаннями».

Однак вчені зі штучного інтелекту не погоджуються. Вони стверджують, що штучний інтелект не має людського інтелекту.

Дослідження бази даних arXiv, проведене групою авторів з Університету штату Аризона (США), підтвердило здатність штучного інтелекту до міркування за допомогою простого експерименту.

Результати показали, що «висновок за ланцюжком думок — це крихка ілюзія», не справжній логічний механізм, а лише складна форма зіставлення зі зразком.

Термін «ланцюг думки» (CoT) дозволяє ШІ не лише прийти до остаточної відповіді, але й представити кожен крок логічного міркування, як у моделях GPT-o1 або DeepSeek V1.

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

Ілюстрація мовної моделі GPT-2 від OpenAI - Фото: ECHOCRAFTAI

Перевірте, що насправді робить ШІ.

Дослідницька група заявила, що масштабні аналізи показали, що LLM має тенденцію більше покладатися на семантику та поверхневі підказки, ніж на логічні процеси міркування.

«LLM будує поверхневі логічні ланцюги на основі вивчених вхідних асоціацій, часто не справляючись із завданнями, які відхиляються від традиційних методів міркування або знайомих шаблонів», – пояснює команда.

Щоб перевірити гіпотезу про те, що LLM лише зіставляє шаблони, а не робить висновків, команда навчила GPT-2, модель з відкритим кодом, випущену OpenAI у 2019 році.

Спочатку модель навчали дуже простим завданням з 26 англійськими літерами, таким як перетворення деяких літер на інвертовані, наприклад, перетворення «APPLE» на «EAPPL». Потім команда змінила завдання та попросила GPT-2 виконати його.

Результати показали, що для задач, не включених до навчальних даних, GPT-2 не міг точно вирішити їх за допомогою CoT.

Натомість модель намагається якомога точніше застосувати вивчені завдання. Тому її «міркування» можуть здаватися логічними, але результати часто бувають хибними.

Група дійшла висновку, що не варто надто покладатися або сліпо довіряти відповідям LLM, оскільки вони можуть породжувати «нісенітниці, які звучать дуже переконливо».

Вони також наголосили на необхідності зрозуміти справжню природу ШІ, уникати ажіотажу та перестати пропагувати здатність ШІ міркувати, як люди.

Повертаючись до теми
ANH ЧТ

Джерело: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


Коментар (0)

Залиште коментар, щоб поділитися своїми почуттями!

У тій самій темі

У тій самій категорії

Різдвяний розважальний заклад, який викликав ажіотаж серед молоді в Хошиміні 7-метровою сосною
Що ж такого на стометровій алеї викликає ажіотаж на Різдво?
Вражений чудовим весіллям, яке тривало 7 днів і ночей на Фукуоку.
Парад стародавніх костюмів: Радість ста квітів

Того ж автора

Спадщина

Фігура

Бізнес

Дон Ден – Новий «небесний балкон» Тхай Нгуєн приваблює юних мисливців за хмарами

Поточні події

Політична система

Місцевий

Продукт