Vietnam.vn - Nền tảng quảng bá Việt Nam

Нове дослідження: Штучний інтелект не «міркує» так, як люди

Програми штучного інтелекту (ШІ) досягли вражаючих результатів, але нові дослідження показують, що не варто перебільшувати твердження про те, що ШІ може міркувати як люди.

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

Програми штучного інтелекту досягли багатьох успіхів за останні роки – Фото: REUTERS

Ми не можемо спостерігати весь процес від вхідних даних до вихідних результатів моделей великих мов (LLM).

Щоб було легше зрозуміти, вчені використовували поширені терміни, такі як «міркування», для опису того, як працюють ці програми. Вони також кажуть, що програми можуть «думати», «міркувати» та «розуміти» так само, як і люди.

Перебільшення можливостей штучного інтелекту

Протягом останніх двох років багато керівників у сфері штучного інтелекту використовували гіперболи, щоб перебільшити прості технічні досягнення, повідомляє ZDNET від 6 вересня.

У вересні 2024 року OpenAI оголосила, що модель міркування o1 «використовує ланцюг висновків під час вирішення проблем, подібно до того, як люди довго думають, стикаючись зі складними питаннями».

Однак вчені, що займаються штучним інтелектом, заперечують. Вони вважають, що штучний інтелект не має людського інтелекту.

Дослідження бази даних arXiv, проведене групою авторів з Університету штату Аризона (США), підтвердило здатність штучного інтелекту до міркування за допомогою простого експерименту.

Результати показали, що «висновок за ланцюжком думок — це крихка ілюзія», не справжній логічний механізм, а лише складна форма зіставлення зі зразком.

Термін «ланцюг думки» (CoT) дозволяє ШІ не лише прийти до остаточної відповіді, але й представити кожен крок логічного міркування, як у моделях GPT-o1 або DeepSeek V1.

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

Ілюстрація мовної моделі GPT-2 OpenAI – Фото: ECHOCRAFTAI

Дізнайтеся, що насправді робить ШІ

Масштабні аналізи показують, що LLM, як правило, спирається на семантику та поверхневі підказки, а не на логічні процеси міркування, кажуть дослідники.

«LLM будує поверхневі логічні ланцюги на основі вивчених вхідних асоціацій, часто не справляючись із завданнями, які відхиляються від традиційних методів міркування або знайомих шаблонів», – пояснює команда.

Щоб перевірити гіпотезу про те, що LLM лише зіставляє шаблони, а не робить висновків, команда навчила GPT-2, модель з відкритим кодом, випущену OpenAI у 2019 році.

Спочатку модель навчали дуже простим завданням з 26 англійськими літерами, таким як перетворення деяких літер на інвертовані, наприклад, перетворення «APPLE» на «EAPPL». Потім команда змінила завдання та попросила GPT-2 виконати його.

Результати показують, що для задач, не включених до навчальних даних, GPT-2 не може точно вирішити їх за допомогою CoT.

Натомість модель намагається застосувати найбільш схожі вивчені завдання. Тож її «висновки» можуть здаватися розумними, але результати часто бувають неправильними.

Група дійшла висновку, що не варто надто покладатися або сліпо довіряти відповідям LLM, оскільки вони можуть породжувати «нісенітниці, які звучать дуже переконливо».

Вони також наголосили на необхідності зрозуміти справжню природу ШІ, уникати ажіотажу та перестати пропагувати здатність ШІ міркувати, як люди.

Повернутися до теми
ANH ЧТ

Джерело: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


Коментар (0)

No data
No data

У тій самій темі

У тій самій категорії

Неймовірно красиві терасовані поля в долині Лук Хон
«Багаті» квіти вартістю 1 мільйон донгів кожен все ще популярні 20 жовтня.
В'єтнамські фільми та шлях до Оскара
Молодь їде на північний захід, щоб завітати до нас під час найгарнішого рисового сезону року.

Того ж автора

Спадщина

Фігура

Бізнес

Молодь їде на північний захід, щоб завітати до нас під час найгарнішого рисового сезону року.

Поточні події

Політична система

Місцевий

Продукт