Программы искусственного интеллекта добились значительных успехов в последние годы. Фото: REUTERS
Мы не можем наблюдать весь процесс от входных данных до выходных результатов больших языковых моделей (LLM).
Чтобы упростить понимание, учёные используют распространённые термины, например, «рассуждение», для описания работы этих программ. Они также утверждают, что программы могут «думать», «рассуждать» и «понимать» так же, как люди.
Преувеличение возможностей ИИ
По данным ZDNET от 6 сентября, за последние два года многие руководители в сфере искусственного интеллекта прибегали к гиперболе, чтобы преувеличить простые технические достижения.
В сентябре 2024 года компания OpenAI объявила, что модель рассуждений o1 «использует цепочку выводов при решении задач, подобно тому, как люди долго думают, сталкиваясь со сложными вопросами».
Однако учёные, занимающиеся искусственным интеллектом, возражают. Они считают, что у искусственного интеллекта нет человеческого интеллекта.
Исследование базы данных arXiv, проведенное группой авторов из Университета штата Аризона (США), подтвердило способность искусственного интеллекта к рассуждению с помощью простого эксперимента.
Результаты показали, что «вывод по цепочке мыслей — это хрупкая иллюзия», не реальный логический механизм, а всего лишь сложная форма сопоставления шаблонов.
Термин «цепочка мыслей» (CoT) позволяет ИИ не только прийти к окончательному ответу, но и представить каждый шаг логического рассуждения, как в моделях GPT-o1 или DeepSeek V1.
Иллюстрация языковой модели GPT-2 OpenAI — Фото: ECHOCRAFTAI
Посмотрите, что на самом деле делает ИИ
Исследователи утверждают, что масштабные анализы показывают, что LLM склонны полагаться на семантику и поверхностные подсказки, а не на процессы логического рассуждения.
«LLM выстраивает поверхностные логические цепочки на основе усвоенных ассоциаций на входе, часто терпя неудачу в заданиях, которые отклоняются от традиционных методов рассуждения или знакомых шаблонов», — объясняет команда.
Чтобы проверить гипотезу о том, что LLM только сопоставляет шаблоны и не делает фактических выводов, команда обучила GPT-2 — модель с открытым исходным кодом, выпущенную OpenAI в 2019 году.
Изначально модель обучалась на очень простых задачах, связанных с 26 английскими буквами, например, на перестановке некоторых букв, например, на преобразовании «APPLE» в «EAPPL». Затем команда изменила задачу и поручила GPT-2 её решить.
Результаты показывают, что GPT-2 не может точно решить задачи, не включенные в обучающие данные, с помощью CoT.
Вместо этого модель пытается применять наиболее похожие изученные задачи. Поэтому её «выводы» могут казаться разумными, но результаты часто оказываются неверными.
Группа пришла к выводу, что не следует слишком полагаться или слепо доверять ответам LLM, поскольку они могут породить «чушь, которая звучит очень убедительно».
Они также подчеркнули необходимость понять истинную природу ИИ, избегать шумихи и прекратить пропагандировать идею о том, что ИИ способен мыслить подобно человеку.
Источник: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Комментарий (0)