
Программы искусственного интеллекта достигли многих прорывов в последние годы. — Фото: REUTERS
Мы не можем наблюдать весь процесс от входных данных до выходных результатов больших языковых моделей (LLM).
Для упрощения понимания ученые используют такие общепринятые термины, как «рассуждение», для описания работы этих программ. Они также утверждают, что программы могут «думать», «рассуждать» и «понимать» так же, как и люди.
Преувеличение возможностей ИИ.
Как сообщило издание ZDNET 6 сентября, за последние два года многие руководители компаний, занимающихся искусственным интеллектом, использовали преувеличенные формулировки, чтобы преувеличить даже простые технические достижения.
В сентябре 2024 года компания OpenAI объявила, что модель рассуждений o1 «использует цепочку выводов при решении задач, подобную тому, как люди долго думают, сталкиваясь со сложными вопросами».
Однако учёные, занимающиеся искусственным интеллектом, с этим не согласны. Они утверждают, что ИИ не обладает человеческим интеллектом.
Исследование, проведенное группой авторов из Университета штата Аризона (США) на основе базы данных arXiv, подтвердило способность искусственного интеллекта к рассуждению с помощью простого эксперимента.
Результаты показали, что «умозаключение по цепочке рассуждений — это хрупкая иллюзия», не реальный логический механизм, а лишь сложная форма сопоставления образов.
Термин «цепочка рассуждений» (ЦР) позволяет ИИ не только прийти к окончательному ответу, но и представить каждый шаг логического рассуждения, как в моделях GPT-o1 или DeepSeek V1.

Иллюстрация языковой модели GPT-2 от OpenAI - Фото: ECHOCRAFTAI
Узнайте, что на самом деле делает ИИ.
Исследовательская группа заявила, что крупномасштабные анализы показали, что LLM, как правило, в большей степени опирается на семантику и поверхностные подсказки, чем на процессы логического рассуждения.
«LLM строит поверхностные логические цепочки на основе усвоенных ассоциаций входных данных, часто терпя неудачу в задачах, которые отклоняются от традиционных методов рассуждения или знакомых закономерностей», — поясняет команда.
Чтобы проверить гипотезу о том, что LLM лишь сопоставляет шаблоны, а не делает фактических выводов, команда обучила GPT-2, модель с открытым исходным кодом, выпущенную OpenAI в 2019 году.
Первоначально модель обучалась на очень простых задачах с использованием 26 английских букв, например, на перестановке некоторых букв, скажем, превращении "APPLE" в "EAPPL". Затем команда изменила задачу и поручила ее GPT-2.
Результаты показали, что для задач, не включенных в обучающие данные, GPT-2 не мог точно решить их с помощью CoT.
Вместо этого модель пытается максимально точно применить полученные знания. Поэтому её «рассуждения» могут звучать логично, но результаты часто оказываются неверными.
Группа пришла к выводу, что не следует слишком полагаться на ответы юристов, имеющих степень магистра права, или слепо им доверять, поскольку они могут выдавать «бессмыслицу, которая звучит очень убедительно».
Они также подчеркнули необходимость понимания истинной природы ИИ, избегания преувеличений и прекращения распространения идеи о том, что ИИ обладает способностями к мышлению, подобными человеческим.
Источник: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Комментарий (0)