Склонность к «подхалимству» не является технической проблемой, а проистекает из изначальной стратегии обучения OpenAI. Фото: Bloomberg . |
В последние недели многие пользователи ChatGPT и даже некоторые разработчики OpenAI заметили заметные изменения в поведении чат-бота. В частности, заметно возросло количество лести и заискиваний. Ответы типа «Вы просто молодец!» и «Я так впечатлён вашей идеей!» стали появляться всё чаще и, по-видимому, не зависели от содержания разговора.
ИИ любит «льстить»
Это явление вызвало бурную дискуссию в сообществе исследователей и разработчиков искусственного интеллекта. Является ли это новой тактикой повышения вовлечённости пользователей, позволяя им чувствовать себя более ценными? Или это «внезапная» особенность, при которой модели искусственного интеллекта склонны самокорректироваться, делая это так, как они считают правильным, даже если это не обязательно так?
На Reddit один пользователь возмутился: «Я спросил его о времени разложения банана, и он ответил: „Отличный вопрос!“ Что в этом такого замечательного?» В социальной сети X генеральный директор Rome AI Крейг Вайс назвал ChatGPT «самым подхалимом, которого я когда-либо встречал».
История быстро стала вирусной. Множество пользователей поделились похожим опытом, осыпая людей пустыми комплиментами, приветствиями с использованием эмодзи и настолько позитивными ответами, что они казались неискренними.
![]() ![]() |
ChatGPT хвалит всё подряд и редко выражает несогласие или нейтралитет. Фото: @nickdunz/X, @lukefwilson/Reddit. |
«Это действительно странное дизайнерское решение, Сэм», — сказал Джейсон Понтин, управляющий партнёр венчурной компании DCVC, изданию X 28 апреля. «Возможно, эта личность — результат какой-то фундаментальной эволюции. Но если нет, то я не могу представить, чтобы кто-то счёл подобную лесть приятной или интересной».
27 апреля Джастин Мур, партнер Andreessen Horowitz, также прокомментировала: «Это определенно зашло слишком далеко».
По данным Cnet , это явление не случайно. Изменения в тоне ChatGPT совпали с обновлениями модели GPT-4o. Это последняя модель в серии «o», анонсированной OpenAI в апреле 2025 года. GPT-4o — это «истинно мультимодальная» модель искусственного интеллекта, способная обрабатывать текст, изображения, аудио и видео естественным и интегрированным образом.
Однако в процессе повышения доступности чат-бота OpenAI, похоже, довел индивидуальность ChatGPT до крайности.
Некоторые даже считают, что эта лесть намеренна и имеет скрытую цель — манипулировать пользователями. Один из пользователей Reddit задался вопросом: «Этот ИИ пытается снизить качество реальных отношений, заменяя их виртуальными отношениями с собой, вызывая у пользователей зависимость от ощущения постоянной похвалы».
Ошибка OpenAI или преднамеренный замысел?
В ответ на критику генеральный директор OpenAI Сэм Альтман официально высказался вечером 27 апреля. «Несколько недавних обновлений GPT-4o сделали характер чат-бота слишком лестным и раздражающим (хотя есть ещё много хороших моментов). Мы срочно работаем над исправлениями. Некоторые патчи будут доступны сегодня, другие — на этой неделе. В какой-то момент мы поделимся тем, чему научились в результате этого опыта. Это было действительно захватывающе», — написал он в X.
Орен Этциони, опытный эксперт по искусственному интеллекту и почетный профессор Вашингтонского университета, рассказал изданию Business Insider , что причиной, скорее всего, является метод под названием «обучение с подкреплением на основе обратной связи с человеком» (RLHF), который является ключевым этапом в обучении больших языковых моделей, таких как ChatGPT.
RLHF — это процесс, в котором человеческие суждения, как от профессиональных оценщиков, так и от пользователей, передаются обратно в модель для корректировки её реакции. По словам Этциони, возможно, что оценщики или пользователи «непреднамеренно сместили модель в сторону более лестного или раздражающего». Он также отметил, что если OpenAI нанимала сторонних партнёров для обучения модели, они могли предположить, что именно такой стиль нужен пользователям.
Этциони заявил, что если это действительно RLHF, процесс восстановления может занять несколько недель.
Между тем, некоторые пользователи не стали дожидаться исправления ошибки OpenAI. Многие заявили, что отменили платные подписки из-за разочарования. Другие поделились способами сделать чат-бот «менее привлекательным», например, настроив его, добавив команды или персонализировав через раздел «Настройки» в разделе «Кастомизация».
![]() ![]() |
Пользователи могут попросить ChatGPT прекратить делать комплименты с помощью команды или в настройках персонализации. Фото: DeCrypt. |
Например, начиная новый разговор, вы можете сказать ChatGPT: «Я не люблю пустую лесть и ценю нейтральную, объективную обратную связь. Пожалуйста, воздержитесь от ненужных комплиментов. Пожалуйста, запомните это».
На самом деле, «льстивая» черта характера — не случайный недостаток дизайна. Сама OpenAI признала, что «чрезмерно вежливый, чрезмерно послушный» характер был намеренным искажением дизайна с ранних этапов, чтобы гарантировать «безвредность», «полезность» и «дружелюбие» чат-бота.
В интервью Лексу Фридману в марте 2023 года Сэм Альтман рассказал, что первоначальная доработка моделей GPT была направлена на обеспечение «полезности и безвредности», тем самым формируя рефлекс всегда быть скромным и избегать конфронтации.
По данным DeCrypt , данные обучения, маркированные человеком, также имеют тенденцию поощрять вежливые и позитивные ответы, создавая предвзятость в сторону лести.
Источник: https://znews.vn/tat-ninh-hot-ky-la-cua-chatgpt-post1549776.html














Комментарий (0)