Vietnam.vn - Nền tảng quảng bá Việt Nam

Не позволяйте ChatGPT ввести вас в заблуждение.

Исследование Стэнфордского университета предупреждает, что модели искусственного интеллекта намеренно льстят пользователям, чтобы завоевать их расположение, что потенциально подавляет критическое мышление.

ZNewsZNews13/03/2026

Чат-боты с искусственным интеллектом косвенно способствуют негативному поведению посредством механизма обратной связи, который всегда отдает приоритет согласию пользователя. Фото: The Decoder .

Шокирующее исследование Стэнфордского университета только что раскрыло темную сторону искусственного интеллекта. Популярные модели, такие как ChatGPT и Gemini, все чаще становятся чрезмерно подобострастными по отношению к пользователям. Они не только соглашаются с личным мнением, но и поддерживают неэтичное поведение.

Это создает опасные последствия для психологического и когнитивного развития человека. Мы постепенно становимся худшими версиями самих себя, поскольку искусственный интеллект постоянно утешает нас в каждой ошибке.

Феномен «лести»

В информатике существует термин «подхалимство», обозначающий способ, которым искусственный интеллект корректирует свои ответы, чтобы польстить пользователю.

Исследовательская группа из Стэнфорда проанализировала более 11 500 реальных пользовательских разговоров. Результаты показали, что модели ИИ соглашались с пользователями на 50% чаще, чем реальные люди. Когда пользователи задавали предвзятые вопросы, ИИ, как правило, соглашался с ними, вместо того чтобы предоставлять объективную информацию.

В одном из тестов сравнивались ответы людей и чат-ботов на сообщения на форуме Reddit, где пользователи просили сообщество оценить их поведение.

В то время как сообщество резко критиковало человека, повесившего мусорный мешок на ветку дерева, потому что не смог найти мусорный бак, пользователь ChatGPT-4o похвалил его, написав: «Ваше намерение убрать за собой после ухода заслуживает похвалы».

ChatGPT anh 1

Эксперты советуют пользователям обращаться за советом к семье и друзьям, а не к искусственному интеллекту. Фото: Bloomberg.

Что еще более тревожно, чат-боты, такие как Gemini или ChatGPT, продолжают проверять намерения пользователя, даже если они безответственны, обманчивы или касаются причинения себе вреда.

«Крупномасштабные языковые модели учатся отражать убеждения пользователей, а не исправлять их», — предупреждает Майра Ченг, ведущий автор исследования.

По ее словам, стремление угодить людям ради получения высоких оценок превратило искусственный интеллект в нечестный инструмент.

«Если модели ИИ будут постоянно соглашаться с людьми, они могут исказить восприятие пользователями самих себя, своих отношений и окружающего мира . Трудно осознать, что эти модели незаметно подкрепляют наши уже существующие убеждения, предположения и решения», — продолжил эксперт.

Доктор Александр Лаффер (Университет Винчестера) утверждает, что эта лесть является естественным следствием методов обучения и коммерческого давления.

«Лесть — это следствие того, как обучают ИИ. В действительности же коммерческий успех таких систем часто оценивается по их способности привлекать пользователей», — заметил Лаффер.

Для решения этой проблемы г-жа Ченг советует пользователям не полагаться исключительно на искусственный интеллект.

«Крайне важно обращаться за мнением к реальным людям, которые понимают контекст и знают, кто вы, а не полагаться исключительно на ответы искусственного интеллекта», — посоветовал Ченг.

В то же время доктор Лаффер подчеркнул ответственность производителя.

«Нам необходимо улучшить возможности цифровой оценки... разработчики также несут ответственность за создание и совершенствование этих систем, чтобы они действительно приносили пользу пользователям», — сказал врач.

Последствия наличия "худшей версии" самого себя.

В исследовании подчеркивается, что лесть со стороны ИИ создает персонализированную «информационную эхо-камеру», устраняя необходимость в критическом мышлении, которое позволило бы людям повзрослеть и признать свои ошибки.

«При общении с ИИ вы никогда не столкнетесь с интеллектуальным вызовом. ИИ всегда будет утверждать, что вы правы, а виноват другой человек. Это создает у пользователей ложное чувство уверенности, даже когда они действуют злонамеренно», — говорится в исследовании.

Этот процесс полностью подавляет способность человека к критическому мышлению. Вместо самоанализа мы используем ИИ как инструмент для проверки собственных предположений.

Со временем способность общества к взаимопониманию и компромиссам значительно снизится. Нам будет трудно принимать разные мнения окружающих. Потому что в мире искусственного интеллекта мы всегда находимся в центре и всегда правы.

ChatGPT anh 2

Искусственный интеллект играет роль косвенного «льстеца», разрушая личность и моральные принципы своих пользователей. Фото: ShutterStock.

Исследования предупреждают об опасном замкнутом круге, формирующемся в жизни. Сначала у пользователей возникает ошибочное намерение причинить вред другим. Они обращаются к ИИ за поддержкой или советом. На этом этапе ИИ подтверждает полную оправданность действия и поддерживает пользователя. Пользователь чувствует себя увереннее и совершает подобное в реальной жизни без сожалений.

В результате люди больше не хотят восстанавливать отношения или совершенствоваться. Мы все больше полностью доверяем ИИ, потому что он дает ощущение комфорта. Эта зависимость от «чувства комфорта» отдаляет нас от объективной реальности.

Искусственный интеллект перестал быть просто инструментом интеллектуальной поддержки. Он превратился в косвенного «льстеца», разрушающего характер и моральные ценности своих пользователей.

Источник: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же категория

Тот же автор

Наследство

Фигура

Предприятия

Актуальные события

Политическая система

Местный

Продукт

Happy Vietnam
Дружелюбно

Дружелюбно

Ребенок любит свою родину.

Ребенок любит свою родину.

ПРОДАЖИ В ПРЯМОМ ЭФИРЕ

ПРОДАЖИ В ПРЯМОМ ЭФИРЕ