Vietnam.vn - Nền tảng quảng bá Việt Nam

Почему искусственный интеллект использует самые глубокие страхи людей?

(Дэн Три) — Искусственный интеллект проникает во все уголки жизни. Но чем он умнее, тем больше он запутывает людей в своих убеждениях и эмоциях.

Báo Dân tríBáo Dân trí11/11/2025

Искусственный интеллект помогает людям составлять электронные письма, рекомендовать фильмы, анализировать данные и содействовать диагностике заболеваний...

Но по мере того, как ИИ становится умнее, растёт и чувство неуверенности, которое он приносит. Отчасти это связано с тем, что мы не до конца понимаем технологию, которую используем. В остальном же это проистекает из наших собственных психологических инстинктов.

Vì sao trí tuệ nhân tạo chạm vào nỗi sợ sâu nhất của con người? - 1

ИИ развивается быстрее, чем психологическая приспособляемость человека (иллюстрация).

Когда ИИ становится «черным ящиком» и пользователи теряют контроль

Люди склонны доверять тому, что понимают и контролируют. Нажимаешь кнопку — лифт движется. Щёлкаешь выключателем — загорается свет. Чёткие ответы создают чувство безопасности.

Напротив, многие системы искусственного интеллекта работают как закрытый ящик. Вы вводите данные, но способ получения результатов скрыт. Это делает невозможным для пользователей их понимание или запрос.

Это чувство непрозрачности тревожит. Пользователям нужен не только работающий инструмент, но и понимание того, как он работает.

Если ИИ не даёт объяснений, люди начинают сомневаться в нём. Это приводит к появлению концепции «неприятия алгоритма», которую исследователи поведения описывают как феномен, при котором люди склонны выбирать решения других, даже если они неверны, вместо того, чтобы доверять суждениям машины.

Многие опасаются, что ИИ станет слишком точным. Система рекомендаций контента может раздражать, если слишком точно их считывает. Начинает возникать ощущение, что за вами следят или манипулируют, хотя сама система не испытывает никаких эмоций и намерений.

Эта реакция проистекает из инстинктивного поведения: антропоморфизма. Хотя мы знаем, что ИИ — это не человек, мы всё равно реагируем на него так, как будто общаемся с человеком. Когда ИИ слишком вежлив или слишком холоден, пользователи чувствуют себя странно и недоверчиво.

Люди легко прощают людей, но не машины.

Интересный парадокс заключается в том, что, когда люди совершают ошибки, мы можем сопереживать и принимать их. Но когда ошибка исходит от ИИ, особенно если он позиционируется как объективный и основанный на данных, пользователи часто чувствуют себя преданными.

Это связано с феноменом нарушения ожиданий. Мы ожидаем от машин логичности, точности и безошибочности. Когда это доверие нарушается, психологическая реакция часто оказывается более интенсивной. Даже небольшая ошибка в алгоритме может быть воспринята как серьёзная, если пользователь чувствует себя неуправляемым или необъяснимым.

Мы инстинктивно стремимся понять причину ошибки. В случае с людьми мы можем задаться вопросом «почему?». В случае с ИИ ответ часто отсутствует или слишком расплывчат.

Когда учителя, писатели, юристы или дизайнеры видят, как ИИ выполняет часть их работы, они не только боятся потерять работу, но и беспокоятся о ценности своих навыков и личной идентичности.

Это естественная реакция, называемая угрозой идентичности. Она может привести к отрицанию, сопротивлению или психологической защите. В таких случаях подозрение — это уже не эмоциональная реакция, а механизм самозащиты.

Доверие не рождается из одной лишь логики.

Люди доверяют друг другу через эмоции, жесты, зрительный контакт и эмпатию. ИИ может быть красноречивым и даже обладать чувством юмора, но он не умеет создавать настоящую связь.

Эксперты описывают феномен «зловещей долины» как неприятное чувство, возникающее при столкновении с вещами, которые почти человечны, но которым не хватает чего-то, что делает их нереальными.

Vì sao trí tuệ nhân tạo chạm vào nỗi sợ sâu nhất của con người? - 2

Когда машины становятся слишком человечными, чувство незащищенности становится еще более очевидным (Фото: Getty).

В случае с ИИ именно отсутствие эмоций заставляет многих людей чувствовать себя дезориентированными, не зная, доверять ему или сомневаться.

В мире, полном фейковых новостей, фейковых видео и алгоритмических решений, чувство эмоциональной заброшенности заставляет людей с опаской относиться к технологиям. Не потому, что ИИ делает что-то плохое, а потому, что мы не знаем, как к нему относиться.

Более того, подозрение иногда — это больше, чем просто чувство. Алгоритмы уже создали предвзятость при найме сотрудников, вынесении уголовных приговоров и выдаче кредитов. Тем, кто пострадал от непрозрачных систем данных, стоит быть осторожнее.

Психологи называют это выученным недоверием. Когда система постоянно даёт сбои, доверие, естественно, теряется. Люди не доверяют просто потому, что им говорят. Доверие нужно заслужить, а не навязывать.

Для широкого внедрения ИИ разработчикам необходимо создавать системы, которые можно понять, подвергнуть сомнению и призвать к ответственности. Пользователи должны участвовать в принятии решений, а не просто наблюдать со стороны. Доверие может быть по-настоящему устойчивым только тогда, когда люди чувствуют уважение и поддержку.

Источник: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm


Комментарий (0)

No data
No data

Та же тема

Та же категория

Вяленая на ветру хурма — сладость осени
В «кофейне для богатых» в переулке Ханоя продают кофе по 750 000 донгов за чашку.
Мок Чау в сезон спелой хурмы, все, кто приходит, ошеломлены
Дикие подсолнухи окрашивают в желтый цвет горный город Далат в самое красивое время года.

Тот же автор

Наследство

Фигура

Бизнес

G-Dragon взорвал публику во время своего выступления во Вьетнаме

Текущие события

Политическая система

Местный

Продукт