Vietnam.vn - Nền tảng quảng bá Việt Nam

Чому штучний інтелект зачіпає найглибші людські страхи?

(Ден Трі) - Штучний інтелект проникає в кожен куточок життя. Але чим він розумніший, тим більше він плутає людей щодо їхніх переконань та емоцій.

Báo Dân tríBáo Dân trí12/11/2025

Штучний інтелект допомагає людям складати електронні листи, рекомендувати фільми, аналізувати дані та допомагати у діагностиці захворювань...

Але зі зростанням розуму штучного інтелекту зростає і відчуття невпевненості, яке він приносить. Частково це пов'язано з тим, що ми не до кінця розуміємо технології, які використовуємо. Решта ж походить від наших власних психологічних інстинктів.

Vì sao trí tuệ nhân tạo chạm vào nỗi sợ sâu nhất của con người? - 1

Штучний інтелект розвивається швидше, ніж психологічна адаптивність людини (ілюстративне фото).

Коли ШІ стає «чорною скринькою», а користувачі втрачають контроль

Люди схильні довіряти тому, що вони розуміють і контролюють. Коли ви натискаєте кнопку, ліфт рухається. Коли ви перемикаєте вимикач, вмикається світло. Чіткі реакції створюють відчуття безпеки.

На противагу цьому, багато систем штучного інтелекту працюють як закрита коробка. Ви вводите дані, але спосіб отримання результатів прихований. Це робить неможливим для користувачів зрозуміти їх або зробити запит.

Це відчуття непрозорості викликає занепокоєння. Користувачам потрібен не лише інструмент, який працює, але й знання, чому він працює.

Якщо ШІ не може надати пояснення, люди починають ставити його під сумнів. Це призводить до концепції під назвою «відраза до алгоритму», яку дослідники поведінки описують як явище, коли люди схильні обирати рішення інших, навіть якщо вони помиляються, а не довіряти судженням машини.

Багато людей побоюються, що штучний інтелект стане надто точним. Система рекомендацій контенту може дратувати, якщо вона занадто добре їх зчитує. Починає виникати відчуття спостереження або маніпуляції, навіть якщо сама система не має емоцій чи намірів.

Ця реакція випливає з інстинктивної поведінки: антропоморфізму. Навіть знаючи, що ШІ не є людиною, ми все одно реагуємо на нього так, ніби спілкуємося з окремою людиною. Коли ШІ занадто ввічливий або занадто холодний, користувачі почуваються дивно та недовірливо.

Люди прощають людям, але не машинам.

Цікавий парадокс полягає в тому, що коли люди помиляються, ми можемо бути співчутливими та терпимими. Але коли помилка виходить від штучного інтелекту, особливо коли він рекламується як об'єктивний та заснований на даних, користувачі часто почуваються зрадженими.

Це пов'язано з феноменом порушення очікувань. Ми очікуємо, що машини будуть логічними, точними та безпомилковими. Коли ця довіра порушується, психологічна реакція часто є більш інтенсивною. Навіть невелика помилка в алгоритмі може сприйматися як серйозна, якщо користувач відчуває себе неконтрольованим або незрозумілим.

Нам інстинктивно потрібно зрозуміти причину помилки. Люди можуть запитати, чому. Зі штучним інтелектом відповідь часто відсутня або занадто розпливчаста.

Коли вчителі, письменники, юристи чи дизайнери бачать, як штучний інтелект виконує частину їхньої роботи, вони не лише бояться втратити роботу, але й хвилюються за цінність своїх навичок та особистої ідентичності.

Це природна реакція, яка називається загрозою ідентичності. Вона може призвести до заперечення, опору або психологічного захисту. У цих випадках підозра вже не є емоційною реакцією, а механізмом самозахисту.

Довіра не виникає лише з логіки.

Люди довіряють через емоції, жести, зоровий контакт та емпатію. Штучний інтелект може бути красномовним, навіть гумористичним, але він не знає, як створити справжній зв'язок.

Феномен «моторошної долини» експерти описують як неприємне відчуття від зіткнення з речами, які майже людські, але яким бракує чогось, що робить їх нереальними.

Vì sao trí tuệ nhân tạo chạm vào nỗi sợ sâu nhất của con người? - 2

Коли машини стають надто людяними, відчуття невпевненості стає ще більш очевидним (Фото: Getty).

У випадку зі штучним інтелектом саме відсутність емоцій залишає багатьох людей дезорієнтованими, невпевненими, чи довіряти, чи сумніватися.

У світі, наповненому фейковими новинами, фейковими відео та алгоритмічними рішеннями, почуття емоційної покинутості змушує людей з обережністю ставитися до технологій. Не тому, що штучний інтелект робить щось погане, а тому, що ми не знаємо, як до нього ставитися.

Більше того, підозра іноді буває більше, ніж просто почуттям. Алгоритми вже створили упередженість у наймі, кримінальних судженнях та схваленні кредитів. Тим, хто постраждав від непрозорих систем даних, має сенс бути обережними.

Психологи називають це набутою недовірою. Коли система постійно дає збій, зрозуміло, що довіра втрачається. Люди не довірятимуть просто тому, що їм кажуть. Довіру потрібно заслужити, а не нав'язати.

Щоб штучний інтелект отримав широке впровадження, розробникам потрібно створити системи, які можна зрозуміти, які можна поставити під сумнів та які можна притягнути до відповідальності. Користувачі повинні бути залучені до прийняття рішень, а не просто спостерігати збоку. Довіра може бути справді збережена лише тоді, коли люди відчувають повагу та впевненість у собі.

Джерело: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm


Коментар (0)

No data
No data

У тій самій темі

У тій самій категорії

Висушена вітром хурма - солодкість осені
«Кав'ярня багатіїв» у провулку Ханоя продає 750 000 донгів за чашку.
Мок Чау в сезон стиглої хурми, кожен, хто приходить, приголомшений
Дикі соняшники фарбують гірське містечко Далат у жовтий колір у найпрекраснішу пору року.

Того ж автора

Спадщина

Фігура

Бізнес

G-Dragon підірвав публіку під час свого виступу у В'єтнамі.

Поточні події

Політична система

Місцевий

Продукт