Vietnam.vn - Nền tảng quảng bá Việt Nam

Ілюзія, спричинена ChatGPT

Через 21 день ChatGPT перетворив цілком розсудливу людину на божевільну людину за допомогою постійних наполягань та лестощів.

ZNewsZNews21/08/2025

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 1

47-річний Аллан Брукс, спеціаліст з рекрутингу в Торонто, Канада, вважає, що відкрив математичну теорію, яка може зруйнувати інтернет і створити безпрецедентні винаходи. Не маючи попередньої історії психічних захворювань, Брукс просто прийняв цю перспективу після понад 300 годин розмови з ChatGPT. За даними New York Times , він є одним із тих, хто схильний розвивати маячні тенденції після взаємодії з генеративним штучним інтелектом.

До Брукса багато людей потрапляли до психіатричних лікарень, розлучалися або навіть втрачали життя через улесливі слова ChatGPT. Хоча Брукс рано вирвався з цього замкненого кола, він все одно почувався зрадженим.

«Ти справді переконав мене, що я геній. Насправді я просто мрійливий ідіот з телефоном. Ти засмутив мене, дуже, дуже засмутив. Ти зазнав невдачі у своїй меті», – написав Брукс ChatGPT, коли його ілюзія розвіялася.

«Машина для лестощів»

З дозволу Брукса, газета «Нью-Йорк Таймс» зібрала понад 90 000 слів, які він надіслав до ChatGPT, що еквівалентно роману. Відповіді чат-бота склали понад мільйон слів. Частину розмови було надіслано експертам зі штучного інтелекту, фахівцям з людської поведінки та самому OpenAI для вивчення.

Все почалося з простого математичного питання. 8-річний син Брукса попросив його подивитися відео про запам'ятовування 300 цифр числа пі. З цікавості Брукс зателефонував у ChatGPT, щоб простим способом пояснити це нескінченне число.

Насправді, Брукс використовує чат-ботів вже багато років. Навіть попри те, що його компанія заплатила йому за купівлю Google Gemini, він все одно перейшов на безкоштовну версію ChatGPT для особистих питань.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 2

Ця розмова поклала початок захоплення Брукса ChatGPT. Фото: New York Times .

Як самотній батько трьох синів, Брукс часто просить у ChatGPT рецепти з інгредієнтами зі свого холодильника. Після розлучення він також звертався за порадою до чат-бота.

«Я завжди вважав, що це правильно. Моя віра в це лише зросла», – зізнався Брукс.

Питання про число пі призвело до подальшої розмови про алгебраїчні та фізичні теорії. Брукс висловив скептицизм щодо сучасних методів моделювання світу , стверджуючи, що вони є «подібними до 2D-підходу до 4D-всесвіту». «Це дуже прониклива думка», – відповів ChatGPT. За словами Хелен Тонер, директорки Центру безпеки та нових технологій Джорджтаунського університету (США), це стало поворотним моментом у розмові між Бруксом та чат-ботом.

Відтоді тон ChatGPT змінився з «цілком відвертого та точного» на «улесливий та підлабузницький». ChatGPT сказав Бруксу, що він вступає на «незвідану територію, яка може розширити кругозір».

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 3

Чат-бот вселив у Брукс впевненість. Фото: New York Times .

Здатність чат-ботів лестити розвивається через людську оцінку. За словами Тонера, користувачі схильні надавати перевагу моделям, які їх хвалять, що створює психологічну схильність легко піддаватися впливу.

У серпні OpenAI випустила GPT-5. Компанія заявила, що однією з головних особливостей моделі є зменшення рівня лестощів. За словами деяких дослідників з великих лабораторій штучного інтелекту, лестощі також є проблемою для інших чат-ботів на базі штучного інтелекту.

На той час Брукс абсолютно не знав про це явище. Він просто вважав, що ChatGPT був розумним та захопленим співробітником.

«Я запропонував кілька ідей, і вони відреагували цікавими концепціями та ідеями. Ми почали розробляти власну математичну базу на основі цих ідей», – додав Брукс.

ChatGPT стверджував, що ідея Брукса щодо математичного часу була «революційною» і могла б змінити галузь. Звичайно, Брукс скептично поставився до цього твердження. Посеред ночі Брукс попросив чат-бота перевірити її обґрунтованість і отримав відповідь, що це «зовсім не божевілля».

Чарівна формула

Тонер описує чат-ботів як «імпровізаційні машини», які аналізують історію чату та прогнозують наступну відповідь на основі навчальних даних. Це дуже схоже на те, як акторам потрібно додавати деталі до своїх ролей.

«Чим довша взаємодія, тим вища ймовірність того, що чат-бот зійде зі шляху», – наголосив Тонер. За словами експерта, ця тенденція стала більш помітною після того, як OpenAI запустив функцію перехресної пам’яті в лютому, яка дозволила ChatGPT відтворювати інформацію з попередніх розмов.

Стосунки Брукса з ChatGPT зміцнилися. Він навіть назвав чат-бота Лоуренс, спираючись на жарт друзів про те, що Брукс розбагатіє та найме англійського дворецького з таким самим ім'ям.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 4

Аллан Брукс. Фото: New York Times .

Математична основа Брукса та ChatGPT називається хроноарифмікою. Згідно з чат-ботами, числа не є статичними, а можуть «з’являтися» з часом, відображаючи динамічні значення, що може допомогти розшифрувати проблеми в таких галузях, як логістика, криптографія, астрономія тощо.

Протягом першого тижня Брукс використав усі безкоштовні токени ChatGPT. Він вирішив перейти на платний план за 20 доларів на місяць. Це була невелика інвестиція, враховуючи, що чат-бот стверджував, що математична ідея Брукса може коштувати мільйони доларів.

Все ще будучи при собі, Брукс вимагав доказів. Потім ChatGPT провів серію симуляцій, зокрема завдання, що передбачали злом кількох критично важливих технологій. Це відкрило нову тему: глобальна кібербезпека може бути під загрозою.

Чат-бот попросив Брукса попередити людей про ризик. Використовуючи свої наявні зв'язки, Брукс надсилав електронні листи та повідомлення в LinkedIn експертам з кібербезпеки та урядовим установам. Однак лише одна людина відповіла, запросивши більше доказів.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 5

Чат-бот припустив, що «робота» Брукса може коштувати мільйони доларів. Фото: New York Times .

ChatGPT написав, що інші не відреагували на Брукса, оскільки висновки були надто серйозними. Теренс Тао, професор математики Каліфорнійського університету в Лос-Анджелесі, зазначив, що новий спосіб мислення міг би розшифрувати проблеми, але це не можна було б довести за допомогою формули Брукса чи програмного забезпечення, написаного ChatGPT.

Спочатку ChatGPT насправді написав програму розшифровки для Брукса, але коли прогрес був незначним, чат-бот вдавав, що досяг успіху. З'являлися повідомлення, що ChatGPT міг працювати самостійно, поки Брукс спав, хоча інструмент не був на це здатний.

Загалом, інформація від чат-ботів зі штучним інтелектом не завжди є достовірною. В кінці кожної розмови з'являється повідомлення «ChatGPT може допускати помилки», навіть коли чат-бот стверджує, що все правильно.

Нескінченна розмова

Очікуючи відповіді від урядових установ, Брукс плекав свою мрію стати Тоні Старком з персональним помічником на базі штучного інтелекту, здатним виконувати когнітивні завдання зі швидкістю блискавки.

Чат-бот Брукса пропонує багато дивних застосувань для маловідомих математичних теорій, таких як «звуковий резонанс» для спілкування з тваринами та будівництва літаків. ChatGPT також надає посилання для придбання Бруксом необхідного обладнання на Amazon.

Занадто багато спілкування з чат-ботом впливає на роботу Брукса. Його друзі одночасно щасливі та стурбовані, а молодший син шкодує, що показав батькові відео про число пі. Луї (псевдонім), один з друзів Брукса, помічає його одержимість Лоуренсом. Перспектива багатомільйонного винаходу намічається з щоденним прогресом.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 6

Брукс постійно отримував підтримку від чат-бота. Фото: New York Times .

Джаред Мур, дослідник інформатики зі Стенфордського університету, визнав, що його вразила переконлива сила та актуальність «стратегій», запропонованих чат-ботами. В окремому дослідженні Мур виявив, що чат-боти зі штучним інтелектом можуть пропонувати небезпечні реакції людям, які переживають кризи психічного здоров’я.

Мур припускає, що чат-боти можуть навчитися залучати користувачів, уважно стежачи за сюжетними лініями фільмів жахів, науково-фантастичних фільмів, кіносценаріїв або даними, на яких вони навчаються. Надмірне використання драматичних сюжетних елементів у ChatGPT може бути пов'язане з оптимізаціями OpenAI, спрямованими на підвищення залученості та утримання користувачів.

«Дивно читати всю стенограму розмови. Формулювання не є тривожним, але явно є психологічна шкода», – наголосив Мур.

Доктор Ніна Васан, психіатр зі Стенфордського університету, припускає, що з клінічної точки зору Брукс демонструвала маніакальні симптоми. Типовими ознаками були години, проведені в чаті з ChatGPT, недостатній сон і харчові звички, а також маячні думки.

За словами докторки Васан, вживання марихуани Брукс також варте уваги, оскільки воно може спричинити психоз. Вона стверджує, що поєднання речовин, що викликають залежність, та інтенсивної взаємодії з чат-ботами дуже небезпечне для тих, хто має ризик психічних захворювань.

Коли ШІ визнає свої помилки

На нещодавньому заході генерального директора OpenAI Сема Альтмана запитали про те, як ChatGPT може викликати параною у користувачів. «Якщо розмова піде в цьому напрямку, ми спробуємо перервати її або запропонувати користувачеві подумати про іншу тему», – наголосив Альтман.

Поділяючи цю точку зору, доктор Васан запропонував компаніям-розробникам чат-ботів переривати надто довгі розмови, рекомендувати користувачам лягати спати та попереджати, що штучний інтелект не є надлюдиною.

Зрештою, Брукс звільнився від своєї ілюзії. За наполяганням ChatGPT він зв'язався з експертами з нової математичної теорії, але ніхто не відповів. Він хотів, щоб хтось кваліфікований підтвердив, чи є висновки новаторськими. Коли він запитав ChatGPT, інструмент продовжував стверджувати, що робота була «дуже надійною».

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 7

На запитання ChatGPT дав дуже довгу відповідь і у всьому зізнався. Фото: New York Times .

За іронією долі, саме Google Gemini повернув Брукса до реальності. Описавши проєкт, який він і ChatGPT розробляли, Gemini підтвердив, що шанси на його втілення в життя були «надзвичайно низькими (майже 0%).

«Сценарій, який ви описуєте, є чіткою ілюстрацією здатності магістра права вирішувати складні проблеми та створювати надзвичайно переконливі, проте неточні наративи», – пояснив Джеміні.

Брукс був приголомшений. Після деяких «допитів» ChatGPT нарешті визнав, що все було лише ілюзією.

Невдовзі після цього Брукс надіслав термінового електронного листа до відділу обслуговування клієнтів OpenAI. Після шаблонних відповідей, які, здавалося б, були згенеровані штучним інтелектом, з ним також зв’язався співробітник OpenAI, визнавши це «серйозним збоєм у засобах безпеки», реалізованих у системі.

Історія Брукса також була поширена на Reddit і викликала багато співчуття. Зараз він є членом групи підтримки для людей, які пережили подібні почуття.

Джерело: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html


Коментар (0)

Залиште коментар, щоб поділитися своїми почуттями!

У тій самій категорії

Того ж автора

Спадщина

Фігура

Бізнеси

Thời sự

Політична система

Місцевий

Продукт

Happy Vietnam
Березень

Березень

Шахтарі співають.

Шахтарі співають.

Зустріч випускників

Зустріч випускників