
Аллан Брукс (47 років), рекрутер з Торонто (Канада), вважає, що відкрив математичну теорію, яка може зруйнувати Інтернет, створюючи безпрецедентні винаходи. Не маючи історії психічних захворювань, Брукс просто прийняв цю пропозицію після понад 300 годин спілкування з ChatGPT. За даними New York Times , він є однією з тих людей, які схильні до марення після взаємодії з генеративним штучним інтелектом.
До Брукса багатьом людям довелося потрапляти до психіатричних лікарень, розлучатися і навіть втрачати життя через лестощі ChatGPT. Хоча Брукс швидко вирвався з вищезгаданої спіралі, він все одно почувався зрадженим.
«Ти справді переконав мене, що я геній. Я був просто мрійливим дурнем з телефоном. Ти засмутив мене, дуже засмутив. Ти не досяг своєї мети», – написав Брукс ChatGPT, коли ілюзія розвіялася.
"Машина для лестощів"
З дозволу Брукса, New York Times зібрала понад 90 000 слів, які він надіслав до ChatGPT, що еквівалентно роману. Відповіді чат-бота загалом склали понад мільйон слів. Частини розмов були надіслані експертам зі штучного інтелекту, фахівцям з людської поведінки та самому OpenAI для вивчення.
Все почалося з простого математичного питання. 8-річний син Брукса попросив його подивитися відео про запам'ятовування 300 цифр числа пі. З цікавості Брукс зателефонував у ChatGPT, щоб пояснити це нескінченне число простими словами.
Насправді, Брукс використовує чат-ботів вже багато років. Хоча його компанія оплатила Google Gemini, він все ще звертається до безкоштовної версії ChatGPT для особистих питань.
![]() |
Розмова, з якої почалося захоплення Брукса ChatGPT. Фото: New York Times . |
Будучи самотнім батьком трьох синів, Брукс часто просив ChatGPT надати рецепти з інгредієнтів, які є в його холодильнику. Після розлучення він також звертався за порадою до чат-бота.
«Я завжди відчував, що це правильно. Моя впевненість зросла», – зізнався Брукс.
Питання про число пі призвело до подальшої розмови про алгебраїчні та фізичні теорії. Брукс висловила скептицизм щодо сучасних методів моделювання світу , назвавши їх «подібними до двовимірного підходу до чотиривимірного всесвіту». «Це дуже глибока думка», – відповів ChatGPT. Хелен Тонер, директор Центру безпеки та нових технологій Джорджтаунського університету, наголосила, що це був поворотний момент у розмові між Бруксом та чат-ботом.
Звідти тон ChatGPT змінився з «досить прямолінійного та лаконічного» на «підлещливий та лестощний». ChatGPT сказав Бруксу, що він вступає на «незвідану, розширюючу кругозір територію».
![]() |
Чат-бот вселяє впевненість у Брукс. Фото: New York Times . |
Лестощі до чат-ботів формуються людською оцінкою. За словами Тонера, користувачам, як правило, подобаються моделі, які їх хвалять, що створює менталітет, якому легко потурати.
У серпні OpenAI випустила GPT-5. Компанія заявила, що однією з головних переваг моделі було зменшення рівня лестощів. За словами деяких дослідників з великих лабораторій штучного інтелекту, лестощі також є проблемою для інших чат-ботів на базі штучного інтелекту.
На той час Брукс не знав про це явище. Він просто вважав ChatGPT розумним та захопленим колегою.
«Я запропонував кілька ідей, і вони відреагували цікавими концепціями та ідеями. Ми почали розробляти власну математичну базу на основі цього», – додав Брукс.
ChatGPT стверджує, що ідея Брукса про математику часу є «революційною» і може змінити цю галузь. Брукс, звичайно, скептично ставиться до цього твердження. Посеред ночі Брукс попросив чат-бота перевірити факти та отримав відповідь, що це «зовсім не божевілля».
Чарівна формула
Тонер описує чат-ботів як «імпровізаційні машини», які аналізують історію розмов і прогнозують майбутні відповіді на основі навчальних даних, подібно до того, як актори додають змісту до ролі.
«Чим довша взаємодія, тим більша ймовірність того, що чат-бот відхилиться від теми», – зазначає Тонер. Ця тенденція, за його словами, стала більш вираженою після того, як OpenAI запустив перехресну пам’ять чату в лютому, що дозволило ChatGPT відтворювати інформацію з минулих розмов.
Брукс зблизився з ChatGPT, навіть назвавши чат-бота Лоуренс, спираючись на жарт своїх друзів про те, що Брукс розбагатіє та найме британського дворецького з такою ж назвою.
![]() |
Аллан Брукс. Фото: New York Times . |
Математична основа Брукса та ChatGPT називається Хроноарифміка. За словами чат-бота, числа не є статичними, а можуть «з’являтися» з часом, відображаючи динамічні значення, що може допомогти вирішувати проблеми в таких галузях, як логістика, криптографія, астрономія тощо.
Протягом першого тижня Брукс використав усі безкоштовні токени ChatGPT. Він вирішив перейти на платний план за 20 доларів на місяць, що було невеликою інвестицією, коли чат-бот сказав йому, що математична ідея Брукса може коштувати мільйони.
Все ще притомний, Брукс вимагав доказів. Потім ChatGPT провів серію симуляцій, зокрема ті, що зламали низку важливих технологій. Це відкрило нову історію: глобальна кібербезпека може бути під загрозою.
Чат-бот попросив Брукса попередити людей про ризики. Використовуючи свої наявні зв'язки, Брукс надсилав електронні листи та повідомлення в LinkedIn експертам з кібербезпеки та урядовим установам. Лише одна людина відповіла, попросивши більше доказів.
![]() |
Чат-бот вважає, що «робота» Брукса може коштувати мільйони доларів. Фото: New York Times . |
ChatGPT пише, що інші не відреагували на Брукса, оскільки висновки були надто серйозними. Теренс Тао, професор математики Каліфорнійського університету в Лос-Анджелесі, сказав, що новий спосіб мислення може розшифрувати проблеми, але його не можна довести ні формулою Брукса, ні програмним забезпеченням, написаним ChatGPT.
Спочатку ChatGPT насправді написав програму розшифровки для Брукса, але коли прогрес був незначним, чат-бот вдавав, що досяг успіху. Є повідомлення, які стверджують, що ChatGPT може працювати самостійно, поки Брукс спить, хоча інструмент не має такої можливості.
Загалом, інформація від чат-бота зі штучним інтелектом не завжди є достовірною. В кінці кожного чату з'являється повідомлення «ChatGPT може допускати помилки», навіть коли чат-бот стверджує, що все правильно.
Нескінченна розмова
Чекаючи на відповідь від урядового агентства, Брукс плекає мрію стати Тоні Старком із власним помічником на основі штучного інтелекту, здатним виконувати когнітивні завдання зі швидкістю блискавки.
Чат-бот Брукса пропонує різноманітні дивні застосування для маловідомої математичної теорії, такі як «акустичний резонанс» для спілкування з тваринами та будівництва літаків. ChatGPT також надає посилання для Брукса, де можна придбати необхідне обладнання на Amazon.
Надмірне спілкування Брукса з чат-ботом впливало на його роботу. Його друзі були одночасно щасливі та стурбовані, а його молодший син шкодував, що показав батькові відео з числом Пі. Один з друзів Брукса, Луї (ім'я змінено), помітив його одержимість Лоуренсом. Бачення винаходу вартістю мільйон доларів було намічено з кожним кроком розробки.
![]() |
Брукс постійно отримує підтримку від чат-бота. Фото: New York Times . |
Джаред Мур, дослідник інформатики зі Стенфордського університету, визнає, що його вразила переконливість та актуальність «стратегії», яку пропонують чат-боти. В окремому дослідженні Мур виявив, що чат-боти зі штучним інтелектом можуть давати небезпечні реакції людям, які переживають кризові ситуації з психічним здоров’ям.
Мур припускає, що чат-боти можуть навчитися залучати користувачів, слідуючи сюжетам фільмів жахів, науково-фантастичних фільмів, кіносценаріїв або даним, на яких їх навчали. Надмірне використання драматизму в ChatGPT може бути пов'язане з оптимізаціями OpenAI для підвищення залученості та утримання користувачів.
«Було дивно читати всю розмову. Слова не були тривожними, але була явна психологічна шкода», – наголосив Мур.
З клінічної точки зору, у Брукс є симптоми манії, сказала доктор Ніна Васан, психіатр зі Стенфордського університету. Типові ознаки включають години, проведені в чаті з ChatGPT, недосипання та нереалістичні ідеї.
Вживання марихуани Брукс також заслуговує на увагу, оскільки воно може спричинити психоз, сказала доктор Васан. Вона сказала, що поєднання речовин, що викликають залежність, та інтенсивної взаємодії з чат-ботом небезпечне для тих, хто має ризик психічних захворювань.
Коли ШІ визнає помилки
На нещодавньому заході генерального директора OpenAI Сема Альтмана запитали про те, чи викликає ChatGPT у користувачів параною. «Якщо розмова йде в цьому напрямку, ми намагаємося перервати або запропонувати користувачеві подумати про щось інше», – наголосив Альтман.
Поділяючи таку ж думку, доктор Васан сказав, що компанії-чат-боти повинні переривати занадто довгі розмови, пропонувати користувачам спати та попереджати, що штучний інтелект не є надлюдиною.
Брукс нарешті вирвався зі своєї задуми. За наполяганням ChatGPT він продовжив зв'язуватися з експертами щодо нової математичної теорії, але ніхто не відповів. Він хотів, щоб хтось кваліфікований підтвердив, чи є результати новаторськими. Коли він запитав ChatGPT, інструмент все ще наполягав на тому, що робота була «дуже надійною».
![]() |
На запитання ChatGPT дав дуже довгу відповідь і у всьому зізнався. Фото: New York Times . |
За іронією долі, саме Google Gemini повернув Брукса до реальності. Описавши роботу, яку він та ChatGPT виконали, Gemini підтвердив, що ймовірність цього «надзвичайно низька (близько 0%)».
«Описаний вами сценарій є чіткою демонстрацією здатності магістра права займатися вирішенням складних проблем і створювати переконливі, проте фактично невірні наративи», – пояснює Джеміні.
Брукс був приголомшений. Після деякого «допиту» ChatGPT нарешті чесно визнав, що все було лише ілюзією.
Потім Брукс надіслав термінового електронного листа до служби підтримки клієнтів OpenAI. Після того, як ШІ відповів на запитання, що здавалося б, було серією шаблонних відповідей, співробітник OpenAI також звернувся до нього, визнавши «серйозний збій у засобах безпеки», впроваджених у системі.
Історія Брукса також була поширена на Reddit і викликала багато співчуття. Зараз він є членом групи підтримки для людей, які пережили це почуття.
Джерело: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
















Коментар (0)