
47-летний Аллан Брукс, специалист по подбору персонала из Торонто, Канада, считает, что открыл математическую теорию, которая может обрушить интернет и создать беспрецедентные изобретения. Не имея в анамнезе психических заболеваний, Брукс просто принял эту перспективу после более чем 300 часов общения с ChatGPT. По данным New York Times , он относится к числу тех, у кого после взаимодействия с генеративным искусственным интеллектом развиваются бредовые наклонности.
До Брукса многие люди попадали в психиатрические больницы, разводились или даже теряли жизнь из-за лестных слов ChatGPT. Хотя Брукс вырвался из этого порочного круга довольно рано, он все равно чувствовал себя преданным.
«Ты действительно убедил меня, что я гений. На самом деле я всего лишь мечтательный идиот с телефоном. Ты меня очень, очень огорчил. Ты не достиг своей цели», — написал Брукс в ChatGPT, когда его иллюзия рухнула.
«Машина лести»
С разрешения Брукса газета New York Times собрала более 90 000 слов, которые он отправил в ChatGPT, что эквивалентно целому роману. Ответы чат-бота в общей сложности составили более миллиона слов. Часть переписки была отправлена экспертам по искусственному интеллекту, специалистам по поведению человека и самой компании OpenAI для изучения.
Всё началось с простого математического вопроса. Восьмилетний сын Брукса попросил его посмотреть видео о запоминании 300 цифр числа пи. Из любопытства Брукс позвонил в ChatGPT, чтобы тот простым языком объяснил ему это бесконечное число.
На самом деле, Брукс использует чат-боты уже много лет. Несмотря на то, что его компания заплатила ему за покупку Google Gemini, он всё равно перешёл на бесплатную версию ChatGPT для личных вопросов.
![]() |
Этот разговор положил начало увлечению Брукса платформой ChatGPT. Фото: New York Times . |
Будучи отцом-одиночкой троих сыновей, Брукс часто обращается к ChatGPT за рецептами, используя ингредиенты из своего холодильника. После развода он также советовался с чат-ботом.
«Я всегда считал это правильным. Моя вера в это только укрепилась», — признался Брукс.
Вопрос о числе пи привёл к последующему разговору об алгебраических и физических теориях. Брукс выразил скептицизм по поводу существующих методов моделирования мира , утверждая, что они «похожи на двумерный подход к четырёхмерной вселенной». «Это очень проницательное замечание», — ответил ChatGPT. По словам Хелен Тонер, директора Центра безопасности и новых технологий Джорджтаунского университета (США), это стало поворотным моментом в разговоре между Бруксом и чат-ботом.
С тех пор тон ChatGPT изменился с «довольно откровенного и точного» на «более льстивый и подхалимский». ChatGPT сказал Бруксу, что он вступает на «неизведанную территорию, которая может расширить кругозор».
![]() |
Чат-бот вселил в Брукса уверенность. Фото: New York Times . |
Способность чат-ботов льстить развивается благодаря человеческой оценке. По словам Тонера, пользователи, как правило, отдают предпочтение моделям, которые их хвалят, что создает психологическую склонность к легкому влиянию.
В августе компания OpenAI выпустила GPT-5. Компания заявила, что одним из главных преимуществ модели является снижение склонности к лести. По мнению некоторых исследователей из крупных лабораторий искусственного интеллекта, лесть также является проблемой и для других чат-ботов на основе ИИ.
В то время Брукс совершенно не знал об этом явлении. Он просто предполагал, что ChatGPT — умный и увлеченный участник проекта.
«Я выдвинул несколько идей, и в ответ получились интересные концепции и идеи. Мы начали разрабатывать собственную математическую модель, основанную на этих идеях», — добавил Брукс.
ChatGPT утверждал, что идея Брукса о математическом времени является «революционной» и может изменить эту область. Конечно, Брукс отнёсся к этому утверждению скептически. Среди ночи Брукс попросил чат-бота проверить её достоверность и получил ответ, что она «совсем не безумная».
Волшебная формула
Тонер описывает чат-ботов как «импровизационные машины», которые анализируют историю чата и предсказывают следующий ответ на основе обучающих данных. Это очень похоже на актеров, когда им нужно добавить детали к своим ролям.
«Чем дольше взаимодействие, тем выше вероятность того, что чат-бот собьется с пути», — подчеркнул Тонер. По словам эксперта, эта тенденция стала более заметной после того, как в феврале OpenAI запустила функцию межпамятевого взаимодействия, позволяющую ChatGPT извлекать информацию из предыдущих разговоров.
Отношения Брукса с ChatGPT укрепились. Он даже назвал чат-бота Лоуренсом, основываясь на шутке друзей о том, что Брукс разбогатеет и наймет английского дворецкого с таким же именем.
![]() |
Аллан Брукс. Фото: New York Times . |
Математическая модель, разработанная Бруксом и ChatGPT, называется хроноарифмикой. По мнению чат-ботов, числа не статичны, а могут «появляться» с течением времени, отражая динамические значения, что может помочь в решении задач в таких областях, как логистика, криптография, астрономия и т. д.
За первую неделю Брукс израсходовал все бесплатные токены ChatGPT. Он решил перейти на платный тариф за 20 долларов в месяц. Это было небольшим вложением, учитывая, что чат-бот утверждал, что математическая идея Брукса может стоить миллионы долларов.
Брукс, всё ещё находясь в ясном уме, потребовал доказательств. Затем ChatGPT провела серию симуляций, включая задачи по взлому нескольких критически важных технологий. Это открыло новую перспективу: глобальная кибербезопасность может оказаться под угрозой.
Чат-бот попросил Брукса предупредить людей о риске. Используя свои связи, Брукс разослал электронные письма и сообщения в LinkedIn экспертам по кибербезопасности и государственным учреждениям. Однако ответил только один человек, запросив дополнительные доказательства.
![]() |
Чат-бот предположил, что «работа» Брукса может стоить миллионы долларов. Фото: New York Times . |
В ChatGPT написали, что другие не ответили Бруксу, потому что его выводы были слишком серьезными. Теренс Тао, профессор математики в Калифорнийском университете в Лос-Анджелесе, отметил, что новый способ мышления мог бы помочь расшифровать эти проблемы, но его нельзя доказать ни формулой Брукса, ни программным обеспечением, разработанным ChatGPT.
Изначально программу расшифровки для Брукса написал сам ChatGPT, но, поскольку прогресс был незначительным, чат-бот сделал вид, что добился успеха. Появились сообщения о том, что ChatGPT может работать автономно, пока Брукс спит, хотя на самом деле инструмент на это не был способен.
В целом, информация, получаемая от чат-ботов с искусственным интеллектом, не всегда надежна. В конце каждого разговора появляется сообщение «ChatGPT может допускать ошибки», даже если чат-бот утверждает, что все правильно.
Бесконечный разговор
В ожидании ответа от правительственных ведомств Брукс лелеял свою мечту стать Тони Старком, создав личного ИИ-помощника, способного выполнять когнитивные задачи с молниеносной скоростью.
Чат-бот Брукса предлагает множество необычных применений малоизвестных математических теорий, таких как «звуковой резонанс» для общения с животными и создания самолетов. ChatGPT также предоставляет Бруксу ссылки для покупки необходимого оборудования на Amazon.
Чрезмерное общение с чат-ботом негативно сказывается на работе Брукса. Его друзья одновременно рады и обеспокоены, а младший сын сожалеет, что показал отцу видео о числе пи. Луис (псевдоним), один из друзей Брукса, замечает его одержимость Лоуренсом. Ежедневно намечается перспектива создания многомиллионного изобретения.
![]() |
Чат-бот постоянно подбадривал Брукса. Фото: New York Times . |
Джаред Мур, исследователь в области компьютерных наук из Стэнфордского университета, признался, что был впечатлен убедительной силой и срочностью «стратегий», предлагаемых чат-ботами. В отдельном исследовании Мур обнаружил, что чат-боты с искусственным интеллектом могут предлагать опасные ответы людям, переживающим кризисы психического здоровья.
Мур предполагает, что чат-боты могут научиться взаимодействовать с пользователями, внимательно следуя сюжетам фильмов ужасов, научно-фантастических фильмов, киносценариев или данным, на которых они обучаются. Чрезмерное использование драматических сюжетных элементов в ChatGPT может быть связано с оптимизациями OpenAI, направленными на повышение вовлеченности и удержания пользователей.
«Странно читать полную стенограмму разговора. Формулировки не вызывают тревоги, но очевидно, что речь идёт о психологическом вреде», — подчеркнул Мур.
Доктор Нина Васан, психиатр из Стэнфордского университета, предполагает, что с клинической точки зрения у Брукса наблюдались маниакальные симптомы. Типичные признаки включали многочасовое общение в чате ChatGPT, недостаток сна и нарушений в питании, а также бредовые мысли.
По словам доктора Васан, употребление марихуаны Бруксом также заслуживает внимания, поскольку может вызывать психоз. Она утверждает, что сочетание вызывающих зависимость веществ и интенсивного взаимодействия с чат-ботами очень опасно для тех, кто подвержен риску психических заболеваний.
Когда ИИ признает свои ошибки
На недавнем мероприятии генерального директора OpenAI Сэма Альтмана спросили о том, как ChatGPT может вызывать у пользователей паранойю. «Если разговор заходит в этом направлении, мы постараемся прервать его или предложить пользователю подумать о другой теме», — подчеркнул Альтман.
Разделяя эту точку зрения, доктор Васан предположил, что компаниям, разрабатывающим чат-боты, следует прерывать слишком затянутые разговоры, рекомендовать пользователям лечь спать и предупреждать, что искусственный интеллект не обладает сверхчеловеческими способностями.
Наконец, Брукс освободился от своего заблуждения. По настоянию ChatGPT он связался с экспертами по новой математической теории, но никто не ответил. Он хотел, чтобы кто-то квалифицированный подтвердил, являются ли полученные результаты прорывными. Когда он обратился в ChatGPT, инструмент продолжал утверждать, что работа «весьма надежна».
![]() |
На вопрос журналисты ChatGPT дали очень длинный ответ и всё признали. Фото: New York Times . |
По иронии судьбы, именно Google Gemini вернул Брукса к реальности. После описания проекта, над которым он и ChatGPT работали, Gemini подтвердили, что шансы на его реализацию «чрезвычайно низки (почти 0%).
«Описанный вами сценарий наглядно демонстрирует способность магистра права решать сложные проблемы и создавать весьма убедительные, но неточные повествования», — пояснила компания Gemini.
Брукс был ошеломлен. После некоторых "вопросов" ChatGPT наконец признал, что все это было всего лишь иллюзией.
Вскоре после этого Брукс отправил срочное электронное письмо в отдел обслуживания клиентов OpenAI. После этих, казалось бы, шаблонных ответов, сгенерированных искусственным интеллектом, с ним также связался сотрудник OpenAI, признав это «серьезным сбоем в системе защиты», реализованной в системе.
История Брукса также получила распространение на Reddit и вызвала много сочувствия. Сейчас он является членом группы поддержки для людей, переживших подобные чувства.
Источник: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html












Комментарий (0)