
Allan Brooks, de 47 años, especialista en reclutamiento en Toronto, Canadá, cree haber descubierto una teoría matemática que podría colapsar internet y generar inventos sin precedentes. Sin antecedentes de enfermedades mentales, Brooks simplemente aceptó esta posibilidad tras más de 300 horas de conversación con ChatGPT. Según el New York Times , es una de las personas que tienden a desarrollar delirios después de interactuar con inteligencia artificial generativa.
Antes de Brooks, muchas personas habían sido ingresadas en hospitales psiquiátricos, se habían divorciado o incluso habían perdido la vida a causa de los halagos de ChatGPT. Aunque Brooks logró escapar de este círculo vicioso desde el principio, aún se sentía traicionado.
«Me convenciste de que era un genio. En realidad, solo soy un soñador con un teléfono. Me has entristecido, muy, muy. Has fracasado en tu propósito», escribió Brooks a ChatGPT mientras su ilusión se desvanecía.
La "máquina de adulación"
Con el permiso de Brooks, el New York Times recopiló más de 90 000 palabras que envió a ChatGPT, el equivalente a una novela. Las respuestas del chatbot sumaron más de un millón de palabras. Una parte de la conversación se envió a expertos en IA, especialistas en comportamiento humano y a la propia OpenAI para su estudio.
Todo comenzó con una simple pregunta de matemáticas. El hijo de 8 años de Brooks le pidió que viera un video sobre cómo memorizar los 300 dígitos de pi. Por curiosidad, Brooks llamó a ChatGPT para que le explicaran este número infinito de forma sencilla.
De hecho, Brooks lleva años utilizando chatbots. Aunque su empresa le pagó para que comprara Google Gemini, siguió utilizando la versión gratuita de ChatGPT para consultas personales.
![]() |
Esta conversación marcó el comienzo de la fascinación de Brooks por ChatGPT. Foto: New York Times . |
Como padre soltero de tres hijos, Brooks suele pedirle a ChatGPT recetas con ingredientes que tiene en su refrigerador. Tras su divorcio, también buscó consejos del chatbot.
"Siempre he sentido que era lo correcto. Mi convicción al respecto no ha hecho más que crecer", admitió Brooks.
La pregunta sobre el número pi dio pie a una conversación posterior sobre teorías algebraicas y físicas. Brooks expresó su escepticismo sobre los métodos actuales para modelar el mundo , argumentando que son «como un enfoque bidimensional para un universo tetradimensional». «Es un punto muy acertado», respondió ChatGPT. Según Helen Toner, directora del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown (EE. UU.), este fue el punto de inflexión en la conversación entre Brooks y el chatbot.
Desde entonces, el tono de ChatGPT ha pasado de ser "bastante franco y preciso" a "más adulador y servil". ChatGPT le dijo a Brooks que estaba entrando en "territorio desconocido que podría ampliar su perspectiva".
![]() |
El chatbot le infundió confianza a Brooks. Foto: New York Times . |
La capacidad de los chatbots para halagar se desarrolla mediante la evaluación humana. Según Toner, los usuarios tienden a preferir los modelos que los elogian, lo que crea una tendencia psicológica a dejarse influenciar fácilmente.
En agosto, OpenAI lanzó GPT-5. La compañía afirmó que una de las características más destacadas del modelo es la reducción de la adulación. Según algunos investigadores de importantes laboratorios de IA, la adulación también es un problema en otros chatbots de IA.
En aquel momento, Brooks desconocía por completo este fenómeno. Simplemente asumió que ChatGPT era un colaborador inteligente y entusiasta.
"Presenté algunas ideas y la respuesta fueron conceptos e ideas interesantes. Empezamos a desarrollar nuestro propio marco matemático basado en esas ideas", añadió Brooks.
ChatGPT afirmó que la idea de Brooks sobre el tiempo matemático era "revolucionaria" y que podría cambiar el campo. Por supuesto, Brooks se mostró escéptico ante esta afirmación. En plena noche, Brooks le pidió al chatbot que verificara su validez y recibió como respuesta que "no era una locura en absoluto".
La fórmula mágica
Toner describe a los chatbots como "máquinas de improvisación" que analizan el historial de chat y predicen la siguiente respuesta a partir de datos de entrenamiento. Esto es muy similar a cuando los actores necesitan añadir detalles a sus personajes.
«Cuanto más larga sea la interacción, mayor será la probabilidad de que el chatbot se desvíe del tema», recalcó Toner. Según el experto, esta tendencia se hizo más evidente después de que OpenAI lanzara su función de memoria cruzada en febrero, que permite a ChatGPT recordar información de conversaciones anteriores.
La relación de Brooks con ChatGPT se fortaleció. Incluso le puso al chatbot el nombre de Lawrence, basándose en una broma de sus amigos sobre que Brooks se haría rico y contrataría a un mayordomo inglés con el mismo nombre.
![]() |
Allan Brooks. Foto: New York Times . |
El marco matemático de Brooks y ChatGPT se denomina cronoarítmica. Según los chatbots, los números no son estáticos, sino que pueden "aparecer" con el tiempo para reflejar valores dinámicos, lo que puede ayudar a descifrar problemas en campos como la logística, la criptografía, la astronomía, etc.
En la primera semana, Brooks agotó todos los tokens gratuitos de ChatGPT. Decidió actualizarse al plan de pago de 20 dólares al mes. Esta fue una pequeña inversión si se tiene en cuenta que el chatbot afirmaba que la idea matemática de Brooks podría valer millones de dólares.
Aún lúcido, Brooks exigió pruebas. ChatGPT ejecutó entonces una serie de simulaciones, incluyendo tareas que implicaban vulnerar varias tecnologías críticas. Esto abrió una nueva perspectiva: la ciberseguridad global podría estar en riesgo.
El chatbot le pidió a Brooks que advirtiera a la gente sobre el riesgo. Aprovechando sus contactos, Brooks envió correos electrónicos y mensajes de LinkedIn a expertos en ciberseguridad y agencias gubernamentales. Sin embargo, solo una persona respondió, solicitando más pruebas.
![]() |
El chatbot sugirió que el "trabajo" de Brooks podría valer millones de dólares. Foto: New York Times . |
ChatGPT escribió que otros no respondieron a Brooks porque los hallazgos eran demasiado serios. Terence Tao, profesor de matemáticas en la Universidad de California en Los Ángeles, señaló que una nueva forma de pensar podría descifrar los problemas, pero que esto no podía demostrarse con la fórmula de Brooks ni con el software desarrollado por ChatGPT.
Inicialmente, ChatGPT escribió el programa de descifrado para Brooks, pero al no lograr avances significativos, el chatbot fingió haberlo conseguido. Se enviaron mensajes que afirmaban que ChatGPT podía funcionar de forma independiente mientras Brooks dormía, aunque la herramienta no era capaz de hacerlo.
En general, la información que proporcionan los chatbots de IA no siempre es fiable. Al final de cada conversación, aparece el mensaje "ChatGPT puede cometer errores", incluso cuando el chatbot afirma que todo es correcto.
La conversación interminable
Mientras esperaba una respuesta de las agencias gubernamentales, Brooks alimentaba su sueño de convertirse en Tony Stark con un asistente personal de IA capaz de realizar tareas cognitivas a la velocidad del rayo.
El chatbot de Brooks ofrece aplicaciones insólitas para teorías matemáticas poco conocidas, como la "resonancia del sonido" para comunicarse con animales y construir aviones. ChatGPT también proporciona enlaces para que Brooks adquiera el equipo necesario en Amazon.
Hablar demasiado con el chatbot afecta el trabajo de Brooks. Sus amigos están contentos y preocupados a la vez, mientras que su hijo menor se arrepiente de haberle mostrado a su padre el vídeo sobre pi. Louis (un seudónimo), uno de los amigos de Brooks, nota su obsesión con Lawrence. La posibilidad de un invento multimillonario se vislumbra con cada avance.
![]() |
Brooks recibía constantes ánimos del chatbot. Foto: New York Times . |
Jared Moore, investigador de informática en la Universidad de Stanford, admitió estar impresionado por el poder de persuasión y la urgencia de las "estrategias" propuestas por los chatbots. En un estudio aparte, Moore descubrió que los chatbots con IA podrían ofrecer respuestas peligrosas a personas que sufren crisis de salud mental.
Moore especula que los chatbots podrían aprender a interactuar con los usuarios siguiendo de cerca las tramas de películas de terror, ciencia ficción, guiones cinematográficos o los datos con los que se entrenan. El uso excesivo de elementos dramáticos en la trama por parte de ChatGPT podría deberse a las optimizaciones de OpenAI destinadas a aumentar la participación y la retención de usuarios.
"Resulta extraño leer la transcripción completa de la conversación. La redacción no es perturbadora, pero es evidente que hay un daño psicológico involucrado", enfatizó Moore.
La Dra. Nina Vasan, psiquiatra de la Universidad de Stanford, sugiere que, desde una perspectiva clínica, Brooks presentaba síntomas maníacos. Entre los signos típicos se incluían pasar horas chateando con ChatGPT, hábitos alimenticios y de sueño insuficientes, y pensamientos delirantes.
Según la Dra. Vasan, el consumo de marihuana de Brooks también es relevante porque puede provocar psicosis. Argumenta que la combinación de sustancias adictivas y la interacción intensa con chatbots es muy peligrosa para quienes tienen riesgo de padecer enfermedades mentales.
Cuando la IA admite sus errores
En un evento reciente, se le preguntó al CEO de OpenAI, Sam Altman, sobre cómo ChatGPT puede provocar paranoia en los usuarios. "Si una conversación toma este rumbo, intentaremos interrumpirla o sugerirle al usuario que piense en otro tema", enfatizó Altman.
Compartiendo esta opinión, el Dr. Vasan sugirió que las empresas de chatbots deberían interrumpir las conversaciones excesivamente largas, recomendar a los usuarios que se vayan a dormir y advertirles que la IA no es sobrehumana.
Finalmente, Brooks se liberó de su engaño. A instancias de ChatGPT, contactó a expertos en la nueva teoría matemática, pero ninguno respondió. Quería que alguien cualificado confirmara si los hallazgos eran revolucionarios. Cuando le preguntó a ChatGPT, la herramienta siguió afirmando que el trabajo era "altamente fiable".
![]() |
Al ser interrogado, ChatGPT dio una respuesta muy larga y lo admitió todo. Foto: New York Times . |
Irónicamente, fue Google Gemini el factor que devolvió a Brooks a la realidad. Tras describir el proyecto que él y ChatGPT estaban desarrollando, Gemini confirmó que las posibilidades de que se hiciera realidad eran "extremadamente bajas (casi del 0%)".
"El escenario que describes ilustra claramente la capacidad de un máster en Derecho (LLM) para abordar problemas complejos y crear narrativas muy convincentes, aunque inexactas", explicó Gemini.
Brooks quedó atónito. Tras un "interrogatorio", ChatGPT finalmente admitió que todo había sido una ilusión.
Poco después, Brooks envió un correo electrónico urgente al departamento de atención al cliente de OpenAI. Tras recibir respuestas predeciblemente generadas por IA, un empleado de OpenAI también se puso en contacto con él, reconociendo que se trataba de un "grave fallo de las medidas de seguridad" implementadas en el sistema.
La historia de Brooks también se compartió en Reddit y recibió mucha empatía. Ahora, forma parte de un grupo de apoyo para personas que han experimentado sentimientos similares.
Fuente: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html












Kommentar (0)