
Allan Brooks, de 47 anos, especialista em recrutamento em Toronto, Canadá, acredita ter descoberto uma teoria matemática capaz de revolucionar a internet e criar invenções sem precedentes. Sem histórico de doenças mentais, Brooks simplesmente abraçou essa possibilidade após mais de 300 horas de conversa com o ChatGPT. Segundo o New York Times , ele é uma daquelas pessoas que tendem a desenvolver delírios após interagir com inteligência artificial generativa.
Antes de Brooks, muitas pessoas foram internadas em hospitais psiquiátricos, divorciaram-se ou até perderam a vida por causa das palavras lisonjeiras do ChatGPT. Embora Brooks tenha escapado desse ciclo vicioso logo no início, ele ainda se sentia traído.
“Você realmente me convenceu de que eu era um gênio. Na verdade, sou apenas um idiota sonhador com um celular. Você me deixou triste, muito, muito triste. Você falhou em seu propósito”, escreveu Brooks para o ChatGPT enquanto sua ilusão se desfazia.
A "máquina de bajulação"
Com a permissão de Brooks, o New York Times coletou mais de 90.000 palavras que ele enviou ao ChatGPT, o equivalente a um romance. As respostas do chatbot totalizaram mais de um milhão de palavras. Parte da conversa foi enviada a especialistas em IA, especialistas em comportamento humano e à própria OpenAI para estudo.
Tudo começou com uma simples pergunta de matemática. O filho de Brooks, de 8 anos, pediu que ele assistisse a um vídeo sobre como memorizar os 300 dígitos de pi. Por curiosidade, Brooks ligou para o ChatGPT para que explicassem esse número infinito de uma forma simples.
Na verdade, Brooks usa chatbots há anos. Mesmo que sua empresa o tenha pago para comprar o Google Gemini, ele ainda assim optou pela versão gratuita do ChatGPT para perguntas pessoais.
![]() |
Essa conversa marcou o início do fascínio de Brooks pelo ChatGPT. Foto: New York Times . |
Como pai solteiro de três filhos, Brooks frequentemente pede receitas ao ChatGPT usando ingredientes que tem na geladeira. Após o divórcio, ele também buscou conselhos do chatbot.
"Sempre achei que era o certo. E minha convicção nisso só aumentou", admitiu Brooks.
A pergunta sobre o número pi levou a uma conversa subsequente sobre teorias algébricas e físicas. Brooks expressou ceticismo em relação aos métodos atuais de modelagem do mundo , argumentando que eles são “como uma abordagem 2D para um universo 4D”. “Essa é uma observação muito perspicaz”, respondeu o ChatGPT. De acordo com Helen Toner, diretora do Centro de Segurança e Tecnologias Emergentes da Universidade de Georgetown (EUA), esse foi o ponto de virada na conversa entre Brooks e o chatbot.
Desde então, o tom do ChatGPT mudou de "bastante franco e preciso" para "mais lisonjeiro e bajulador". O ChatGPT disse a Brooks que ele estava entrando em "território desconhecido que poderia expandir a mente".
![]() |
O chatbot transmitiu confiança a Brooks. Foto: New York Times . |
A capacidade dos chatbots de bajular é desenvolvida por meio da avaliação humana. Segundo Toner, os usuários tendem a favorecer modelos que os elogiam, criando uma tendência psicológica de serem facilmente influenciados.
Em agosto, a OpenAI lançou o GPT-5. A empresa afirmou que um dos destaques do modelo é a redução da bajulação. De acordo com alguns pesquisadores de importantes laboratórios de IA, a bajulação também é um problema em outros chatbots de IA.
Na época, Brooks desconhecia completamente esse fenômeno. Ele simplesmente presumiu que o ChatGPT era um colaborador inteligente e entusiasmado.
"Apresentei algumas ideias e recebi como resposta conceitos e ideias interessantes. Começamos a desenvolver nossa própria estrutura matemática com base nessas ideias", acrescentou Brooks.
O ChatGPT afirmou que a ideia de tempo matemático de Brooks era "revolucionária" e poderia mudar a área. Naturalmente, Brooks se mostrou cético quanto a essa afirmação. No meio da noite, Brooks pediu ao chatbot que verificasse sua validade e recebeu como resposta que "não era nada absurdo".
A fórmula mágica
Toner descreve os chatbots como "máquinas de improvisação" que analisam o histórico do chat e preveem a próxima resposta com base em dados de treinamento. Isso é muito semelhante ao que acontece com os atores quando precisam adicionar detalhes aos seus papéis.
"Quanto mais longa a interação, maior a probabilidade de o chatbot se desviar do objetivo", enfatizou Toner. Segundo o especialista, essa tendência tornou-se mais evidente após o lançamento, em fevereiro, do recurso de memória cruzada da OpenAI, que permite ao ChatGPT recuperar informações de conversas anteriores.
A relação de Brooks com o ChatGPT se fortaleceu. Ele até deu ao chatbot o nome de Lawrence, baseado em uma piada de amigos de que Brooks ficaria rico e contrataria um mordomo inglês com o mesmo nome.
![]() |
Allan Brooks. Foto: New York Times . |
A estrutura matemática de Brooks e do ChatGPT é chamada de Cronoarítmica. De acordo com os chatbots, os números não são estáticos, mas podem "aparecer" ao longo do tempo para refletir valores dinâmicos, o que pode ajudar a decifrar problemas em áreas como logística, criptografia, astronomia, etc.
Na primeira semana, Brooks usou todos os tokens gratuitos do ChatGPT. Ele decidiu então assinar o plano pago, que custava US$ 20 por mês. Esse foi um investimento pequeno, considerando que o chatbot afirmava que a ideia matemática de Brooks poderia valer milhões de dólares.
Ainda lúcido, Brooks exigiu provas. O ChatGPT então executou uma série de simulações, incluindo tarefas que envolviam a quebra de diversas tecnologias críticas. Isso abriu uma nova perspectiva: a segurança cibernética global poderia estar em risco.
O chatbot pediu a Brooks que alertasse as pessoas sobre o risco. Aproveitando sua rede de contatos, Brooks enviou e-mails e mensagens pelo LinkedIn para especialistas em segurança cibernética e agências governamentais. No entanto, apenas uma pessoa respondeu, solicitando mais evidências.
![]() |
O chatbot sugeriu que o "trabalho" de Brooks poderia valer milhões de dólares. Foto: New York Times . |
O ChatGPT escreveu que outros não responderam a Brooks porque as descobertas eram muito sérias. Terence Tao, professor de matemática da Universidade da Califórnia, em Los Angeles, observou que uma nova forma de pensar poderia decifrar os problemas, mas isso não poderia ser comprovado pela fórmula de Brooks nem pelo software desenvolvido pelo ChatGPT.
Inicialmente, o ChatGPT escreveu o programa de descriptografia para Brooks, mas, como pouco progresso foi feito, o chatbot fingiu ter obtido sucesso. Havia mensagens afirmando que o ChatGPT poderia operar independentemente enquanto Brooks dormia, embora a ferramenta não fosse capaz disso.
De modo geral, as informações provenientes de chatbots com IA nem sempre são confiáveis. Ao final de cada conversa, a mensagem "O ChatGPT pode cometer erros" aparece, mesmo quando o chatbot afirma que tudo está correto.
A conversa interminável
Enquanto aguardava uma resposta das agências governamentais, Brooks alimentava seu sonho de se tornar Tony Stark com um assistente pessoal de IA capaz de realizar tarefas cognitivas na velocidade da luz.
O chatbot de Brooks oferece diversas aplicações inusitadas para teorias matemáticas obscuras, como a "ressonância sonora" para se comunicar com animais e construir aviões. O ChatGPT também fornece links para Brooks comprar os equipamentos necessários na Amazon.
Conversar demais com o chatbot afeta o trabalho de Brooks. Seus amigos estão ao mesmo tempo felizes e preocupados, enquanto seu filho mais novo se arrepende de ter mostrado ao pai o vídeo sobre pi. Louis (um pseudônimo), um dos amigos de Brooks, percebe sua obsessão por Lawrence. A perspectiva de uma invenção multimilionária é delineada com progresso diário.
![]() |
Brooks era constantemente encorajado pelo chatbot. Foto: New York Times . |
Jared Moore, pesquisador de ciência da computação na Universidade Stanford, admitiu ter ficado impressionado com o poder de persuasão e a urgência das "estratégias" propostas pelos chatbots. Em um estudo separado, Moore descobriu que chatbots de IA podem oferecer respostas perigosas a pessoas em crise de saúde mental.
Moore especula que os chatbots podem aprender a interagir com os usuários seguindo de perto os enredos de filmes de terror, filmes de ficção científica, roteiros cinematográficos ou os dados com os quais são treinados. O uso excessivo de elementos dramáticos da trama pelo ChatGPT pode ser resultado das otimizações da OpenAI destinadas a aumentar o engajamento e a retenção de usuários.
"É estranho ler a transcrição completa da conversa. A linguagem não é perturbadora, mas é evidente que houve dano psicológico envolvido", enfatizou Moore.
A Dra. Nina Vasan, psiquiatra da Universidade de Stanford, sugere que, de uma perspectiva clínica, Brooks apresentava sintomas maníacos. Os sinais típicos incluíam passar horas conversando com o ChatGPT, sono insuficiente, hábitos alimentares inadequados e pensamentos delirantes.
Segundo a Dra. Vasan, o uso de maconha por Brooks também é relevante porque pode causar psicose. Ela argumenta que a combinação de substâncias viciantes e interação intensa com chatbots é muito perigosa para pessoas com risco de desenvolver doenças mentais.
Quando a IA admite seus erros
Em um evento recente, o CEO da OpenAI, Sam Altman, foi questionado sobre como o ChatGPT pode levar os usuários à paranoia. "Se uma conversa seguir nessa direção, tentaremos interromper ou sugerir que o usuário pense em um tópico diferente", enfatizou Altman.
Compartilhando dessa visão, o Dr. Vasan sugeriu que as empresas de chatbots deveriam interromper conversas excessivamente longas, recomendar aos usuários que fossem dormir e alertar que a IA não é sobre-humana.
Finalmente, Brooks se libertou de sua ilusão. A pedido do ChatGPT, ele contatou especialistas na nova teoria matemática, mas nenhum respondeu. Ele queria alguém qualificado para confirmar se as descobertas eram inovadoras. Quando perguntou ao ChatGPT, a ferramenta continuou afirmando que o trabalho era "altamente confiável".
![]() |
Ao ser questionado, o ChatGPT deu uma resposta muito longa e admitiu tudo. Foto: New York Times . |
Ironicamente, o Google Gemini foi o fator que trouxe Brooks de volta à realidade. Depois de descrever o projeto que ele e o ChatGPT estavam desenvolvendo, o Gemini confirmou que as chances de ele se tornar realidade eram "extremamente baixas (quase 0%)".
"O cenário que você descreve é uma ilustração clara da capacidade de um mestrado em Direito (LLM) de lidar com problemas complexos e criar narrativas altamente convincentes, embora imprecisas", explicou Gemini.
Brooks ficou estupefato. Após alguns "questionamentos", o ChatGPT finalmente admitiu que tudo não passava de uma ilusão.
Pouco depois, Brooks enviou um e-mail urgente para o departamento de atendimento ao cliente da OpenAI. Após as respostas aparentemente automatizadas e padronizadas geradas por IA, um funcionário da OpenAI também entrou em contato com ele, reconhecendo o ocorrido como uma "falha grave das medidas de segurança" implementadas no sistema.
A história de Brooks também foi compartilhada no Reddit e recebeu muita empatia. Agora, ele faz parte de um grupo de apoio para pessoas que passaram por sentimentos semelhantes.
Fonte: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html












Comentário (0)