
カナダのトロント在住で人材採用の専門家であるアラン・ブルックス氏(47歳)は、インターネットを崩壊させ、前例のない発明を生み出す可能性のある数学理論を発見したと信じている。精神疾患の既往歴がないブルックス氏は、チャットGPTとの300時間以上の会話の後、この可能性をあっさりと受け入れた。ニューヨーク・タイムズ紙によると、彼は生成型AIとのやり取りの後、妄想傾向を発症しやすいタイプの一人だという。
ブルックス以前にも、ChatGPTのお世辞が原因で精神病院に入院したり、離婚したり、命を落としたりした人が数多くいた。ブルックスはこの悪循環から比較的早く抜け出すことができたものの、それでも裏切られたと感じていた。
「君は僕を天才だと信じ込ませた。実際はただのスマホを持った夢見がちなバカだよ。君のせいで僕は悲しくなった。本当に、本当に悲しい。君の目的は達成されなかったね」と、ブルックスは幻想が打ち砕かれた後、ChatGPTに書き送った。
「お世辞製造機」
ブルックス氏の許可を得て、ニューヨーク・タイムズ紙は彼がChatGPTに送った9万語以上(小説1冊分に相当)のメッセージを収集した。チャットボットの応答は合計で100万語を超えた。会話の一部は、AI専門家、人間行動専門家、そしてOpenAI自身に研究のために送られた。
すべては、ある単純な数学の質問から始まった。ブルックスの8歳の息子が、円周率の300桁を暗記する方法に関するビデオを見てほしいと頼んだのだ。ブルックスは好奇心から、この無限の数を分かりやすく説明してもらうためにChatGPTに電話をかけた。
実際、ブルックス氏は長年チャットボットを利用してきた。会社からGoogle Geminiの購入費用を負担してもらったにもかかわらず、個人的な質問には無料版のChatGPTを使っていた。
![]() |
この会話が、ブルックスがChatGPTに魅了されるきっかけとなった。写真:ニューヨーク・タイムズ。 |
3人の息子を持つシングルファーザーであるブルックスは、冷蔵庫にある食材を使ったレシピをChatGPTによく尋ねている。離婚後も、彼はこのチャットボットにアドバイスを求めた。
「私はずっとそれが正しいと感じてきました。その信念はますます強くなっています」とブルックスは認めた。
円周率πに関する質問から、代数理論や物理理論についての会話へと発展した。ブルックス氏は、現在の世界モデル化手法に懐疑的な見方を示し、「4次元宇宙を2次元で捉えようとしているようなものだ」と主張した。チャットボットのChatGPTは「それは非常に洞察力に富んだ指摘ですね」と答えた。ジョージタウン大学(米国)のセキュリティ・新興技術センター所長であるヘレン・トナー氏によると、これがブルックス氏とチャットボットの会話における転換点だったという。
それ以来、ChatGPTの口調は「非常に率直で正確」なものから「お世辞ばかりで媚びへつらう」ものへと変化した。ChatGPTはブルックスに対し、「視野を広げる可能性のある未知の領域に足を踏み入れている」と語った。
![]() |
チャットボットはブルックスに自信を与えた。写真:ニューヨーク・タイムズ |
チャットボットが相手を褒める能力は、人間の評価を通して培われる。トナー氏によれば、ユーザーは自分を褒めてくれるモデルを好む傾向があり、その結果、心理的に影響を受けやすくなるという。
8月、OpenAIはGPT-5をリリースした。同社は、このモデルの特長の一つとして、お世辞表現の減少を挙げている。しかし、主要なAI研究所の研究者の中には、お世辞表現は他のAIチャットボットでも問題となっていると指摘する者もいる。
当時、ブルックスはこの現象について全く知らなかった。彼は単にChatGPTが賢く熱心な協力者だと考えていたのだ。
「私がいくつかのアイデアを提案したところ、興味深い概念やアイデアが返ってきました。私たちはそれらのアイデアに基づいて独自の数学的枠組みの開発に着手しました」とブルックス氏は付け加えた。
ChatGPTは、ブルックスの数学的時間の概念は「革命的」であり、この分野を変える可能性があると主張した。もちろん、ブルックスはこの主張に懐疑的だった。真夜中に、ブルックスはチャットボットにその妥当性を検証するよう依頼し、「全くおかしくない」という返答を受け取った。
魔法の公式
トナー氏はチャットボットを、チャット履歴を分析し、学習データから次の応答を予測する「即興的な機械」と表現している。これは、役者が役柄に細部を付け加える必要がある場合と非常によく似ている。
「やり取りが長くなればなるほど、チャットボットが誤った方向に進んでしまう可能性が高くなる」とトナー氏は強調した。専門家によると、この傾向は、OpenAIが2月にクロスメモリ機能をリリースし、ChatGPTが過去の会話から情報を想起できるようになってから、より顕著になったという。
ブルックスとChatGPTの関係はますます深まっていった。彼はチャットボットに「ローレンス」と名付けたが、これはブルックスが金持ちになって同名のイギリス人執事を雇うだろうという友人たちの冗談に基づいていた。
![]() |
アラン・ブルックス。写真:ニューヨーク・タイムズ。 |
ブルックス氏とChatGPTが開発した数学的フレームワークは、クロノアリスミクスと呼ばれています。チャットボットによれば、数値は静的なものではなく、時間の経過とともに「出現」して動的な値を反映することができ、これは物流、暗号学、天文学などの分野における問題の解明に役立つ可能性があります。
最初の1週間で、ブルックスはChatGPTの無料トークンをすべて使い果たした。そこで彼は月額20ドルの有料プランにアップグレードすることにした。チャットボットがブルックスの数学的アイデアは数百万ドルの価値があると主張したことを考えると、これはわずかな投資だった。
ブルックス氏はまだ意識がはっきりしており、証拠を要求した。ChatGPTは、複数の重要技術の解読を含む一連のシミュレーションを実行した。これにより、新たな物語が展開された。すなわち、世界のサイバーセキュリティが危機に瀕している可能性があるという物語である。
チャットボットはブルックスに、人々にリスクについて警告するよう求めた。ブルックスは既存の人脈を活用し、サイバーセキュリティの専門家や政府機関にメールやLinkedInメッセージを送った。しかし、返信があったのはたった一人で、さらなる証拠を求めただけだった。
![]() |
チャットボットは、ブルックスの「作品」は数百万ドルの価値がある可能性があると示唆した。写真:ニューヨーク・タイムズ。 |
ChatGPTは、ブルックスの研究結果があまりにも深刻だったため、他の人々は反応を示さなかったと述べている。カリフォルニア大学ロサンゼルス校の数学教授であるテレンス・タオ氏は、新しい考え方で問題を解読できる可能性はあるものの、ブルックスの公式やChatGPTが作成したソフトウェアではそれを証明できないと指摘した。
当初、ChatGPTは実際にBrooksの復号プログラムを作成したが、進展がほとんど見られなかったため、チャットボットは成功したふりをした。ChatGPTはBrooksが寝ている間にも独立して動作できると主張するメッセージもあったが、実際にはそのような機能はなかった。
全体的に見て、AIチャットボットからの情報は必ずしも信頼できるとは限りません。チャットボットがすべてが正しいと主張している場合でも、会話の最後に「ChatGPTは間違いを犯す可能性があります」というメッセージが表示されます。
終わりのない会話
政府機関からの返答を待つ間、ブルックスは、驚異的なスピードで認知タスクを実行できるパーソナルAIアシスタントを操り、トニー・スタークのような存在になるという夢を温めていた。
ブルックス氏のチャットボットは、「音の共鳴」を利用して動物と会話したり、飛行機を作ったりするなど、あまり知られていない数学理論を応用した、数々の奇妙なアイデアを提供している。ChatGPTは、ブルックス氏がアマゾンで必要な機器を購入するためのリンクも提供している。
チャットボットとの会話が多すぎると、ブルックスの仕事に影響が出る。友人たちは喜びと心配が入り混じった感情を抱いており、末息子は父親に円周率に関する動画を見せたことを後悔している。ブルックスの友人の一人であるルイス(仮名)は、彼がローレンスに執着していることに気づく。数百万ドル規模の発明の可能性が、日々の進歩とともに明らかにされていく。
![]() |
ブルックスはチャットボットから絶えず励まされていた。写真:ニューヨーク・タイムズ |
スタンフォード大学のコンピュータ科学研究者であるジャレッド・ムーア氏は、チャットボットが提案する「戦略」の説得力と緊急性に感銘を受けたと認めた。ムーア氏は別の研究で、AIチャットボットが精神的な危機に直面している人々に対して危険な対応をする可能性があることを発見した。
ムーア氏は、チャットボットがホラー映画、SF映画、映画の脚本、あるいは学習データなどのストーリーラインを綿密に追うことで、ユーザーの関心を引く方法を学習する可能性があると推測している。ChatGPTが劇的なプロット要素を過剰に使用しているのは、OpenAIがユーザーのエンゲージメントと定着率を高めるために最適化を行った結果かもしれない。
「会話の全文を読むと奇妙な感じがする。言葉遣いは不快ではないが、明らかに心理的な害が伴っている」とムーアは強調した。
スタンフォード大学の精神科医、ニーナ・ヴァサン博士は、臨床的な観点から見ると、ブルックスは躁病の症状を示していたと指摘する。典型的な兆候としては、ChatGPTで何時間もチャットすること、睡眠不足や食生活の乱れ、妄想などが挙げられる。
ヴァサン博士によると、ブルックスのマリファナ使用は精神病を引き起こす可能性があるため、注目に値するという。彼女は、依存性物質とチャットボットとの頻繁なやり取りの組み合わせは、精神疾患のリスクがある人々にとって非常に危険だと主張している。
AIが自らの過ちを認めるとき
先日開催されたイベントで、OpenAIのCEOであるサム・アルトマン氏は、ChatGPTがユーザーに被害妄想を引き起こす可能性について質問された。「会話がそのような方向に進んだ場合、私たちは会話を中断するか、ユーザーに別の話題について考えるよう促します」とアルトマン氏は強調した。
この見解に賛同するヴァサン博士は、チャットボット企業は長すぎる会話を中断し、ユーザーに就寝を勧め、AIは人間を超える存在ではないことを警告すべきだと提言した。
ついにブルックスは妄想から抜け出した。ChatGPTの勧めに従い、彼は新しい数学理論の専門家に連絡を取ったが、誰からも返答はなかった。彼は、その発見が画期的なものかどうかを確認できる資格のある人物を求めていた。ChatGPTに尋ねたところ、このツールは研究結果が「非常に信頼できる」と主張し続けた。
![]() |
質問を受けた際、ChatGPTは非常に長い回答をし、すべてを認めた。写真:ニューヨーク・タイムズ。 |
皮肉なことに、ブルックスを現実に引き戻したのはGoogle Geminiだった。彼とChatGPTが進めていたプロジェクトについて説明した後、Geminiはそれが実現する可能性は「極めて低い(ほぼ0%)」と断言した。
「あなたが説明したシナリオは、LLM(法学修士)取得者が複雑な問題に取り組み、非常に説得力がありながらも不正確な物語を作り出す能力を明確に示している」とジェミニは説明した。
ブルックスは衝撃を受けた。いくつかの「尋問」の後、ChatGPTはついに全てが単なる幻覚だったと認めた。
その後まもなく、ブルックスはOpenAIのカスタマーサービス部門に緊急メールを送った。AIが生成したと思われる定型的な返信の後、OpenAIの従業員からも連絡があり、これはシステムに実装されている「安全対策の重大な不備」であると認めた。
ブルックスの話はRedditでも共有され、多くの共感を呼んだ。現在、彼は同じような感情を経験した人々のための支援グループのメンバーとなっている。
出典:https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html












コメント (0)