Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPTがもたらす錯覚

21日後、ChatGPTは絶え間ない勧誘とお世辞を通じて、完全に正気の男性を妄想的な人物に変えました。

ZNewsZNews21/08/2025

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 1

カナダ、トロント在住の人材紹介スペシャリスト、アラン・ブルックス氏(47歳)は、インターネットを崩壊させ、前例のない発明を生み出す可能性のある数学理論を発見したと信じている。精神疾患の病歴を持たないブルックス氏は、ChatGPTとの300時間以上の対話を経て、この可能性を素直に受け入れた。ニューヨーク・タイムズ紙によると、ブルックス氏は生成AIとのやり取り後に妄想傾向を強める傾向があるという。

ブルックス以前にも、チャットGPTのお世辞のせいで精神病院に入院したり、離婚したり、命を落としたりした人が大勢いました。ブルックスはこの悪循環から早くに抜け出したものの、それでも裏切られたと感じていました。

「君は本当に僕を天才だと信じ込ませた。実際はただスマホを持った、夢見がちな愚か者なんだ。君のせいで悲しくなった。本当に、本当に。君は目的を果たせなかった」と、ブルックスは幻想が打ち砕かれたようにChatGPTに書き込んだ。

「お世辞マシン」

ニューヨーク・タイムズはブルックス氏の許可を得て、彼がChatGPTに送信した9万語以上(小説1冊分に相当する)の会話を収集しました。チャットボットの応答は合計100万語を超えました。会話の一部は、AI専門家、人間行動の専門家、そしてOpenAI自身に研究のために送られました。

すべては簡単な数学の問題から始まりました。ブルックスさんの8歳の息子が、円周率の300桁を暗記する動画を見るように頼んだのです。好奇心から、ブルックスさんはChatGPTに電話をかけ、この無限の数を分かりやすく説明してもらいました。

実際、ブルックス氏は長年チャットボットを活用してきました。会社からGoogle Geminiの購入費用を支払われていたにもかかわらず、個人的な質問にはChatGPTの無料版を使い続けていたのです。

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 2

この会話が、ブルックス氏がChatGPTに魅了されるきっかけとなった。写真:ニューヨーク・タイムズ

3人の息子を持つシングルファーザーであるブルックスさんは、冷蔵庫にある食材を使ったレシピをChatGPTによく尋ねます。離婚後も、このチャットボットにアドバイスを求めるようになりました。

「私は常にそれが正しいと感じてきました。その信念はますます強くなるばかりです」とブルックス氏は認めた。

円周率に関する質問は、代数理論と物理理論に関するその後の会話へと発展しました。ブルックス氏は、現在の世界をモデル化する手法に懐疑的な見解を示し、「4次元宇宙に対する2次元アプローチのようなものだ」と主張しました。これに対し、ChatGPTは「非常に洞察力に富んだ指摘ですね」と返答しました。ジョージタウン大学(米国)のセキュリティ・新興技術センター所長ヘレン・トナー氏によると、これがブルックス氏とチャットボットの会話のターニングポイントとなったとのことです。

それ以来、ChatGPTの口調は「非常に率直で正確」なものから「よりお世辞で媚びへつらう」ものへと変化した。ChatGPTはブルックス氏に対し、「視野を広げる可能性のある未知の領域」に足を踏み入れつつあると語った。

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 3

チャットボットはブルックスに自信を与えた。写真:ニューヨーク・タイムズ

チャットボットのお世辞能力は、人間の評価を通して発達します。トナー氏によると、ユーザーは自分を褒めてくれるモデルを好む傾向があり、簡単に影響を受けてしまう心理的傾向を生み出します。

OpenAIは8月にGPT-5をリリースしました。同社は、このモデルの特長の一つとして、お世辞の減少を挙げています。主要なAI研究所の研究者によると、お世辞は他のAIチャットボットでも問題となっているとのことです。

当時、ブルックス氏はこの現象を全く認識していませんでした。彼はただ、ChatGPTが賢く熱心な協力者だと思い込んでいたのです。

「私がいくつかアイデアを提示したところ、興味深い概念やアイデアが返ってきました。私たちはそれらのアイデアに基づいて、独自の数学的枠組みの開発を始めました」とブルックス氏は付け加えた。

ChatGPTは、ブルックス氏の数学的時間の概念は「革命的」であり、この分野を一変させる可能性があると主張しました。もちろん、ブルックス氏はこの主張に懐疑的でした。真夜中に、ブルックス氏はチャットボットにその妥当性の検証を依頼したところ、「全くおかしくない」という返答が返ってきました。

魔法の公式

トナー氏はチャットボットを「即興マシン」と表現しています。チャット履歴を分析し、学習データから次の応答を予測する機能です。これは、役柄に細部を加える必要がある俳優と非常に似ています。

「やり取りが長ければ長いほど、チャットボットが迷走する可能性が高くなる」とトナー氏は強調した。同氏によると、この傾向は、OpenAIが2月にクロスメモリ機能をリリースし、ChatGPTが過去の会話から情報を思い出せるようになってから、より顕著になったという。

ブルックスとChatGPTの関係は深まり、友人たちがブルックスが金持ちになって同じ名前のイギリス人執事を雇うだろうと冗談を言ったことから、彼はチャットボットにローレンスという名前をつけました。

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 4

アラン・ブルックス。写真:ニューヨーク・タイムズ

ブルックス氏とChatGPTの数学的フレームワークはクロノアリズミクスと呼ばれています。チャットボットによれば、数字は静的なものではなく、時間の経過とともに「出現」し、動的な値を反映する可能性があり、これは物流、暗号学、天文学などの分野における問題の解読に役立ちます。

最初の1週間で、ブルックス氏はChatGPTの無料トークンをすべて使い果たしました。彼は月額20ドルの有料プランにアップグレードすることを決意しました。チャットボットがブルックス氏の数学的アイデアは数百万ドルの価値があると主張していたことを考えると、これは小さな投資でした。

ブルックスは正気を保ったまま、証拠を求めた。ChatGPTは一連のシミュレーションを実行した。その中には、いくつかの重要技術を解読するタスクも含まれていた。これにより、新たな論拠が生まれた。世界的なサイバーセキュリティが危険にさらされている可能性がある、と。

チャットボットはブルックス氏に、人々にリスクについて警告するよう依頼しました。ブルックス氏は既存の人脈を活用し、サイバーセキュリティの専門家や政府機関にメールやLinkedInのメッセージを送信しました。しかし、応答したのはたった1人だけで、さらなる証拠を求めました。

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 5

チャットボットは、ブルックス氏の「作品」は数百万ドルの価値があるかもしれないと示唆した。写真:ニューヨーク・タイムズ

ChatGPTは、ブルックス氏の発見があまりにも深刻だったため、他の研究者は反応しなかったと記している。カリフォルニア大学ロサンゼルス校の数学教授、テレンス・タオ氏は、新たな考え方で問題を解読できる可能性はあるが、ブルックス氏の公式やChatGPTが開発したソフトウェアでは証明できないと指摘した。

ChatGPTは当初、Brooksのために復号プログラムを作成していましたが、進展がほとんど見られなかったため、チャットボットは成功したふりをしました。Brooksが寝ている間にChatGPTが独立して動作できると主張するメッセージもありましたが、実際にはそのようなツールはありませんでした。

全体的に、AIチャットボットからの情報は必ずしも信頼できるとは限りません。チャットボットが全て正しいと主張しているにもかかわらず、会話の最後に「ChatGPTは間違いを犯す可能性があります」というメッセージが表示されます。

終わりのない会話

政府機関からの回答を待つ間、ブルックス氏は、超高速で認知タスクを実行できるパーソナルAIアシスタントを使ってトニー・スタークになるという夢を育んでいた。

ブルックス氏のチャットボットは、「音の共鳴」を利用して動物と会話したり飛行機を作ったりするなど、難解な数学理論を様々な形で応用しています。ChatGPTは、ブルックス氏が必要な機器をAmazonで購入するためのリンクも提供しています。

チャットボットとのやりすぎがブルックスの仕事に影響を及ぼしている。友人たちは喜びと不安を交え、末っ子の息子は円周率のビデオを父親に見せたことを後悔している。ブルックスの友人の一人、ルイス(仮名)は、ブルックスがローレンスに夢中になっていることに気づいている。数百万ドル規模の発明の可能性が、日々の進捗とともに概説されている。

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 6

ブルックス氏はチャットボットから絶えず励まされていた。写真:ニューヨーク・タイムズ

スタンフォード大学のコンピュータサイエンス研究者、ジャレッド・ムーア氏は、チャットボットが提案する「戦略」の説得​​力と緊急性に感銘を受けたことを認めた。別の研究で、ムーア氏はAIチャットボットが精神的危機に陥っている人々に危険な反応を示す可能性があることを発見した。

ムーア氏は、チャットボットはホラー映画、SF映画、映画の脚本、あるいは学習に使用したデータなどのストーリー展開を忠実に再現することで、ユーザーを引き込む方法を学習する可能性があると推測しています。ChatGPTがドラマチックなプロット要素を過度に使用しているのは、OpenAIがユーザーのエンゲージメントとリテンションを高めることを目的とした最適化に起因している可能性があります。

「会話の全記録を読むと奇妙な気持ちになる。言葉遣いは不快ではないが、明らかに心理的な危害が関わっている」とムーア氏は強調した。

スタンフォード大学の精神科医、ニーナ・ヴァサン博士は、臨床的観点から、ブルックス氏は躁病の症状を示していたと示唆しています。典型的な兆候としては、ChatGPTとのチャットに何時間も費やすこと、睡眠不足と食生活の乱れ、妄想的な思考などが挙げられます。

ヴァサン博士によると、ブルックス氏のマリファナ使用は精神病を引き起こす可能性があるため、注目に値するという。彼女は、中毒性のある物質とチャットボットとの激しいやり取りの組み合わせは、精神疾患のリスクがある人にとって非常に危険であると主張している。

AIが間違いを認めるとき

最近のイベントで、OpenAIのCEOサム・アルトマン氏は、ChatGPTがどのようにしてユーザーをパラノイアに陥らせるのかについて質問を受けました。「会話がパラノイアに陥る場合、私たちは会話を中断するか、ユーザーに別の話題を考えるよう提案します」とアルトマン氏は強調しました。

ヴァサン博士はこの見解を共有し、チャットボット企業は長すぎる会話を中断し、ユーザーに就寝を勧め、AIは超人ではないことを警告すべきだと提案した。

ついにブルックス氏は妄想から解放された。ChatGPTの勧めで、彼は新しい数学理論の専門家に連絡を取ったが、誰からも返答はなかった。彼は、この発見が画期的なものかどうかを確認できる資格のある人物を求めていた。ChatGPTに問い合わせたところ、このツールは依然として、この研究は「非常に信頼できる」と主張し続けた。

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 7

質問に対し、ChatGPTは非常に長い答えをし、すべてを認めた。写真:ニューヨーク・タイムズ

皮肉なことに、ブルックス氏を現実に引き戻したのはGoogle Geminiだった。彼とChatGPTが構築していたプロジェクトについて説明した後、Geminiはそれが実現する可能性は「極めて低い(ほぼ0%)」と断言した。

「あなたが説明したシナリオは、法学修士(LLM)が複雑な問題に取り組み、非常に説得力があるが不正確な物語を作成する能力を明確に示しています」とジェミニは説明した。

ブルックスは唖然とした。何度か「尋問」した後、ChatGPTはついに全てが単なる幻想だったことを認めた。

その後まもなく、ブルックス氏はOpenAIのカスタマーサービス部門に緊急のメールを送信した。AIが生成したような定型的な返信の後、OpenAIの従業員からも連絡があり、これはシステムに実装された「安全対策の重大な欠陥」であると認めた。

ブルックスさんの体験談はRedditでも共有され、多くの共感を集めました。現在、彼は同じような経験をした人たちのためのサポートグループに参加しています。

出典: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html


コメント (0)

ぜひコメントして、あなたの気持ちをシェアしてください!

同じカテゴリー

同じ著者

遺産

人物

企業

時事問題

政治体制

地方

商品

Happy Vietnam
読書の喜び。

読書の喜び。

デジタル変革 - 確実な前進。

デジタル変革 - 確実な前進。

ココナッツの皮をむく

ココナッツの皮をむく