Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPTの「幻覚作用」に関する警告

最近の研究では、OpenAI の製品ポートフォリオの中で最も強力なモデルである GPT o3 と o4-mini が、以前のモデルよりもさらに多くの誤った情報を作り出していることが示されています。

ZNewsZNews20/04/2025

新たに発売された2つのChatGPTモデルは、前世代よりも捏造情報の頻度が高くなっています。写真: Fireflies

GPT-4.1の発表からわずか2日後、OpenAIはo3とo4-miniという2つの新モデルを正式にリリースしました。どちらのモデルも、多くの強力な改良点を備え、優れた推論能力を発揮しています。

しかし、 TechCrunchによると、これら2つの新しいモデルは依然として「幻覚」、つまり自己発明性に悩まされているという。実際、OpenAIの古いモデルよりも多くの幻覚を示している。

IBM によれば、幻覚とは、大規模言語モデル (LLM) (多くの場合、チャットボットやコンピューター ビジョン ツール) が存在しない、または人間が認識できないデータ パターンを受け取り、それによって無意味または不正確な結果が生成される現象です。

つまり、ユーザーはAIが学習済みのデータに基づいて正確な結果を出すことを期待することが多いのです。しかし、AIの結果が正確なデータに基づいていない場合、「誤った」回答を生み出すことがあります。

OpenAIは最新の報告書で、モデルの人間に関する知識の正確さを測定するための同社の社内基準であるPersonQAの質問の33%にo3が回答する際に「錯覚的」であることを発見した。

比較すると、この数値はOpenAIの以前の推論モデルであるo1とo3-miniの「錯覚」率(それぞれ16%と14.8%)の2倍です。一方、O4-miniモデルはPersonQAでさらに悪い結果となり、テスト期間の48%で「錯覚」を経験しました。

さらに懸念されるのは、「ChatGPTの父」でさえ、なぜこのようなことが起こるのかを実際には理解していないことです。具体的には、OpenAIはo3とo4-miniに関する技術レポートの中で、「推論モデルをスケーリングする際に『幻覚』が悪化する理由を理解するには、さらなる研究が必要だ」と述べています。

O3とo4-miniは、プログラミングや数学の課題など、一部の分野で優れた成績を収めています。しかし、「一般的な記述よりも多くの記述を行う必要がある」ため、どちらのモデルも「より正確な記述を行う一方で、不正確な記述もより多く行う」結果となっています。

出典: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


コメント (0)

ぜひコメントして、あなたの気持ちをシェアしてください!

同じカテゴリー

同じ著者

遺産

人物

企業

時事問題

政治体制

地方

商品

Happy Vietnam
ボランティア旅行を記念して

ボランティア旅行を記念して

一歩ごとに幸せが広がります。

一歩ごとに幸せが広がります。

かわいい子供時代の思い出

かわいい子供時代の思い出