OpenAIのチャットボットは、新たな技術を通じて進化を続けています。写真:ニューヨーク・タイムズ |
2024年9月、OpenAIは、数学、 科学、コンピュータープログラミングに関連するタスクを推論できるo1モデルを統合したChatGPTのバージョンをリリースしました。
ChatGPT の以前のバージョンとは異なり、新しいテクノロジーでは、応答する前に複雑な問題の解決策について「考える」のに時間がかかります。
OpenAIに続き、Google、Anthropic、DeepSeekといった多くの競合他社も同様の推論モデルを導入しました。完璧ではありませんが、これは多くの開発者が信頼するチャットボット強化技術です。
AIの推論方法
基本的に、推論とは、チャットボットがユーザーから提示された問題の解決に多くの時間を費やすことができることを意味します。
「推論とは、システムが質問を受け取った後に追加の作業を行う方法です」とカリフォルニア大学のコンピューターサイエンス教授ダン・クライン氏はニューヨーク・タイムズに語った。
推論システムは、問題を個々のステップに分解したり、試行錯誤を通じて解決したりすることができます。
ChatGPTはリリース当初、情報を抽出・統合することで質問に即座に回答できました。一方、推論システムは問題を解いて回答を出すまでに数秒(場合によっては数分)もかかりました。
![]() |
カスタマーケアチャットボットにおけるO1モデルの推論プロセスの例。写真: OpenAI 。 |
場合によっては、推論システムは問題へのアプローチを変え、解決策を継続的に改善します。あるいは、最適な選択肢に落ち着く前に複数の解決策を試したり、以前の回答の精度をテストしたりすることもあります。
一般的に、推論システムは質問に対するあらゆる可能な答えを検討します。これは、小学生が数学の問題を解く際に、最も適切な方法を選ぶ前に、紙に多くの可能な答えを書き出すようなものです。
ニューヨーク・タイムズによると、AIは今やあらゆるトピックについて推論できる能力を持っている。しかし、このタスクが最も効果的となるのは、数学、科学、コンピュータープログラミングに関する質問である。
理論システムはどのように訓練されるのでしょうか?
一般的なチャットボットでは、ユーザーはプロセスの説明を求めたり、応答の正確性を確認したりすることができます。実際、多くのChatGPTトレーニングデータセットには、問題解決プロセスが既に含まれています。
推論システムは、ユーザーが指示しなくてもアクションを実行できる場合、さらに高度な機能を果たします。そのプロセスはより複雑で広範囲にわたります。企業が「推論」という言葉を使用するのは、このシステムが人間の思考に似た仕組みで機能するためです。
OpenAIをはじめとする多くの企業は、推論システムがチャットボットの改善に最適な方法だと考えています。長年にわたり、彼らはチャットボットがインターネット上のできるだけ多くの情報で訓練されれば、より効果的に機能すると信じてきました。
2024年までに、AIシステムはインターネット上のほぼすべてのテキストを消費するでしょう。つまり、企業は推論システムを含むチャットボットをアップグレードするための新たなソリューションを見つける必要があるということです。
![]() |
スタートアップ企業のDeepSeekはかつて、OpenAIよりも低コストの推論モデルで「話題を呼んだ」。写真:ブルームバーグ |
昨年以来、OpenAIなどの企業は強化学習と呼ばれる技術に注力してきた。これは通常数か月かかるプロセスで、AIが試行錯誤を通じて行動を学習する。
例えば、何千もの問題を解くことで、システムは正しい答えを得るための最適な方法を学習できます。そこから研究者たちは、システムが正しい解と間違った解を学習するのに役立つ複雑なフィードバック機構を構築しました。
「犬の訓練に似ています。良い子ならご褒美をあげ、悪い子なら『あの犬は悪い子だ』と言うのです」と、OpenAIの研究者であるジェリー・トゥオレク氏は語った。
AIは未来か?
New York Timesによれば、強化学習は、正解や不正解が明確に定義されている数学、科学、コンピュータプログラミングの問題に適しています。
対照的に、強化学習は創作、哲学、倫理といった善悪の区別が難しい分野ではそれほど効果的ではありません。しかし研究者たちは、この技術は数学以外の問題でもAIの性能を向上させることができると述べています。
「システムは、肯定的な結果と否定的な結果につながる道筋を学習するだろう」とアントロピックの最高科学責任者、ジャレッド・カプラン氏は言う。
![]() |
AIモデル「クロード」を所有するスタートアップ企業、アントロピックのウェブサイト。写真:ブルームバーグ |
強化学習と推論システムは異なる概念であることに注意することが重要です。具体的には、強化学習は推論システムを構築する手法です。これは、チャットボットに推論能力を持たせるための最終段階のトレーニングです。
推論型チャットボットや強化学習はまだ比較的新しいため、科学者たちはAIが人間のように思考するのに役立つかどうか確信を持てません。AIトレーニングにおける現在のトレンドの多くは、初期には非常に急速に発展し、その後徐々に安定していくことに留意することが重要です。
さらに、推論型チャットボットは依然として間違いを犯す可能性があります。システムは確率に基づいて、インターネットから取得したデータであれ強化学習によって取得したデータであれ、学習したデータに最も近いプロセスを選択します。そのため、チャットボットは依然として誤った、あるいは不合理な解決策を選択する可能性があります。
出典: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html













コメント (0)