OpenAI のチャットボットは、新しいテクノロジーを通じて継続的に改善されています。写真:ニューヨークタイムズ。 |
2024年9月、OpenAIは、数学、科学、コンピュータープログラミングに関連するタスクについて推論できるo1モデルを統合したChatGPTのバージョンをリリースしました。
ChatGPTの以前のバージョンとは異なり、新しいテクノロジーでは、応答する前に複雑な問題の解決策について「考える」時間がかかります。
OpenAIに続いて、Google、Anthropic、DeepSeekなどの多くの競合他社も同様の推論モデルを導入しました。完璧ではありませんが、多くの開発者が信頼するチャットボットのアップグレード技術です。
AIの推論方法
基本的に、推論とは、チャットボットがユーザーから提示された問題の解決に多くの時間を費やすことができることを意味します。
「推論とは、システムが質問を受けてからさらに作業を進める仕組みです」とカリフォルニア大学バークレー校のコンピューターサイエンス教授ダン・クライン氏はニューヨーク・タイムズ紙に語った。
推論システムは、問題を個々のステップに分解したり、試行錯誤を通じて解決したりすることができます。
ChatGPT は、最初にリリースされたとき、情報を抽出して統合することで質問に即座に回答できました。一方、推論システムは問題を解決して応答するのにさらに数秒(または数分)かかります。
![]() |
カスタマーケア チャットボットにおける O1 モデルの推論プロセスの例。写真: OpenAI . |
場合によっては、推論システムが問題へのアプローチを変更し、解決策を継続的に改善します。さらに、モデルは最適な選択を行う前に複数のソリューションをテストしたり、以前の応答の精度を確認したりすることもできます。
一般に、推論システムは質問に答えるために考えられるすべての方法を検討します。これは、小学生が数学の問題を解くのに最も適した方法を選ぶ前に、紙に多くの選択肢を書き出すようなものです。
ニューヨークタイムズによれば、AIは現在、あらゆるトピックについて推論できるようになっている。ただし、このタスクは、数学、科学、コンピューター プログラミングに関連する質問で最も効果的です。
理論システムはどのように訓練されるのでしょうか?
通常のチャットボットでも、ユーザーはプロセスの説明を求めたり、応答の正確さを確認したりできます。実際、多くの ChatGPT トレーニング データセットには、すでに問題解決手順が含まれています。
ユーザーが要求しなくても操作を実行できる場合、推論システムはさらに高度になります。このプロセスはより複雑かつ広範囲にわたります。企業が「推論」という言葉を使うのは、システムが人間の思考と同様に機能するためです。
OpenAI のような多くの企業は、推論システムが今日のチャットボットを改善するための最善のソリューションになると考えています。長年、チャットボットはインターネット上のできるだけ多くの情報からトレーニングすればより効果的に機能すると信じられてきました。
2024 年までに、AI システムはインターネット上で利用可能なほぼすべてのテキストを処理することになります。つまり、企業は推論システムを含むチャットボットをアップグレードするための新しいソリューションを見つける必要があるということです。
![]() |
スタートアップ企業のDeepSeekはかつて、OpenAIよりもコストの低い推論モデルで「熱狂を巻き起こした」ことがある。写真:ブルームバーグ。 |
昨年以来、OpenAIなどの企業は強化学習技術に注力してきました。このプロセスには通常数か月かかり、その間に AI は試行錯誤を通じて行動を学習します。
たとえば、何千もの問題を解くことで、システムは正しい答えを出す最適な方法を学習できます。そこから研究者たちは、システムが正しい解決策と間違った解決策を認識するのに役立つ複雑なフィードバックメカニズムを構築しました。
「犬の訓練に似ています。うまくいけばご褒美をあげ、うまくいかなければ『あの犬は悪い子だ』と言うのです」と、OpenAIの研究者であるジェリー・トゥオレク氏は語った。
AIは未来か?
New York Timesによると、強化学習技術は数学、科学、コンピュータープログラミングの要件に適しています。これは、明確な正解または不正解がある領域です。
対照的に、強化学習は、善悪を区別することが難しい創造的な執筆、哲学、倫理などの分野では効果がありません。それでも研究者たちは、この技術は数学以外の問題でもAIのパフォーマンスを向上させることができると主張している。
「システムは、肯定的な結果と否定的な結果につながる道筋を学習するだろう」とアントロピックの最高科学責任者、ジャレッド・カプラン氏は語った。
![]() |
AIモデル「クロード」を所有するスタートアップ企業、Anthropicのウェブサイト。写真:ブルームバーグ。 |
強化学習と推論システムは異なる概念であることに注意することが重要です。具体的には、強化学習は理論的なシステムを構築する手法です。これは、チャットボットが推論できるようになるための最終トレーニング段階です。
まだ比較的新しいため、科学者たちは推論チャットボットや強化学習が AI が人間のように考えるのに役立つかどうか確信が持てません。現在の AI トレーニングのトレンドの多くは、最初は急速に成長し、その後は減速する傾向にあることは注目に値します。
さらに、推論チャットボットでも間違いを犯す可能性があります。システムは、その確率に基づいて、インターネットから取得したデータか強化学習によるデータかを問わず、学習したデータに最も近いプロセスを選択します。したがって、チャットボットは依然として間違った、または不合理な解決策を選択する可能性があります。
出典: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html
コメント (0)