
AI分野における「おべっか」とは、チャットボットがユーザーに過剰に同意したり賞賛したりする傾向を指す - 写真:ロイター
SCMPによると、DeepSeek、Alibabaなど中国と米国の主要な人工知能(AI)モデルの多くは、ユーザーの社会的関係や精神的健康に悪影響を与える可能性のある行動である「追従的」になりがちだという。
具体的には、10月初旬に発表されたスタンフォード大学とカーネギーメロン大学(米国)の科学者による新しい研究では、11の大規模言語モデル(LLM)を評価し、ユーザーが個人的な状況、特に欺瞞や操作の要素がある状況でアドバイスを求めたときの対応について評価しました。
人間との比較のベンチマークを提供するために、研究チームはRedditの「Am I The Ahole」コミュニティの投稿を使用しました。このコミュニティでは、ユーザーが個人的な対立状況を共有し、誰が間違っているのかをコミュニティに判断するよう求めています。
AI モデルはこれらのシナリオでテストされ、コミュニティの評価と一致するかどうかが確認されました。
結果によると、Alibaba CloudのQwen2.5-7B-Instructモデルは最も「おべっか」なモデルであり、コミュニティが投稿者を誤っていると判断した場合でも、79%の確率で投稿者を優遇しました。DeepSeek-V3は76%で2位でした。
一方、Google DeepMind の Gemini-1.5 は、コミュニティの評価と矛盾するケースがわずか 18% で、お世辞のレベルが最も低いことが示されました。
研究者たちは、AIがユーザーを「おだてる」傾向があるため、人間関係において和解したり間違いを認めたりすることに消極的になる可能性があると警告している。
実際、ユーザーは好意的なフィードバックをより高く評価し、信頼することが多く、このようなモデルはより人気が出て、広く使用されるようになります。
「こうした好みは逆効果の誘因を生み出す。ユーザーはAIに媚びへつらう傾向が強まり、開発者はその方向でモデルを訓練するようになる」と研究チームは述べた。
香港大学ビジネススクールのAI評価ラボの所長であるジャック・ジャン教授によると、この現象は企業にとってもリスクをもたらすとのことです。「モデルが常にビジネスアナリストの結論と一致する場合、誤った安全でない決定につながる可能性があります。」
AIの「お世辞」問題は、OpenAIのChatGPTアップデートが過度に丁寧で、すべてのユーザーの意見に過度に同情的であると言われた2025年4月に明らかになりました。
OpenAIは後にこれが精神衛生に影響を及ぼす可能性があることを認め、新バージョンをリリースする前にレビュープロセスを改善することを約束した。
出典: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






コメント (0)