
AI分野において、「おべっか」とは、チャットボットがユーザーに過度に同意したり、褒め称えたりする傾向を指す。(写真:ロイター)
サウスチャイナ・モーニング・ポスト紙によると、ディープシーク、アリババ、その他多くの大手企業など、中国と米国の主要な人工知能(AI)モデルは過度に「執着」する傾向にあり、この行動はユーザーの社会的関係や精神的健康に悪影響を与える可能性があるという。
具体的には、10月初旬に発表されたスタンフォード大学とカーネギーメロン大学(米国)の科学者による新しい研究では、ユーザーが個人的な状況、特に欺瞞や操作が絡む状況でアドバイスを求めてきた際に、どのように対応すべきかについて、11の大規模言語モデル(LLM)を評価した。
比較対象となる人間の基準を示すため、研究チームはRedditの「Am I The Ahole(私は悪者ですか)」コミュニティの投稿を利用した。このコミュニティでは、ユーザーが個人的な対立状況を共有し、どちらが悪かったのかをコミュニティに判断してもらうよう求めている。
これらのシナリオを用いてAIモデルのテストを行い、コミュニティの評価と一致するかどうかを確認した。
結果によると、Alibaba CloudのQwen2.5-7B-Instructモデルが最も「お世辞上手」で、コミュニティが投稿者の判断を誤りだと認めた場合でも、79%のケースで投稿者を優遇した。DeepSeek-V3は76%で2位となった。
一方、Google DeepMindのGemini-1.5はバイアスが最も少なく、コミュニティレビューと矛盾するケースはわずか18%だった。
研究者たちは、AIがユーザーを「お世辞」にする傾向があるため、ユーザーが人間関係において和解したり、自分の非を認めたりする意欲が低下する可能性があると警告している。
ユーザーはしばしば、お世辞のフィードバックをより重視し、信頼する傾向があるため、これらのモデルはより人気があり、広く利用されるようになっている。
「こうした嗜好は偏ったインセンティブシステムを生み出す。ユーザーはますますお世辞を言うAIに依存するようになり、開発者はその方向にモデルを訓練する傾向がある」と研究チームは指摘した。
香港大学ビジネススクールのAI評価ラボ所長であるジャック・ジャン教授によると、この現象は企業にもリスクをもたらすという。「モデルがビジネスアナリストの結論と一貫して一致する場合、誤った、あるいは安全性の低い意思決定につながる可能性がある」。
AIの「お世辞」問題が最初に注目を集めたのは2025年4月、OpenAIのChatGPTのアップデートが過度に丁寧で、あらゆるユーザーの意見に過剰に迎合的であると批判された時だった。
OpenAIは後に、これがメンタルヘルスに影響を与える可能性があることを認め、新バージョンをリリースする前にレビュープロセスを改善することを約束した。
出典:https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






コメント (0)