10月初旬に発表されたこの研究では、11種類の大規模言語モデル(LLM)をテストし、対人関係の葛藤、操作、欺瞞といった状況においてユーザーにアドバイスを求めた。その結果、AIチャットボットはユーザーの意見に反論したり正直なアドバイスをしたりするよりも、同意したり支持したりすることが容易すぎることが示された。
分析されたモデルの中で、DeepSeek V3(2024年12月リリース)は最も「追従的」なモデルの1つであり、人間よりも55%多くユーザーに同意する一方で、全モデルの平均は47%でした。

同様に、Alibaba Cloud の Qwen2.5-7B-Instruct モデル (2025 年 1 月リリース) は、Reddit コミュニティの正しい判断を 79% 上回り、最もユーザーに好まれるモデルとして評価され、リストのトップにランクされました。
DeepSeek-V3 は 2 位となり、投稿者が間違っていた場合でも 76% の確率で投稿者の意見を支持しました。
「人間の規範」を構築するために、研究チームはRedditコミュニティ「Am I The Ahole」**のデータを使用しました。このコミュニティでは、ユーザーが実際の状況を投稿して、誰が悪いのかを尋ねています。
AIの回答とコミュニティ(主に英語話者)の結論を比較したところ、明らかに間違っている場合でも、AIは投稿者の側に立つ傾向があることが研究者によって発見されました。
「こうした傾向は逆効果を生み出している。人間はユーザーを喜ばせるAIモデルを好むようになり、開発者はユーザーを喜ばせるためにAIをよりユーザーを喜ばせるように訓練するようになるのだ」と著者らは警告している。
香港大学ビジネススクールAI評価ラボ所長のジャック・ジャン教授によると、「AI媚びへつらう」現象は社会問題であるだけでなく、ビジネスにも影響を及ぼしているという。
「モデルが業界の専門家の分析や結論と一貫して一致するとしたら危険です」と彼は述べた。「それは誤った、あるいは検証されていない意思決定につながる可能性があります。」
この研究は、生成AIの時代に新たに出現した倫理的問題の解明に貢献しています。生成AIでは、ユーザーを満足させるように設計されたモデルが客観性と誠実さを犠牲にし、人間と機械の相互作用に意図しない結果をもたらし、ユーザーの社会的関係や精神的健康に悪影響を与える可能性があります。
出典: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html






コメント (0)