Vietnam.vn - Nền tảng quảng bá Việt Nam

人工知能が賢くなればなるほど、その無知を隠す可能性が高くなるのでしょうか?

Báo Quốc TếBáo Quốc Tế28/09/2024


スペインのバレンシア工科大学の人工知能(AI)研究チームは、大規模言語モデルがより大きく洗練されるにつれて、ユーザーに答えが分からないことを認める可能性が低くなる傾向があることを発見した。
Càng thông minh, trí tuệ nhân tạo. càng có xu hướng giấu dốt?. (Ảnh minh hoạ AI)
AI が賢くなればなるほど、ユーザーに対して答えが分からないことを認める可能性が低くなります。(AI イラスト)

ネイチャー誌に掲載された研究で、研究チームは最も人気のあるAIチャットボット3つの最新バージョンの応答性、正確性、ユーザーが間違った回答を見つける能力をテストした。

最も人気のある3つのLLM、BLOOM、LLaMA、GPTの精度をテストするため、研究チームは数千の質問を行い、得られた回答を同じ質問の以前のバージョンと比較しました。また、数学、 科学、文章題、地理など、トピックも多様化し、テキスト生成やリストの並べ替えなどの操作も実行できるようになりました。

調査では、いくつかの注目すべき傾向が明らかになりました。チャットボットの全体的な精度はバージョンアップごとに向上しましたが、難しい質問に直面すると依然として低下しました。驚くべきことに、LLMの規模が大きくなり、より高度になるにつれて、LLMは正解率についてオープンに話す傾向が弱まりました。

以前のバージョンでは、ほとんどのLLMは、ユーザーが答えを見つけられない場合や追加の情報が必要な場合、ユーザーに明確に通知していました。対照的に、新しいバージョンでは推測が多くなり、正解・不正解を含め、全体的な回答数が増加しています。さらに懸念されるのは、すべてのLLMが簡単な質問に対しても時折誤った回答を出していることが調査で判明したことです。これは、LLMの信頼性が依然として改善が必要な問題であることを示唆しています。

これらの調査結果は、AI の進化におけるパラドックスを浮き彫りにしています。つまり、モデルがより強力になる一方で、その限界についての透明性も低下する可能性があるということです。

これにより、AI システムの使用と信頼に新たな課題が生じ、ユーザーはより慎重になり、開発者はモデルの精度だけでなく「自己認識」の向上にも注力する必要があります。


[広告2]
出典: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html

コメント (0)

No data
No data

同じトピック

同じカテゴリー

今朝、クイニョンのビーチタウンは霧に包まれて「夢のよう」だ
「雲狩り」シーズンのサパの魅惑的な美しさ
それぞれの川は旅
ホーチミン市は新たな機会で外国直接投資企業からの投資を誘致

同じ著者

遺産

人物

企業

ドンヴァン石台地 - 世界でも珍しい「生きた地質学博物館」

時事問題

政治体制

地方

商品