過去1年間、AIが人類を滅ぼすという脅威について多くのことを耳にしてきました。 AIのゴッドファーザーからトップCEOに至るまで、AIは私たちの友人ではなく敵になるだろうという警告が絶えず出ているようです。
業界のリーダーや AI の有力者たちは、この技術の急速な成長は世界に壊滅的な結果をもたらす可能性があると述べている。しかし、多くの AI の先駆者によると、このシナリオは、今日解決する必要があるより差し迫った AI の問題から注意をそらすことを意図しているとのこと。
AIが人類を絶滅させる可能性はわずか5%です。 (写真:Keymatrixsolutions)
多くの AI 研究者は AI が実存的な脅威をもたらす可能性を認識しているが、AI 研究者を対象とした最近の大規模な調査が示唆しているように、それほど劇的な結果が起こる可能性は低いと考える研究者もいる。
新しい調査では、参加した2,778人のAI研究者に、AI開発の社会的影響や、この技術の将来の可能性のあるタイムラインについて質問しました。調査結果によると、回答者の約58%が、AI技術によって人類が絶滅する脅威や、その他の極めて悪い結果がもたらされる可能性は5%程度だと考えていることが分かった。
この研究では、AIが2047年までにあらゆるタスクで人間を上回る可能性が50%あり、2116年までに人間のあらゆるタスクを自動化する可能性が50%あることも判明した。この研究は、オックスフォード大学やドイツのボン大学など、世界中の大学の研究者や学者によって発表された。
Google Brainの共同設立者であるアンドリュー・ン氏やAI業界の「ゴッドファーザー」であるヤン・ルカン氏を含む一部のAI専門家は、AI主導のより大きな終末シナリオの一部を否定している。ルカン氏は、サム・アルトマン氏のようなテクノロジーリーダーたちがAIに対する恐怖を煽る隠れた動機を持っているとさえ非難した。
Metaの主任AI科学者であり、AIのゴッドファーザーであるヤン・ルカン氏は、AI分野の最も著名な創始者の一部が、自らの利益のために意図的に「脅し」や「大企業へのロビー活動」を行っていると非難した。同氏によると、終末論的な言説の多くは、AIの制御を少数の人々の手に留めておくことを目的としているという。
スタンフォード大学の教授であり、Google Brainの共同設立者でもあるアンドリュー・ン氏も同様の見解を示している。一部の企業はAIをめぐる恐怖を利用して自社の市場支配を主張している、と彼はオーストラリアン・ファイナンシャル・レビューに語った。
フイン・ズン(出典: Businessinsider/Newscientist)
[広告2]
ソース
コメント (0)