OpenAIの上級研究者によると、世界はまだ人工汎用知能(AGI)、つまり人工知能が人間の脳と同じくらい賢くなる瞬間に備えていないという。
汎用人工知能はリスクか?
研究者たちは長年にわたり、人工汎用知能(AGI)の出現について推測してきました。これは、人工システムが人間と同様に幅広いタスクを処理できるようになることを意味します。多くの人は、AGIの出現を実存的リスクと見ています。なぜなら、AGIの出現によってコンピューターは人間が想像もできないような行動をとるようになる可能性があるからです。
マイルズ・ブリンデージ氏によると、世界はまだ汎用人工知能(AGI)の時代に備えていないという。
ChatGPTの開発元であるOpenAIがAGIに対応できるよう万全を期す責任を負っている人物は、世界もOpenAI自身も次のステップへの「準備」がまだできていないことを認めた。マイルズ・ブランデージ氏は「OpenAIのAGI対応に関するシニアアドバイザー」だったが、今週、同社が同グループを解散したことを受け、退任を発表した。
「OpenAIも他の先駆的な研究室も、そして世界も、AGIへの準備はできていません。誤解のないよう明確に申し上げますが、これはOpenAIの幹部の間で物議を醸す発言ではなく、むしろ同社と世界が適切な時期に準備を整える軌道に乗っているかどうかという問題です」と、6年間にわたり同社のAI安全対策の策定に尽力してきたブランデージ氏は述べた。
ブランデージ氏の退任は、OpenAIの安全チームから注目を集める退任者の一連の動きの最新の事例となる。著名な研究者であるヤン・ライケ氏は、「安全文化とプロセスは、派手な製品に後回しにされている」と述べて退任した。共同創設者のイリヤ・スツケバー氏も、安全なAGIの開発に特化したAIスタートアップを立ち上げるために退任した。
ブランデージ氏が「AGI 準備」グループを解散したのは、同社が長期的な AI リスクの緩和に特化した「スーパーアライメント」グループを解散してからわずか数か月後のことであり、OpenAI の本来の使命と同社の商業的野心との間の緊張関係が露呈した。
利益圧力がOpenAIを安全から遠ざける
OpenAIは、2年以内に非営利企業から営利企業へ移行するよう圧力を受けていると報じられている。そうでなければ、最近獲得した66億ドルの投資ラウンドからの資金を失うリスクがある。この商業化への移行は、ブランデージ氏にとって長年の懸念事項であり、同氏はOpenAIが営利部門を設立した2019年当時から懸念を表明していた。
OpenAIのCEOサム・アルトマン氏は、同社が利益を上げなければならないというプレッシャーのために「頭痛」を感じている。
ブランデージ氏は、退職理由として、この象徴的な企業における研究と出版の自由に対する制約がますます厳しくなっていることを挙げました。彼は、AI政策の議論において、業界の偏見や利益相反から自由な独立した発言権の必要性を強調しました。OpenAIの幹部に対し、社内の準備について助言してきたブランデージ氏は、組織の外からグローバルなAIガバナンスにより大きな影響力を及ぼせると考えています。
これらの退任は、OpenAI内部の文化的な溝が深まっていることも反映している。多くの研究者はAI研究を推進するために参加したが、今ではますます製品主導の環境に置かれている。内部リソースの配分は火種となっており、ライケ氏のチームは解散前に安全性研究のための計算資源の割り当てを拒否されたとの報道もある。
OpenAIはここ数ヶ月、人工知能開発計画や安全性への取り組みについて疑問の声が上がっている。安全な人工知能の構築方法を研究する非営利団体として設立されたOpenAIだが、ChatGPTの成功により巨額の投資が集まり、この新技術を営利目的で利用するよう圧力がかかっている。
[広告2]
出典: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
コメント (0)