Tech.coの情報筋によると、CEOサム・アルトマン氏の解任とその後のOpenAIへの復帰をめぐる論争が繰り広げられる中、出回っていた噂の一つは、同社の研究者らが取締役会に送った手紙に関するもので、開発中のAI超知能モデルが人類に脅威を与える可能性があるという懸念を表明していたという。
(イメージ)
プロジェクトQ*
社内でプロジェクトQ*(Qスターと発音)と呼ばれているこのモデルは、OpenAIの汎用人工知能(AGI)の追求において大きな進歩となる可能性があると宣伝されている。AGIは、累積的な学習が可能で、ほとんどのタスクで人間を上回る能力を持つ、高度に自律的な超知能の一分野である。
関係筋によると、Q*はAIの推論能力を劇的に向上させ、OpenAIをAGI開発の大きな進歩に近づけることで、人工知能分野に大きな飛躍をもたらす可能性があるという。
事前に学習した情報に基づいて応答を生成することに重点を置く現在の AI モデルとは異なり、AGI は意思決定に「理由」を適用できる自律システムであり、人間レベルで問題を解決する能力を備えています。
AGI はまだ完全には実現されていないものの、多くの専門家は、この技術には、人間の能力を向上させるもう一つの特性である累積学習の可能性があると考えています。
いくつかの情報源によると、OpenAIプロジェクトであるQ*は、問題解決において前述の特性を発揮することができたようです。さらに、このモデルの膨大な計算能力のおかげで、Q*は小学生を上回る成績を収め、現在のAI技術をはるかに上回る推論能力と認知能力を発揮しました。
Q* がどれくらいの期間開発されてきたのか、またその潜在的な用途は何かは不明だが、人事論争が起こる前に OpenAI は従業員と役員にこのプロジェクトについて知らせていた。
倫理的な懸念
OpenAIのCEOサム・アルトマン氏はAGI技術がイノベーションを推進すると確信しているが、一部の研究者はプロジェクトの潜在的な危険性をいち早く指摘している。
取締役会宛ての書簡の中で、研究者たちはこの強力なアルゴリズムが人類に及ぼす潜在的な危険性について警告した。書簡で概説されたAIに関する具体的な倫理的懸念は明らかにされていないが、その警告は取締役会がアルトマン氏を解雇する決定を正当化するのに十分なものだった。
一方、アルトマンCEOの解任の当初の理由は「コミュニケーション能力が低い」というものだった。その後まもなく、彼はマイクロソフトに転職した。この行動を受け、OpenAIの従業員770人のうち700人が、CEOが復職しなければ同じことをすると脅迫した。
同社が倒産の危機に瀕していたため、OpenAIの取締役会はアルトマン氏を最高責任者に再任せざるを得なくなり、これにより同社の経営陣の大幅な刷新がもたらされ、経営陣内の深い分裂が浮き彫りになった。
アルトマン氏が再びこの職に就き、プロジェクトQ*が再び承認される可能性が高くなった今、新たな疑問が生じている。
プロジェクトQ*はどの程度現実的でしょうか?
OpenAI の混乱により AGI の概念が脚光を浴びたが、アルトマン氏がこの技術について言及したのは今回が初めてではない。
9月、シリコンバレーの起業家である彼は、AGIを「同僚として雇える普通の人間」に例えたことで、問題に直面した。彼はさらに、このAIは「遠隔地の同僚とできることは何でもできる」、医師や優秀なプログラマーになることも学べる、という昨年の発言を繰り返した。
AGIを「平均的な人間」の知能と比較することは目新しいことではないが、AIが雇用の安定に及ぼす影響をめぐる懸念が高まる中、アルトマン氏がこの表現を使ったことは、AI倫理学者やケンブリッジ大学のヘンリー・シェブリン教授から「不快」とみなされた。
AGI における潜在的なブレークスルーは、他の研究者たちに警鐘を鳴らしている。つまり、この技術は人々がその影響を完全に理解できるよりも速いペースで発展しているのだ。
OpenAIは、AGIの肯定的な成果により、このリスクの高い「地雷原」に挑戦する価値があると考えている。しかし、同社がこの方向へ推し進め続ける中で、アルトマン氏がユーザーと社会の利益よりも商業的成功を優先しているのではないかと懸念する声が多く上がっている。
フォン・アイン(出典: Tech.co、ガーディアン)
[広告2]
ソース






コメント (0)