転換点の手紙
ロイター通信は11月23日、独占情報筋の話として、サム・アルトマンCEO解任の4日前、OpenAIの研究者らが同社の取締役会に書簡を送り、人類を脅かす可能性のある強力な人工知能(AI)の発見について警告したと報じた。この書簡はこれまで言及されたことがなく、前述のAIアルゴリズムは、OpenAIの共同創設者であるサム・アルトマン氏が11月17日に解任される前の重要な開発だった。アルトマン氏はOpenAIとの2度にわたる交渉を経て、11月21日(米国時間)にCEOに復帰した。情報筋によると、この書簡はOpenAI取締役会解任の決定につながった理由の一つだったが、同社は公式発表で、アルトマン氏が「取締役会とのコミュニケーションにおいて一貫性と率直さを欠いていた」とのみ述べている。
アルトマン氏(右)とテクノロジー企業のリーダーらが11月16日、サンフランシスコ(米国)で開催されたAPEC会議で議論した。
情報筋によると、OpenAIの長年の上級管理職の一人であるミラ・ムラティ氏は11月22日、従業員に対し「Q*」と呼ばれるプロジェクトについて言及し、取締役会はアルトマン氏を解雇する前に書簡を受け取ったと述べた。情報筋の一人は、OpenAIがQ*の開発を進めており、これは超知能、つまり汎用人工知能(AGI)の実現に向けた画期的な進歩となる可能性があると明らかにした。
このモデルは小学校レベルの数学しか解けないものの、そのような問題を解くことで、研究者たちはQ*の将来の成功に楽観的な見方をしています。研究者たちは、数学は生成AI開発の前提条件だと考えています。生成AIは現在、言語を書いたり翻訳したりすることができますが、同じ質問に対して答えが大きく異なる場合もあります。しかし、正解が一つしかない数学を習得することは、AIが人間のようにより優れた推論能力を持つことを意味しています。研究者たちは、これが新たな科学研究に応用できると考えています。
サム・アルトマン氏がOpenAIのCEOに復帰
潜在的な危険?
関係者によると、研究者らはOpenAI理事会宛ての書簡の中で、AIの潜在的な力と危険性について概説した。コンピューター科学者たちは長年、超知能機械が自らの利益のために人類を滅ぼす可能性など、超知能機械がもたらす危険性について議論してきた。こうした状況下で、アルトマン氏はChatGPTを史上最速で成長するソフトウェアアプリケーションの1つに育て上げ、AGIに近づくために必要な投資と計算資源を引き付ける取り組みを主導した。今月のイベントで一連の新ツールを発表したほか、アルトマン氏は先週サンフランシスコで世界の指導者に対し、AGIは手の届くところにあると確信していると語った。その翌日、アルトマン氏はOpenAI理事会から解雇された。OpenAIとアルトマン氏は、この書簡に関するコメント要請に直ちには応じなかった。
AIがもたらす潜在的なリスクを懸念し、多くの西側諸国政府とテクノロジー企業は新たな安全性試験のメカニズムに合意した。しかし、AFP通信によると、国連のアントニオ・グテーレス事務総長は、AI規制の取り組みにおいて世界は依然として「追いつこうとしている」状態にあり、雇用から文化に至るまであらゆるものに長期的な悪影響を及ぼすリスクがあると述べた。
OpenAIとマイクロソフトが著作権侵害で提訴される
11月23日、 The Hill紙は、ノンフィクション作家グループが、OpenAIとMicrosoftの2社がChatGPTツールを訓練して、彼らの同意なしに作品をコピーしたとして訴訟を起こしたと報じた。ニューヨーク連邦裁判所(米国)に提起された訴訟で、原告のジュリアン・サンクトン氏は、自身を含む著者はAIによってコピーされた作品に対して一切の報酬を受け取っていない一方で、OpenAIとMicrosoftはAI製品の商業化によって経済的成功を収め、数十億ドルの収益を上げていると主張している。ロイター通信によると、OpenAIの広報担当者は訴訟についてコメントを拒否し、Microsoftの担当者もコメント要請に直ちに回答しなかった。
[広告2]
ソースリンク
コメント (0)