転機となった手紙。
ロイター通信は11月23日、独占情報筋の話として、サム・アルトマンCEO解任の4日前、OpenAIの複数の研究者が同社の取締役会に書簡を送り、人類を脅かす可能性のある強力な人工知能(AI)の発見について警告していたと報じた。これまで一度も言及されていなかったこの書簡と、問題のAIアルゴリズムは、OpenAIの共同創設者であるサム・アルトマン氏が11月17日に解任されるに至った重要な出来事だった。アルトマン氏はOpenAIとの2度にわたる交渉を経て、11月21日(米国時間)にCEOに復帰した。関係者によると、この書簡はOpenAI取締役会がアルトマン氏を解任した理由の一つだったが、公式発表ではアルトマン氏が「取締役会とのコミュニケーションに一貫性がなく、率直さが欠けていた」とのみ述べられていた。
アルトマン氏(右)とテクノロジー企業のリーダーたちが11月16日、米国サンフランシスコで開催されたAPEC会議で議論している。
情報筋によると、OpenAIの長年の上級管理職の一人であるミラ・ムラティ氏は11月22日、従業員に対し「Q*」と呼ばれるプロジェクトについて言及し、同社の取締役会はアルトマン氏を解雇する前に書簡を受け取ったと述べた。情報筋の一人は、OpenAIがQ*プロジェクトで進展を遂げており、このプロジェクトは超知能、つまり汎用人工知能(AGI)の探求における画期的な進歩となる可能性があると明らかにした。
この新しいモデルは小学校レベルの数学しか解けないものの、そのような問題を解ける能力があることから、研究者たちはQ*の将来の成功に非常に楽観的な見方をしています。研究者たちは、数学は生成AI開発の前提条件であると考えています。現在、生成AIは言語を書いたり翻訳したりすることができますが、同じ質問に対する答えは大きく異なる場合があります。しかし、正解が一つしかない数学という分野を克服することは、AIが人間と同様に優れた推論能力を持つことを意味します。研究者たちは、これが新たな科学研究に応用できると考えています。
サム・アルトマンがOpenAIのCEOに復帰。
潜在的な危険?
情報筋によると、研究者らはOpenAIの取締役会に宛てた書簡の中で、AIの威力と潜在的な危険性について概説した。コンピューター科学者たちは長年、超知能機械が自らの利益のために人類を滅ぼす可能性など、超知能機械がもたらす危険性について議論してきた。こうした背景から、アルトマン氏はChatGPTを史上最速で成長するソフトウェアアプリケーションの1つにするための取り組みを主導し、AGIに近づくために必要な投資と計算資源を獲得した。今月のイベントで一連の新ツールを発表したほか、アルトマン氏は先週サンフランシスコで世界の指導者に対し、AGIの到来が近いと考えていると語った。その翌日、彼はOpenAIの取締役会から解雇された。OpenAIとアルトマン氏はこの書簡についてコメントしていない。
AIの潜在的なリスクを懸念し、多くの西側諸国政府とテクノロジー企業は、新たな安全試験メカニズムの導入に合意した。しかし、AFP通信によると、国連のアントニオ・グテーレス事務総長は、AI規制の取り組みは依然として「手探り状態」であり、雇用から文化に至るまであらゆるものに長期的な悪影響を及ぼすリスクがあると述べた。
OpenAIとMicrosoftは著作権侵害で訴えられている。
11月23日、 The Hill紙は、ノンフィクション作家グループが、OpenAIとMicrosoftがChatGPTツールを訓練して著作を無断でコピーしたとして訴訟を起こしたと報じた。ニューヨーク連邦裁判所に提起されたこの訴訟で、原告の筆頭であるジュリアン・サンクトン氏は、自身を含む著者らはAIによるコピー作品に対して一切の報酬を受け取っていない一方で、OpenAIとMicrosoftはAI製品の商業化によって経済的成功を収め、AI製品から数十億ドルの収益を上げていると主張している。ロイター通信によると、OpenAIの広報担当者は訴訟に関するコメントを拒否し、Microsoftの担当者もコメント要請に直ちに回答しなかった。
[広告2]
ソースリンク







コメント (0)