OpenAIの公式ブログの発表によると、安全・セキュリティ委員会は取締役会の傘下の独立した監視グループとなる。カーネギーメロン大学のジコ・コルター教授が同委員会の委員長を務め、他のメンバーにはQuoraのCEOアダム・ダンジェロ氏、退役米陸軍大将ポール・ナカソネ氏、ソニーの元副社長ニコール・セリグマン氏らが参加する。これらのメンバーはすべて現在 OpenAI の取締役会のメンバーです。
アルトマン氏が辞任した後、委員会は同社の最新AIモデルであるo1の安全性評価を完了した。チームは今後もOpenAIの安全・セキュリティチームから説明を受け続け、安全上の懸念が解決されない場合はリリースを遅らせる権利を留保する。
OpenAIによれば、委員会は現在および将来のモデルに対する技術的な監視と、モデルがリリースされた後のフォローアップを行うという重要な役割を維持するという。同社は、すべての AI モデルが安全に導入されるよう、明確な評価基準を備えた組み込みの安全プロセスの構築に取り組んでいます。
アルトマン氏が委員会を離れる決断は、米国の上院議員5人からなるグループがOpenAIに安全方針の明確化を求める書簡を送った後に下された。過去1年間で、AIの長期的なリスクの研究に注力していたOpenAIのスタッフのほぼ半数が同社を去った。元OpenAIの研究者らは、アルトマン氏が強力なAI規制を主張せず、むしろ同社の商業目標を推進する政策を支持していると批判している。
画像クレジット: ジャスティン・サリバン / ゲッティイメージズ
さらに、OpenAIは米国議会へのロビー活動への支出を大幅に増加させました。同社は2024年の最初の6か月間に80万ドルの予算を計上しており、2023年全体では26万ドルとなっている。アルトマン氏は国土安全保障省の人工知能安全・セキュリティ委員会にも所属し、国の重要インフラ全体にわたるAI関連の勧告作成に貢献している。
アルトマン氏はセキュリティおよびプライバシー委員会を去ったが、同委員会がOpenAIの商業的進路を深刻に妨げる可能性のある決定を下す兆候はほとんどないようだ。オープンAIは5月、この委員会を通じて自社の研究に対する「正当な批判」に対処しようとすると述べたが、「正当な批判」は査読者の視点に大きく依存する。
5月のエコノミスト誌の論説で、OpenAIの元取締役であるヘレン・トナー氏とターシャ・マコーリー氏の2人は、同社の自己統治能力について懸念を表明した。彼らは、OpenAI は現在、利益の圧力により責任を負えないと主張している。
OpenAI の利益はますます重要な原動力になりつつある。同社は新たな資金調達ラウンドで65億ドルを調達中であり、OpenAIの評価額は1500億ドルを超える。投資家を引き付けるために、OpenAIは、人類共通の利益のためにAIを開発するという目標を優先し、投資家へのリターンを制限するように設計されたハイブリッドな非営利組織構造を放棄することを検討する可能性がある。
フン・グエン氏(TechCrunchによる)
[広告2]
出典: https://www.congluan.vn/sam-altman-roi-uy-ban-an-toan-cua-openai-nhuong-quyen-cho-nhom-doc-lap-post312681.html
コメント (0)