アルトマンCEOは5月、ワシントンD.C.の米国上院に請願書を提出し、議員らに緊急の要請を行った。「AIの優位性を活用するだけでなく、AIが人類を圧倒するリスクを最小限に抑えるために、早急に厳しい規制を設ける必要がある」
ウェブサイト上の ChatGPT インターフェース。写真: Shutterstock
「社会と人類への深刻なリスク」
昨年末のOpenAIのChatGPTの立ち上げにより、38歳のアルトマン氏は、ユーザーの要求に応じて画像やテキストを生成できる新しいタイプのAIツール、いわゆる生成AIの開発者として一躍有名になった。
ChatGPT はリリース後すぐに有名になりました。企業の幹部が電子メールの下書きに使用したり、コーディング経験のない人がウェブサイトを構築したり、法律学校やビジネススクールの試験に合格したりしています。それは、教育、金融、 農業、メディア、ジャーナリズム、そして外科手術から医療ワクチンの開発まで、健康を含むほぼすべての産業に革命を起こす可能性を秘めています。
しかし、それらの同じツールが、学校での不正行為や失業、さらには人類の存在そのものに対する脅威など、あらゆることに対する懸念を引き起こしている。
たとえば、AIの台頭により、経済学者は労働市場について警告を発している。ゴールドマン・サックスの推計によると、最終的には世界中で3億ものフルタイムの仕事がAIを使って何らかの形で自動化される可能性がある。 世界経済フォーラムの4月の報告によれば、今後わずか5年間で約1,400万の雇用が失われる可能性がある。
さらに、アルトマン氏は米議会での証言で、AIが有権者を操作したり偽情報を流したりするために使用される可能性は「私が最も懸念している分野の一つ」だと述べた。
公聴会の2週間後、アルトマン氏は数百人の一流AI科学者、研究者、ビジネスリーダーとともに、「パンデミックや核戦争など他の社会規模のリスクと並んで、AIによる絶滅のリスクを最小限に抑えることは世界的な優先事項でなければならない」と述べた書簡に署名した。
この警告は新聞やメディアで広く報道された。そして、このような終末的なシナリオをもっと真剣に受け止める必要があると主張する人が増えています。
しかし、シリコンバレーには大きな矛盾がある。大手テクノロジー企業の最高経営責任者(CEO)たちは、AIは人類を絶滅させる可能性があると公言しながらも、競争的に投資し、数十億人のユーザーにAI技術を展開しようとしているのだ。
アルトマン氏は以前からAIがもたらすリスクを懸念しており、責任を持って前進することを誓っている。彼は、ジョー・バイデン大統領やカマラ・ハリス副大統領を含むホワイトハウスの指導者らと会談し、倫理的で責任あるAIの開発の重要性を強調したテクノロジー企業のCEOのグループの一員である。
しかし、それだけでは十分ではありません。アルトマン氏とOpenAIにはもっと慎重に行動してほしいと望む人もいる。 OpenAIの設立に携わった後、同グループを去ったイーロン・マスク氏や、数十人の技術リーダー、教授、研究者らも、「社会と人類への深刻なリスク」を理由に、OpenAIのような人工知能研究所に対し、最も強力なAIシステムのトレーニングを少なくとも6か月間停止するよう呼びかけている。
アルトマン氏は、「安全レベルを高める必要がある」という点を含め、書簡の一部には同意するが、一時停止は課題に対処するための「最適な方法」ではないと述べた。
OpenAI は依然としてアクセルペダルを踏み続けている。最近では、OpenAIとiPhone設計者のジョナサン・アイブが、スマートフォンに代わるAIデバイスのために日本の複合企業ソフトバンクから10億ドルを調達する交渉を行っていると報じられた。
サムは信頼できるでしょうか?
アルトマン氏は2015年にOpenAIを立ち上げた際、潜在的な害を心配して何もしないのではなく、AIの進むべき道を決めたいとCNNに語った。 「自分が今、何らかの影響力を持つことができるとわかっているので、安心して眠れる」と彼は宣言した。
それでも、アルトマン氏はこの技術について懸念を抱いていると述べた。 「私は生き残る準備ができている」と彼は2016年のニューヨーカー誌の記事で述べ、「AIが私たちを攻撃する」など、起こりうるいくつかの壊滅的なシナリオに言及した。
オープンAIのCEOサム・アルトマン氏は、5月16日にワシントンで米国上院で演説した。写真:AP
「しかし、私には銃、金、抗生物質、電池、水、ガスマスクがあり、ビッグサーには飛んで行ける広大な土地もある」と彼は宣言し、災害に見舞われても個人的にはまだ生き残れることを示唆した。それは明らかに利己的な発言です。
バイデン大統領は今週初め、これまでで最も大規模な取り組みとして、強力なAIシステムの開発者に対し、国家安全保障、経済、健康へのリスクがないかどうかを確認するために、安全性テストの結果を公表前に連邦当局と共有することを義務付ける大統領令を発表した。
米国上院の公聴会後、ワシントン大学教授で計算言語学研究所所長のエミリー・ベンダー氏は、たとえ厳しく規制されたとしてもAIの将来について懸念を表明した。 「これが人類の絶滅につながると本気で信じているなら、なぜ止めないのか?」彼女は宣言した。
ワシントン大学の技術史家で教授のマーガレット・オマラ氏は、良い政策立案は一つや少数の視点や利益だけではなく、多くの視点や利益に基づいて行われ、公共の利益によって形作られる必要があると述べた。 「AIの課題は、それがどのように機能し、それを使用することが原子爆弾のように何を意味するのかを本当に理解している人や企業がほとんどいないことです」とオマラ氏は言う。
したがって、アルトマン氏自身が大量破壊兵器になる可能性があると認め、災害発生時に備えシェルターを準備している技術を用いて、人類の最善の利益のために行動すると世界が期待するのは危険だろう。それに、彼は結局のところただの人間であり、スーパーヒーローでも救世主でもないのです!
ホアン・ハイ(CNN、FT、ロイター通信による)
[広告2]
ソース
コメント (0)