『サピエンス全史』の著者はガーディアン紙のインタビューで、核兵器とは異なり、AIモデルがもたらす問題は1つの大きなシナリオに限定されないと述べた。
AI には無数の危険なシナリオがあり、それぞれが組み合わさって人類文明に実存的な脅威をもたらす可能性があります。
英国ブレッチリー・パークで開催された世界AI安全サミットでの多国間宣言は、主要各国政府が一堂に会してこの技術に対する懸念を表明し、対策を講じたため、 「非常に重要な前進」だったとハラリ氏は述べた。
「世界的な協力がなければ、AIの最も危険な可能性を封じ込めるのは不可能ではないにしても極めて困難になるだろう」と彼は述べた。
サミットは、10カ国の政府と、ChatGPT開発元のOpenAIやGoogleを含む大手AI企業の間で、高度なAIモデルのリリース前とリリース後のテストで協力するという合意で終了した。
『サピエンス全史』の著者らは、モデルの安全性をテストする際の問題の 1 つは、それが引き起こす可能性のあるあらゆる問題を予見しなければならないことだと主張している。
AI は、意思決定を行い、新しいアイデアを生み出し、自ら学習して発展することができる初めてのテクノロジーであるため、人類史上これまでのあらゆるテクノロジーとは異なります。
定義上、人間にとって、AIの「父」であっても、すべての潜在的な危険や問題を予測することは非常に困難です。
政府は、AI システムが生物兵器の開発に役立っているという脅威を提起しているが、他にも考えられるシナリオがある。
ハラリ氏は、データとAIだけでは深刻な危機を引き起こす可能性があるため、金融はAIシステムに最適な分野だと指摘した。
「AIが世界の金融システムに対する制御を強化するだけでなく、AIだけが理解でき、人間にはできない新しい金融デバイスを作成し始めたらどうなるでしょうか?」ハラリ氏は尋ねた。
2007年から2008年の金融危機は、あまり理解されておらず、そのため十分に規制されていなかった担保付債務証券(CDO)などの債務手段によって引き起こされたと歴史家は付け加えた。
「AIはCDOよりも複雑な金融商品を生み出す可能性を秘めています。人間が理解できず、したがって規制もできない金融システムが存在する状況を想像してみてください」と彼は述べた。 「そして、何が起こっているのか誰も理解できない金融危機が起こるのです。」
英国政府は先月、金融システムを制御・操作することで実存的な脅威をもたらす可能性のある高度なAIモデルについて懸念を表明した。
しかしハラリ氏は、AIが引き起こす金融危機が「少なくとも直接的には」人類の文明を破壊することはないと考えている。
「間接的に、何らかの戦争や紛争の引き金になれば、それは起こり得ます。経済的、社会的、 政治的に壊滅的なリスクです」と彼は付け加えた。
イスラエルの著者は、高度なAIの開発を6か月間停止し、AI企業に自社製品が引き起こす損害の責任を負わせるという呼びかけを支持しており、焦点は特定の規制や法律ではなく、新たな飛躍的進歩が生まれたときに迅速に対応できる技術の知識を持つ規制機関に置かれるべきだと述べた。
「すべての危険や問題を事前に予測することはできないという理解に基づき、発生した危険を特定し対応できる強力な規制機関をできるだけ早く構築する必要がある。」
「議会で可決される頃には時代遅れになっているかもしれない、非常に長くて複雑な規制を書くのではなく、これが主な取り組みであるべきだ」と彼は語った。
ハラリ氏は、AIの安全性研究機関は、AIが金融界に及ぼす潜在的な影響を理解している専門家を雇うべきだと述べた。
先月、英国のリシ・スナック財務大臣は英国AI安全研究所の設立を発表した。数日後、ホワイトハウスも同様の機関を設立する計画を発表した。どちらも、高度な AI モデルのテストにおいて重要な役割を果たすことが期待されています。
サミットで演説したスナック氏は、英国は高度なAIモデルに対処する法律を導入する前に、その能力を理解する必要があると述べた。
(ガーディアン紙によると)
AIアプリケーションGraphCastは、世界で最も正確な10日間の天気予報を予測します
英国にある Google の DeepMind 研究所は、世界で最も正確な 10 日間の天気予報を提供できる人工知能 (AI) アプリケーション、GraphCast システムを開発した。
AIとクラウドコンピューティングの相乗効果
人工知能 (AI) とクラウド コンピューティングの組み合わせは、世界中の産業を変革する止められないトレンドです。
[広告2]
ソース
コメント (0)