AIの制御を失うリスク
人類は、迫りくる脅威を無視しているようだ。それは、人工知能(AI)によって引き起こされる世界規模の核戦争の脅威だ。国連事務総長アントニオ・グテーレス氏はこの脅威について警告を発している。しかし、核保有国は今のところ、この壊滅的な脅威について協議するために団結していない。
人工知能(AI)の急速な発展は、AIが核兵器の発射プロセスに介入するリスクをもたらしている。イラスト写真
米国、ロシア、中国、英国、フランスの5大核保有国の間では、核兵器発射の決定に人間が関与することを保証するシステムを持つという「人間が関与する」原則について、長らく非公式の合意が存在していた。
5大国のうち、核発射指揮システムにAIを導入したと述べている国はない。これは事実だが、誤解を招くものだと、インド・ムンバイに拠点を置く国際研究機関、ストラテジック・フォーサイト・グループのサンディープ・ワスレカー所長は述べている。
AIはすでに脅威の検知と標的の選定に活用されています。AIを搭載したシステムは、センサー、衛星、レーダーから得られる大量のデータをリアルタイムで分析し、ミサイル攻撃の予測と対応策の提案を行います。
その後、オペレーターはさまざまな情報源からの脅威を照合し、敵のミサイルを迎撃するか、報復攻撃を開始するかを決定します。
「現在、人間のオペレーターが対応できる反応時間は10分から15分です。2030年までに、この時間は5分から7分に短縮されるでしょう」とサンディープ・ワスレカー氏は述べた。「最終的な判断は人間が行いますが、AIの予測的・規範的な分析の影響を受けるようになります。AIは早ければ2030年代には、打ち上げの意思決定の原動力となる可能性があります。」
問題は、AIが誤報を発する可能性があることです。脅威検知アルゴリズムは、実際にはミサイル攻撃が発生していないにもかかわらず、ミサイル攻撃を検知することがあります。これは、コンピューターエラー、ネットワーク侵入、あるいは信号を遮る環境要因などが原因である可能性があります。人間のオペレーターが2~3分以内に他の情報源からの誤報を確認できなければ、報復攻撃を誘発する可能性があります。
小さな間違いが大きな災害を引き起こす
犯罪予測、顔認識、癌の予後予測など、多くの民生機能におけるAIの利用は、10%の誤差範囲を持つことが知られています。サンディープ・ワスレカー氏によると、核早期警戒システムにおける誤差範囲は約5%です。
今後10年間で画像認識アルゴリズムの精度が向上するにつれて、この誤差は1~2%にまで低下する可能性があります。しかし、たとえ1%の誤差であっても、世界的な核戦争を引き起こす可能性があります。
核兵器への攻撃や報復の判断は、AIのエラーによって引き起こされる可能性がある。写真:現代戦争研究所
今後2~3年で、脅威検出システムを回避できる新たなマルウェアの出現により、リスクは増大する可能性があります。こうしたマルウェアは、検出を回避するために適応し、標的を自動的に特定して攻撃を行うでしょう。
冷戦時代には、いくつかの「瀬戸際政策」的な状況がありました。1983年、ソ連の衛星がアメリカが発射したミサイル5発を誤って探知しました。ロシアのセプホフ15司令センターの将校、スタニスワフ・ペトロフは誤報だと判断し、上層部に警告を発せず、反撃を開始しませんでした。
1995年、オレネゴルスクのレーダー基地はノルウェー沖でミサイル攻撃を検知しました。ロシアの戦略軍は厳戒態勢に置かれ、当時のボリス・エリツィン大統領は核兵器のブリーフケースを渡されました。彼は操作ミスだと疑い、ボタンを押しませんでした。しかし、それは科学的なミサイルであることが判明しました。もしAIがどちらの状況においても対応策を決定していたら、結果は壊滅的なものになっていたかもしれません。
今日の極超音速ミサイルは、AIではなく従来の自動化技術を採用しています。マッハ5からマッハ25の速度で飛行し、レーダー探知を回避しながら飛行経路を制御します。超大国は、移動する標的を瞬時に発見・破壊するAIを搭載し、極超音速ミサイルの性能向上を計画しており、これにより、殺害の判断は人間から機械へと移行します。
汎用人工知能の開発競争も進んでおり、人間の制御を超えて動作するAIモデルの誕生につながる可能性があります。そうなれば、AIシステムは自己強化と自己複製を学習し、意思決定プロセスを掌握するようになります。このようなAIが核兵器の意思決定支援システムに統合されれば、機械は壊滅的な戦争を開始できるようになるでしょう。
行動の時
上記のリスクに直面して、多くの専門家は、人類は「人間が関与する」というスローガンを繰り返すだけでなく、核戦争のリスクを最小限に抑えるために大国間の包括的な合意を必要としていると考えています。
この合意には、透明性、説明責任、協力措置、テストと評価の国際基準、危機コミュニケーションチャネル、国家監督委員会、人間のオペレーターを回避できる攻撃的な AI モデルを禁止する規則が含まれる必要があります。
アントニオ・グテーレス事務総長は、1945年に原爆が投下された広島で平和記念式典に出席した。写真:国連
地政学的な変化は、こうした協定締結の機会を生み出している。例えば、中国と米国のAI専門家は、AIリスクに関するトラック2対話を数多く実施し、昨年11月にはジョー・バイデン前米国大統領と習近平中国国家主席による共同声明が発表された。
億万長者のイーロン・マスク氏は、AIがもたらす存在的リスクから人類を救う必要性を強く主張しており、ジョー・バイデン氏と習近平氏の共同声明を条約に変えるべく、現アメリカ大統領のドナルド・トランプ氏に働きかけるかもしれないと、サンディープ・ワスルカー博士は述べている。
サンディープ・ワスレカー博士によると、AIと核の課題にはロシアの参加も不可欠だ。今年1月まで、ロシアはウクライナ問題が議論されない限り、AIとの融合を含むいかなる核リスク軽減策についても議論を拒否していた。
ドナルド・トランプ大統領がロシアのウラジーミル・プーチン大統領と二国間関係の改善とウクライナ戦争の終結に向けて対話を進めていることから、ロシアは協議に応じる姿勢を見せているかもしれない。
今年2月、パリAIアクションサミットでのJ・D・ヴァンス米副大統領の演説を受けて、新アメリカ安全保障センター(CNAS)も「AI終末の防止:核兵器と人工知能を巡る米中露の競争」と題する報告書を発表した。
報告書は、AIと核のつながりの最も重大なリスクを特定し、米国政府に中国およびロシアと包括的なリスク軽減および危機管理メカニズムを確立するよう求めている。
昨年9月には、韓国ソウルで開催された「軍事における責任あるAIサミット(REAIM)」において、米国を含む約60カ国が軍事におけるAIの責任ある活用を管理するための「行動計画」を採択しました。これは、昨年ハーグで開催された会議に続く2回目の会議でした。こうした動きは、AIによって引き起こされる核戦争のリスクがSF小説ではないことを示しています。
世界は明らかに、ますます緊急性を増す存在に関わる問題に直面しており、アントニオ・グテーレス国連事務総長が呼びかけているように、「核兵器の使用に関するあらゆる決定は、機械やアルゴリズムではなく、人間によって行われる」ようにするために、核保有国による実際の行動が求められている。
グエン・カーン










コメント (0)