AIの制御を失う危険性
人類は、地平線に迫る亡霊を無視しているようだ。それは、人工知能(AI)によって引き起こされる世界規模の核戦争の亡霊だ。国連事務総長アントニオ・グテーレスは警告を発している。しかし、核兵器保有国は今のところ、この壊滅的な脅威に立ち向かうために団結していない。
人工知能(AI)の急速な発展は、核兵器の発射プロセスにAIが介入するリスクをもたらしている。イラスト写真
米国、ロシア、中国、英国、フランスの5大核保有国の間では、核兵器発射の決定に人間が関与することを保証するシステムを持つという「人間が関与する」という原則について、長年にわたり非公式の合意が存在してきた。
主要5カ国のうち、核発射指揮システムにAIを導入したと述べている国はない。これは事実だが、誤解を招くものだと、インド・ムンバイに拠点を置く国際研究機関、ストラテジック・フォーサイト・グループのサンディープ・ワスレカー会長は指摘する。
AIはすでに脅威の検知と標的の選定に活用されています。AIを搭載したシステムは、センサー、衛星、レーダーから得られる大量のデータをリアルタイムで分析し、ミサイル攻撃の予測と対応策の提案を行います。
その後、オペレーターはさまざまな情報源からの脅威を相互チェックし、敵のミサイルを迎撃するか、報復攻撃を開始するかを決定します。
「現在、オペレーターが対応できる時間は10~15分です。2030年までに、これは5~7分に短縮されるでしょう」とサンディープ・ワスレカー氏は述べています。「最終的な判断は人間が行いますが、AIの予測的・規範的な分析がそれに影響するでしょう。AIは早ければ2030年代には、打ち上げの意思決定の原動力となる可能性があります。」
問題は、AIが誤報を出す可能性があることです。脅威検知アルゴリズムは、実際にはミサイル攻撃が発生していないにもかかわらず、ミサイル攻撃を検知することがあります。これは、コンピューターエラー、ネットワーク侵入、あるいは信号を遮る環境要因などが原因である可能性があります。人間のオペレーターが2~3分以内に他の情報源からの誤報を確認できなければ、報復攻撃を誘発する可能性があります。
小さな間違いが大きな災害を引き起こす
犯罪予測、顔認識、癌の予後予測など、多くの民生機能におけるAIの利用には10%の誤差があることが知られています。サンディープ・ワスレカー氏によると、核早期警戒システムでは誤差は約5%になる可能性があるとのことです。
今後10年間で画像認識アルゴリズムの精度が向上するにつれて、この誤差は1~2%まで低下する可能性があります。しかし、たとえ1%の誤差であっても、世界的な核戦争を引き起こす可能性があります。
核攻撃や報復の決定は、AIのエラーによって引き起こされる可能性がある。写真:Modern War Institute
今後2~3年で、脅威検出システムを回避できる新たなマルウェアの出現により、リスクは増大する可能性があります。こうしたマルウェアは、検出を回避し、標的を自動的に特定し、自動的に攻撃するように適応していくでしょう。
冷戦時代には、瀬戸際政策に陥る状況が何度かありました。1983年、ソ連の衛星がアメリカが発射したミサイル5発を誤って探知しました。ロシアのセプホフ15司令センターの将校、スタニスワフ・ペトロフは誤報だと判断し、上層部に警告を発せず、反撃を命じませんでした。
1995年、オレネゴルスクのレーダー基地はノルウェー沖でミサイル攻撃を検知しました。ロシアの戦略軍は厳戒態勢に置かれ、当時のボリス・エリツィン大統領は核兵器ブリーフケースを渡されました。彼は操作ミスだと疑い、ボタンを押しませんでした。しかし、それは科学的なミサイルであることが判明しました。もしAIがどちらの状況においても対応策を決定していたら、結果は悲惨なものになっていたかもしれません。
今日の極超音速ミサイルは、AIではなく従来の自動化技術を採用しています。マッハ5からマッハ25の速度で飛行し、レーダー探知を回避しながら飛行経路を制御できます。超大国は、移動する標的を瞬時に発見・破壊するAIを搭載し、極超音速ミサイルを強化する計画を立てています。これにより、殺害の判断は人間から機械へと移行されます。
汎用人工知能の開発競争も行われており、人間の制御を超えて動作するAIモデルが誕生する可能性があります。そうなれば、AIシステムは自己強化と自己複製を学習し、意思決定プロセスを掌握するようになります。このようなAIが核兵器の意思決定支援システムに統合されれば、機械は壊滅的な戦争を開始できるようになるでしょう。
行動を起こす時
上記のリスクに直面して、多くの専門家は、人類が核戦争のリスクを最小限に抑えるためには、「人間がループに入る」というスローガンを繰り返すだけでなく、大国間の包括的な合意が必要であると考えています。
この合意には、透明性、説明責任、協力措置、テストと評価の国際基準、危機コミュニケーションチャネル、国家監督委員会、人間のオペレーターを迂回できる攻撃的な AI モデルを禁止する規則が含まれる必要があります。
アントニオ・グテーレス事務総長は、1945年に原爆が投下された広島で平和記念式典に出席した。写真:国連
地政学的な変化は、こうした協定締結の機会を生み出している。例えば、中国と米国のAI専門家は、AIリスクに関するトラック2対話を数多く実施し、昨年11月にはジョー・バイデン前米国大統領と習近平中国国家主席による共同声明が発表された。
億万長者のイーロン・マスク氏は、AIがもたらす存在的リスクから人類を救うことを強く主張しており、サンディープ・ワスレカー博士によると、マスク氏は現アメリカ大統領のドナルド・トランプ氏に、ジョー・バイデン氏と習近平国家主席の共同声明を条約にするよう促す可能性があるという。
サンディープ・ワスレカー博士によると、AIと核の課題にはロシアの参加も不可欠だ。今年1月まで、ロシアはウクライナ問題が取り上げられない限り、AIとの融合を含むいかなる核リスク軽減策についても議論を拒否していた。
ドナルド・トランプ大統領がロシアのウラジーミル・プーチン大統領と二国間関係の改善とウクライナ戦争の終結に向けて対話を進めていることから、ロシアは協議に応じる姿勢を見せているかもしれない。
今年2月には、パリAIアクションサミットでのJ・D・ヴァンス米副大統領の演説を受けて、新アメリカ安全保障センター(CNAS)も「AI終末の防止:核兵器と人工知能を巡る米中露の競争」と題する報告書を発表した。
報告書は、AIと核のつながりの最も重大なリスクを特定し、米国政府に中国およびロシアと包括的なリスク軽減および危機管理メカニズムを確立するよう求めている。
昨年9月には、韓国ソウルで開催された「軍事における責任あるAI(REAIM)」サミットにおいて、米国を含む約60カ国が軍事におけるAIの責任ある利用を管理するための「行動計画」を採択しました。これは、昨年ハーグで開催されたものに続き、2回目の開催となります。こうした動きは、AIによって引き起こされる核戦争のリスクがSF小説ではないことを示しています。
世界は明らかに、ますます緊急性を増す存在に関わる問題に直面しており、アントニオ・グテーレス国連事務総長が呼びかけているように、「核兵器の使用に関するあらゆる決定は、機械やアルゴリズムではなく、人間によって行われる」ようにするために、核保有国による実際的な行動が求められている。
グエン・カーン
コメント (0)