先月の国防会議で語られたこの話は、人工知能(AI)が予測不可能な方法でコマンドを解釈する可能性があるという懸念を直ちに引き起こした。 しかし、米空軍の代表者は、それは単なる「考えられた」シナリオであり、実際には起こらなかったと述べた。
5月末、英国王立航空協会(RAS)は英国ロンドンで将来の航空・宇宙戦闘能力に関するサミットを開催した。 主催者によると、この会議には「世界中の防衛産業、学界、メディアから70人の講演者と200人以上の代表者が参加し、航空・宇宙戦争の将来について話し合う」予定だという。
カンファレンスの講演者の2018人は、米空軍のAI実験・運用部門のディレクターであるタッカー・ハミルトン大佐だった。 同士官は、パイロットが戦闘機の制御を失い墜落につながることを感知するコンピューター化された安全システム、オートGCASを開発したことで知られている。 このシステムは多くの命を救い、XNUMX 年には航空業界の権威あるコリアー トロフィーを受賞しました。
ハミルトン氏の話によると、米空軍によるテスト中に憂慮すべき出来事が起きたという。 AI 制御の無人機は敵の防空を破壊する任務を負っており、最終決定は指揮官に委ねられています。 拒否された場合、攻撃は許可されません。
しかし、指揮官がAIに攻撃を停止するよう要請した後も、ドローンはオペレーターを殺害して任務を遂行することを決意した。 専門家が「指揮官を攻撃しないでください」というコマンドラインを追加したときも止まらなかった。 そうすればポイントを失います」と告げると、マシンはオペレーターが AI と通信するために使用する通信塔の破壊を開始します。
起こったことはないが合理的
24時間以内に、米空軍はそのような実験の否定を発表した。 「空軍はそのようなAIドローンシミュレーションを一切実施しておらず、AIテクノロジーの倫理的かつ責任ある使用に取り組んでいます。 大佐のコメントは文脈を無視されており、逸話として考えられるべきである。」
RASはまた、「我々はそのテストを実行したことはなく、妥当な結果とみなすために実行する必要もなかった」というハミルトンの声明でブログ投稿を訂正した。
ハミルトンの発言は仮説としてはより理にかなっています。 現在、米軍の武装AIシステムの研究には、アルゴリズムが判断できない場合や人間の判断が必要な場合に備えてAIを補助する機能「マンインザループ」(マンインザループ)が含まれている。
したがって、指揮官はオペレーターに対する敵対行為を決して許可しないため、AIはオペレーターを破壊することはできません。 同様に、オペレータは通信塔のデータ送信攻撃を許すことはできません。
AI 時代以前は、兵器システムが誤って所有者を攻撃することは前代未聞ではありませんでした。 1982年、アメリカとイギリスの軍人が参加したパレードスタンドに移動対空砲台M247サーグラント・ヨークが40mm砲を向けた。
1996年、空中訓練目標を牽引していた米海軍のA-6Eイントルーダー爆撃機がファランクスによって撃墜されたが、この短距離防空システムはA-6Eを無人機と「誤認」し、破壊するために発砲した。
そして、AIの分野への参入により、人間の職員が自身の武器によって危険にさらされる状況が増加しています。 このことは、テストは行われなかったが単なる仮説に過ぎないというハミルトンの訂正に示されているが、そのような結果は完全に合理的である。
(ポップメック調べ)