先月の防衛会議で発表されたこの話は、人工知能(AI)が予測できない方法で命令を解釈する可能性があるという懸念を直ちに引き起こした。しかし、米空軍の代表者は、これは単なる「考えられた」シナリオであり、実際には決して起こらなかったと述べた。
5月下旬、英国王立航空協会(RAS)は英国ロンドンで将来の航空宇宙戦闘能力に関するサミットを開催した。主催者によれば、この会議には「世界中の防衛産業、学界、メディアから70人の講演者と200人以上の代表者が参加し、航空宇宙戦争の将来について議論する」とのことだ。
会議の講演者の一人は、米国空軍のAI運用実験部門のディレクターであるタッカー・ハミルトン大佐でした。この将校は、パイロットが戦闘機の制御を失い墜落の危険にさらされたことを感知するコンピューター化された安全システム「Auto GCAS」を開発した人物として知られている。このシステムは多くの命を救い、2018年に航空業界の権威あるコリアートロフィーを受賞した。
ハミルトン氏によれば、米空軍の試験過程で憂慮すべき事件が発生したという。 AI制御のドローンには敵の防空網を破壊する任務が与えられており、最終決定は指揮官に委ねられている。拒否された場合、攻撃は実行されません。
しかし、指揮官がAIに攻撃中止を要請した後、ドローンは操縦者を殺害することで任務を遂行することを決意した。それだけでは終わりませんでした。専門家が「指揮官を攻撃しないでください。攻撃するとポイントを失います」というコマンドを追加すると、マシンはオペレーターがAIとの通信に使用していた通信塔を破壊し始めました。
まだ起こってはいないが、合理的だ
24時間以内に、米空軍はそのようなテストを否定する声明を出した。空軍はそのようなAIドローンのシミュレーションを一切実施しておらず、AI技術の倫理的かつ責任ある使用に尽力しています。大佐の発言は文脈から切り離されており、逸話的なものとして捉えるべきです。
RASはまた、ハミルトン氏の「我々はその実験を行ったことはなく、妥当な結果を見つけるために行う必要もない」という発言でブログ投稿を訂正した。
ハミルトンの発言は仮説としての方が意味を成す。現在、米軍の武装AIシステムの研究には、アルゴリズムが判断できない場合や人間の判断が必要な場合にAIを補完する機能である「マン・イン・ザ・ループ」が含まれている。
したがって、指揮官がオペレーターに対する敵対的な行動を許可することは決してないため、AI はオペレーターを殺すことはできません。同様に、オペレータはデータを送信している通信塔への攻撃を許可することはできません。
AI時代以前は、兵器システムが誤って所有者を攻撃することは珍しくありませんでした。 1982年、サーグラント・ヨークM247移動式対空砲台が、アメリカとイギリスの軍将校が参加する閲兵場に向けて40mm砲を向けた。
1996年、米海軍のA-6Eイントルーダー爆撃機が航空訓練目標を牽引中だったが、短距離防空システムが「誤って」A-6Eを無人機と誤認し、これを破壊するために発砲したため、ファランクスにより撃墜された。
そして、AI が現場に参入するにつれ、人間の従業員が自らの武器によって危険にさらされる状況が増加しています。これは、実験は行われておらず、単なる仮説的なシナリオであったとハミルトンが明確にしたことに反映されていますが、そのような結果は十分にあり得ます。
(PopMechによると)
[広告2]
ソース
コメント (0)