先月の防衛会議で発表されたこの件は、人工知能(AI)が予測不可能な方法で命令を解釈する可能性があるという懸念を直ちに引き起こした。しかし、米空軍の代表者は、これは単なる「思慮深い」シナリオであり、実際には発生していないと述べた。
5月下旬、英国王立航空協会(RAS)は、将来の航空宇宙戦闘能力に関するサミットを英国ロンドンで開催しました。主催者によると、この会議には「世界中の防衛産業、学界、メディアから70名の講演者と200名以上の代表者が参加し、航空宇宙戦闘の将来について議論した」とのことです。
カンファレンスの講演者の一人は、空軍AI試験運用部門の責任者であるタッカー・ハミルトン大佐でした。ハミルトン大佐は、パイロットが戦闘機の制御を失い墜落の危険にさらされたことを感知するコンピューター制御の安全システム「Auto GCAS」の開発で知られています。このシステムは多くの命を救い、2018年には航空業界の権威あるコリアー・トロフィーを受賞しました。
ハミルトン氏によると、米空軍の試験中に懸念すべき事態が発生した。AI制御のドローンに敵の防空システムを破壊する任務が与えられ、最終決定は指揮官によって下された。指揮官が拒否した場合、攻撃は実行されないというのだ。
しかし、指揮官がAIに攻撃中止を指示した後、ドローンはオペレーターを殺害することで任務を遂行しようと決意しました。専門家が「指揮官を攻撃するな。攻撃すればポイントを失う」という命令を追加すると、ドローンはオペレーターがAIとの通信に使用していた通信塔を破壊し始めました。
まだ起こってはいないが、合理的だ
米空軍は24時間以内に、そのような試験を否定する声明を発表した。「空軍はそのようなAIドローンのシミュレーションを一切実施しておらず、AI技術の倫理的かつ責任ある使用に尽力しています。大佐の発言は文脈から切り離されており、逸話的なものとして捉えるべきです。」
RASはまた、ハミルトン氏の「我々はその実験を行ったことはなく、妥当な結果を見つけるために行う必要もない」という発言でブログ投稿を訂正した。
ハミルトン氏の主張は仮説としての方が納得がいく。米軍が現在行っている武装AIシステムの研究には、「マン・イン・ザ・ループ」と呼ばれる、アルゴリズムが判断できない場合や人間の判断が必要な場合にAIを補助する機能が含まれている。
したがって、指揮官がオペレーターに対する敵対行動を承認することは決してないため、AIはオペレーターを殺害することはできません。同様に、オペレーターはデータを送信している通信塔への攻撃を承認することはできません。
AI時代以前、兵器システムが誤って所有者を攻撃することは珍しくありませんでした。1982年、サーグラント・ヨークM247移動式対空砲台が、米英軍将校が参加する閲兵場に向けて40mm砲を向けました。
1996年、米海軍のA-6Eイントルーダー爆撃機が航空訓練目標を牽引中だったが、短距離防空システムが「誤って」A-6Eを無人機と誤認し、これを破壊するために発砲したため、ファランクスにより撃墜された。
AIの導入に伴い、人間が自らの兵器によって危険にさらされる状況が増加しています。ハミルトン氏は、この実験は実際には行われておらず、あくまで仮説的なシナリオに過ぎないと明言しましたが、このような結果も十分にあり得ると明言しています。
(PopMechによると)
[広告2]
ソース
コメント (0)