AI殺人ロボットの複雑な実態
AIによる兵器システムの制御を許可すると、人間の介入なしに標的が特定され、攻撃され、破壊される可能性があります。これは深刻な法的および倫理的問題を提起します。
オーストリアのアレクサンダー・シャレンベルグ外相は事態の重大さを強調し、「これは我々の世代のオッペンハイマーの瞬間だ」と述べた。
人工知能を搭載したロボットや兵器が、多くの国の軍隊で広く使用され始めている。写真:フォーブス
実際、ドローンや人工知能(AI)が世界中の軍隊で広く使用されるようになったため、「魔人が瓶から逃げ出した」程度は差し迫った問題となっている。
「ロシアとウクライナによる現代の紛争でのドローンの使用、アフガニスタンとパキスタンでの標的攻撃作戦における米国のドローン使用、そして先月明らかになったイスラエルのラベンダー計画の一環としてのドローン使用は、AIの情報処理能力が世界の軍隊によって攻撃力強化のために積極的に活用されていることを示している」と、グローバルデータの防衛アナリスト、ウィルソン・ジョーンズ氏は述べた。
ロンドンに拠点を置く戦争調査報道局(OICJ)の調査によると、イスラエル軍のラベンダーAIシステムは、ハマスと関係のある人物を特定する精度が90%であり、10%は特定できなかった。このAIの識別能力と意思決定能力によって、民間人も殺害された。
世界の安全保障への脅威
このように AI を使用すると、兵器システムにおけるテクノロジーの管理の必要性が浮き彫りになります。
「兵器システムにおけるAIの使用、特に標的を定めるために使用される場合、人間とは何か、戦争と人間との関係性、さらに具体的には武力紛争でどのように暴力を使用するかについての私たちの想定について、根本的な疑問を提起します」と、世界安全保障に焦点を当てた独立研究グループであるストックホルム国際平和研究所(SIPRI)の人工知能ガバナンスプログラムの上級研究員、アレクサンダー・ブランチャード博士はArmy Technologyに説明した。
AIシステムは、混沌とした環境で使用されると予測不能な動作をし、ターゲットを正確に識別できない可能性があります。写真:MES
「AIは軍隊が標的を選択し、武力を行使する方法をどのように変えるのでしょうか?こうした変化は、法的、倫理的、そして運用上の多くの問題を提起します。最大の懸念は人道的な問題です」とブランチャード博士は付け加えた。
「自律システムの設計と使用方法によっては、民間人や国際法で保護されている人々がより大きな危害を受けるリスクが高まる可能性があると懸念する声が多く上がっています」とSIPRIの専門家は説明した。「AIシステムは、特に混沌とした環境で使用される場合、予測不可能な行動をとる可能性があり、標的を正確に特定できずに民間人を攻撃したり、戦闘に参加していない戦闘員を特定できない可能性があるからです。」
グローバルデータの弁護アナリストであるウィルソン・ジョーンズ氏は、この問題について詳しく説明し、有罪がどのように決定されるかという問題が疑問視される可能性があると指摘した。
「現行の戦争法には、指揮官責任という概念があります」とジョーンズ氏は述べた。「これは、将校、将軍、その他の指揮官が、指揮下にある部隊の行動に対して法的責任を負うことを意味します。部隊が戦争犯罪を犯した場合、たとえ命令を出さなかったとしても、将校は責任を負います。戦争犯罪を防ぐためにできる限りのことをしたという立証責任は、将校にあります。」
「AIシステムの場合、これは事態を複雑にします。責任を負うのはIT技術者なのか、システム設計者なのか? 明確ではありません。明確でない場合、行為者が自分の行動が既存の法律によって保護されていないと考えれば、倫理的な危険が生じます」とジョーンズ氏は強調した。
ロボット犬を連れてパトロールする米兵。写真:フォーブス
軍備管理条約 いくつかの主要な国際協定は、兵器の特定の使用を制限・規制しています。化学兵器禁止条約、核拡散防止条約、そして戦闘員に不必要または不当な苦痛を与える、あるいは民間人に無差別に影響を及ぼすと考えられる特定の兵器の使用を禁止または制限する特定通常兵器使用制限条約などです。
「核軍備管理には数十年にわたる国際協力と、それに続く条約の履行が必要でした」と、防衛アナリストのウィルソン・ジョーンズ氏は説明する。「それでも、我々は1990年代まで大気圏内核実験を続けました。核不拡散が成功した主な理由は、二極世界秩序における米ソの協力でした。しかし、もはやそのような状況は存在せず、AIを可能にする技術は多くの国にとって原子力よりもアクセスしやすいものとなっています。」
「拘束力のある条約を締結するには、関係するすべての関係者をテーブルに招き、軍事力を強化するツールを使用しないことに同意してもらわなければなりません。しかし、AIは最小限の財政的・物質的コストで軍事力を向上させることができるため、この方法はうまくいかない可能性が高いでしょう。」
現在の地政学的見通し
国連加盟国はAIの責任ある軍事利用の必要性を認めているものの、まだやるべきことはたくさんある。
「明確な規制枠組みがなければ、こうした主張は依然として大部分が願望の域を出ません」と、グローバルデータの主席アナリスト、ローラ・ペトローネ氏はアーミー・テクノロジーに語った。「特に地政学的緊張が高まっている現状では、一部の国が国内防衛や国家安全保障に関する決定を下す際に自国の主権を維持したいと考えるのは当然のことです。」
ペトロネ氏は、EUのAI法はAIシステムに関するいくつかの要件を定めているものの、軍事目的のAIシステムについては触れていないと付け加えた。
「こうした除外規定があるにもかかわらず、AI法は、AI応用のための長年の課題であった枠組みを確立するための重要な取り組みであり、将来的には関連基準のある程度の統一化につながる可能性があると考えています」と彼女は述べた。「この統一化は、軍事分野におけるAIにとっても重要となるでしょう。」
グエン・カーン
[広告2]
出典: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
コメント (0)