AI殺人ロボットの複雑な実態
AI に兵器システムの制御を許可すれば、人間の介入なしに標的を識別し、攻撃し、破壊できるようになる可能性があります。これは重大な法的および倫理的問題を生じさせます。
オーストリアのアレクサンダー・シャレンベルグ外相は事態の重大さを強調し、「これは我々の世代のオッペンハイマーの瞬間だ」と述べた。
人工知能を応用したロボットや兵器が、多くの国の軍隊で広く使用され始めています。写真:フォーブス
実際、ドローンや人工知能(AI)が世界中の軍隊で広く使用されるようになったため、「魔人が瓶から逃げ出した」程度は差し迫った問題となっている。
「ロシアとウクライナによる現代の紛争でのドローンの使用、アフガニスタンとパキスタンでの標的攻撃作戦における米国のドローン使用、そして先月明らかになったイスラエルのラベンダー計画の一環としてのドローン使用は、AIの情報処理能力が世界の軍隊によって攻撃力強化のために積極的に活用されていることを示している」と、グローバルデータの防衛アナリスト、ウィルソン・ジョーンズ氏は述べた。
ロンドンに拠点を置く戦争調査報道局の調査によると、イスラエル軍のラベンダーAIシステムはハマスと関係のある個人を特定する精度が90%で、関係のない個人は10%だった。これにより、AI の識別および意思決定能力により民間人も殺害されることになります。
世界の安全保障への脅威
このように AI を使用すると、兵器システムにおけるテクノロジーの管理の必要性が浮き彫りになります。
「兵器システムにおけるAIの使用、特に標的を定めるために使用される場合、人間とは何か、戦争と人間との関係性、そしてより具体的には武力紛争でどのように暴力を使用するかについての私たちの想定について、根本的な疑問を提起します」と、世界安全保障に焦点を当てた独立研究グループであるストックホルム国際平和研究所(SIPRI)の人工知能ガバナンスプログラムの上級研究員、アレクサンダー・ブランチャード博士は、アーミーテクノロジーに説明した。
AI システムは、混沌とした環境で使用すると予測できない動作をし、ターゲットを正確に識別できない場合があります。写真:MES
「AIは軍隊が標的を選択し、武力を行使する方法をどのように変えるのでしょうか?こうした変化は、法的、倫理的、そして運用上の多くの問題を提起します。最大の懸念は人道的な問題です」とブランチャード博士は付け加えた。
「自律システムの設計や使用方法によっては、民間人や国際法で保護されている人々がより大きな危害を受けるリスクが高まる可能性があると懸念する人が多い」とSIPRIの専門家は説明した。 「これは、AIシステムが、特に混沌とした環境で使用される場合、予測不可能な動作をし、標的を正確に識別できずに民間人を攻撃したり、戦闘に参加していない戦闘員を識別できなかったりする可能性があるためです。」
グローバルデータの弁護アナリストであるウィルソン・ジョーンズ氏は、この問題について詳しく説明し、有罪がどのように決定されるかという問題が疑問視される可能性があると指摘した。
「現在の戦争法では、指揮官責任という概念がある」とジョーンズ氏は語った。 「これは、将校、将軍、その他の指導者が、指揮下にある部隊の行動に対して法的責任を負うことを意味します。部隊が戦争犯罪を犯した場合、たとえ命令を出さなかったとしても、将校は責任を負います。戦争犯罪を阻止するためにできる限りのことをしたという立証責任は、将校にあります。」
「AIシステムの場合、これは事態を複雑にします。責任を負うのはIT技術者なのか、システム設計者なのか? 明確ではありません。明確でない場合、行為者が自分の行動が既存の法律によって保護されていないと考えれば、倫理的な危険が生じます」とジョーンズ氏は強調した。
米兵がロボット犬を連れて巡回している。写真:フォーブス
軍備管理条約 いくつかの主要な国際協定により、特定の兵器の使用が制限および規制されています。化学兵器禁止条約、核拡散防止条約、特定通常兵器使用制限条約があり、これらは交戦国に不必要または不当な苦しみを与えたり、民間人に無差別に影響を及ぼすと考えられる特定の兵器の使用を禁止または制限している。
「核軍備管理には何十年にもわたる国際協力と、それに伴う条約の履行が必要だ」と防衛アナリストのウィルソン・ジョーンズ氏は説明する。 「それでも、1990年代まで大気圏内での実験は続けられました。核拡散が成功した大きな理由は、二極体制における米ソの協力体制でした。しかし、今はもうそのような状況はなくなり、AIを生み出す技術は多くの国にとって原子力よりもアクセスしやすいものになっています。」
「拘束力のある条約を締結するには、関係するすべての関係者をテーブルに招き、軍事力を強化するツールを使用しないことに同意してもらわなければなりません。しかし、AIは最小限の財政的・物質的コストで軍事力を向上させることができるため、この方法はうまくいかない可能性が高いでしょう。」
現在の地政学的見通し
国連加盟国はAIの責任ある軍事利用の必要性を認めているものの、まだやるべきことはたくさんある。
「明確な規制の枠組みがなければ、こうした主張は大部分が願望の域を出ない」とグローバルデータの主席アナリスト、ローラ・ペトローネ氏はアーミー・テクノロジーに語った。 「特に現在の地政学的緊張の状況では、一部の国が国内防衛や国家安全保障の問題を決定する際に自国の主権を保持したいと考えるのは驚くことではない。」
ペトロネ氏は、EUのAI法はAIシステムに関するいくつかの要件を定めているものの、軍事目的のAIシステムについては触れていないと付け加えた。
「こうした除外事項があるにもかかわらず、AI法はAI応用のための長らく待望されていた枠組みを確立するための重要な取り組みであり、将来的には関連基準のある程度の統一化につながる可能性があると私は考えています」と彼女はコメントした。 「この統合は軍事分野のAIにとっても重要になるでしょう。」
グエン・カーン
[広告2]
出典: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
コメント (0)