中国人民解放軍(PLA)は最近、戦場での意思決定において人工知能(AI)が人間に取って代わることはできないと警告した。
AIのブラックボックス性に起因するエラーを防ぐため、最終的な決定は人間の指揮官に委ねられます。(出典:Shutterstock) |
2024年12月31日付の人民解放軍報に掲載された記事には、「AIは意思決定者と連携して指揮の効率を最適化し、人間に取って代わるのではなく、人間を補強する必要がある」と記されている。
AIはデータ分析、シミュレーション、計画を通じて人間の能力を強化するために使用できるが、人間の役割を置き換えることはできない、と記事は述べている。
「AIは発展しても、人間の判断によって導かれるツールであり続け、説明責任を確保する。創造性と戦略的適応性は、軍事的意思決定において依然として最優先事項である」と記事は述べている。
記事によると、人間の自律性と創造性は戦場において不可欠な要素である。指揮官としての人間は状況に動的に対応し、敵の弱点を突くことができるが、AIは予め定められたアルゴリズムの境界内で動作し、その技術による対応は独創性に欠けることが多い。
中国人民解放軍は、「人間が計画し、AIが実行する」というモデルを提案しており、人間による監視の要素を維持しながら、指揮官が策定した戦略と戦術をテクノロジーを使って実行する。
しかし、「AIのブラックボックスの性質から生じるエラーを防ぐために、最終決定は人間の指揮官に委ねられる」。
中国人民解放軍は、状況に応じて柔軟に対応できるよう計画を調整できる人間の指揮官とは異なり、テクノロジーのもう一つの弱点は、下した決定に対して責任を取ることができないことだと考えている。
記事はまた、自動化されたミサイル防衛システムなどの高度な装備でさえ、説明責任を果たすために最終的な決定を下すのに人間のオペレーターに頼ることが多いと述べている。
中国は軍事におけるAIの使用規制を強く主張しており、これまでにもこの問題に関する文書を国連に提出し、「人間による技術の制御」の必要性を強調している。
中国の習近平国家主席は技術管理の必要性を強調しており、2カ月前にペルーで行われた米国のジョー・バイデン大統領との直近の会談では、両国は「核兵器の使用方法はAIではなく人間が決定すべきだ」と合意した。
国防総省が先月発表した中国軍に関する最新の年次報告書によると、人民解放軍は人間と機械の協力を推進しており、2030年までに「アルゴリズム戦争」と「ネットワーク中心の戦争」を目指しているという。
報告書は、人民解放軍が自律走行車、予知保全、自動目標認識、潜水艦ドローンに多額の投資を行っていることを指摘している。同時に、人民解放軍はドローン、画像認識、インテリジェントな意思決定といった分野における民生用AIイニシアチブの活用も検討している。
米国もこの技術の活用を検討している。先月、国防総省のデジタル・AI担当責任者であるラダ・プラム氏は、この技術を戦闘作戦に統合する計画の詳細を明らかにし、「戦闘員のリアルタイムのニーズを支援するために高度なAIを導入する初の大規模な取り組み」と表現した。
米国による中国、ロシア、イラン、北朝鮮などの「敵対国」からのこの技術の取得は「加速しており、国家安全保障に重大なリスクをもたらしている」と彼女は警告した。
[広告2]
ソース
コメント (0)