Складна картина використання роботів-вбивць на базі штучного інтелекту
Дозвіл штучному інтелекту керувати системами озброєння може означати, що цілі будуть ідентифіковані, атаковані та знищені без втручання людини. Це викликає серйозні правові та етичні питання.
Підкреслюючи серйозність ситуації, міністр закордонних справ Австрії Александер Шалленберг сказав: «Це момент Оппенгаймера нашого покоління».
Роботи та зброя з використанням штучного інтелекту починають широко використовуватися в арміях багатьох країн. Фото: Forbes
Дійсно, питання про те, наскільки «джин вирвався з пляшки», стало нагальним, оскільки дрони та штучний інтелект (ШІ) широко використовуються військовими по всьому світу .
«Використання безпілотників у сучасних конфліктах Росією та Україною, використання безпілотників США в цілеспрямованих ударних операціях в Афганістані та Пакистані, а також, як нещодавно було виявлено минулого місяця, в рамках ізраїльської програми «Лаванда», показує, як можливості обробки інформації штучним інтелектом активно використовуються військовими світу для посилення своєї наступальної потужності», – сказав аналітик з питань оборони GlobalData Вілсон Джонс.
Розслідування лондонського Управління воєнної журналістики-розслідувача виявили, що система штучного інтелекту «Лаванда» ізраїльських військових мала 90% точність у виявленні осіб, пов'язаних з ХАМАС, тобто 10% не мали таких зв'язків. Це призвело до загибелі цивільного населення через можливості штучного інтелекту щодо ідентифікації та прийняття рішень.
Загроза глобальній безпеці
Використання штучного інтелекту таким чином підкреслює необхідність управління технологіями в системах озброєння.
«Використання штучного інтелекту в системах озброєння, особливо для цільового призначення, порушує фундаментальні питання про нас – людей – та наше ставлення до війни, а точніше про наші припущення щодо того, як ми можемо застосовувати насильство у збройних конфліктах », – пояснив виданню Army Technology доктор Александр Бланшар, старший науковий співробітник програми «Управління штучним інтелектом» у Стокгольмському міжнародному інституті дослідження проблем миру (SIPRI), незалежній дослідницькій групі, що спеціалізується на глобальній безпеці.
Системи штучного інтелекту, що використовуються в хаотичному середовищі, можуть поводитися непередбачувано та неточно ідентифікувати цілі. Фото: MES
«Чи змінює штучний інтелект спосіб, у який військові обирають цілі та застосовують до них силу? Ці зміни, у свою чергу, викликають низку правових, етичних та операційних питань. Найбільші занепокоєння носять гуманітарний характер», – додав доктор Бланшар.
«Багато хто стурбований тим, що залежно від того, як розроблені та використовуються автономні системи, вони можуть наражати цивільних осіб та інших осіб, захищених міжнародним правом, на більший ризик», – пояснив експерт SIPRI. «Це пояснюється тим, що системи штучного інтелекту, особливо коли вони використовуються в хаотичних умовах, можуть працювати непередбачувано та можуть неточно ідентифікувати цілі та атакувати цивільних осіб, або ідентифікувати комбатантів, які не беруть участі в бойових діях».
Розкриваючи це питання, аналітик оборонного відомства GlobalData Вілсон Джонс зазначив, що питання про визначення вини може бути сумнівним.
«Згідно з чинним законодавством війни, існує поняття відповідальності командування», – сказав пан Джонс. «Це означає, що офіцер, генерал чи інший керівник несе юридичну відповідальність за дії військ під його командуванням. Якщо війська вчиняють воєнні злочини, офіцер несе відповідальність, навіть якщо він не віддавав наказів; на них лежить тягар доказування того, що вони зробили все можливе, щоб запобігти воєнним злочинам».
«З системами штучного інтелекту це ускладнює ситуацію. Чи відповідає ІТ-технік? Системний розробник? Це незрозуміло. Якщо це незрозуміло, це створює моральний ризик, якщо суб’єкти вважають, що їхні дії не захищені чинними законами», – наголосив пан Джонс.
Американський солдат патрулює з роботом-собакою. Фото: Forbes
Конвенції про контроль над озброєннями. Кілька основних міжнародних угод обмежують та регулюють певні види використання зброї. Існують заборони хімічної зброї, договори про нерозповсюдження ядерної зброї та Конвенція про певні види звичайної зброї, яка забороняє або обмежує використання конкретної зброї, що вважається такою, що завдає непотрібних або невиправданих страждань воюючим сторонам або впливає на цивільне населення без розбору.
«Для забезпечення контролю над ядерними озброєннями потрібні були десятиліття міжнародної співпраці та подальших договорів», – пояснює аналітик з питань оборони Вілсон Джонс. «Навіть тоді ми продовжували атмосферні випробування до 1990-х років. Головною причиною успіху нерозповсюдження ядерної зброї була співпраця між Сполученими Штатами та Радянським Союзом у рамках біполярного світового порядку. Цього вже не існує, а технологія, яка створює штучний інтелект, доступніша для багатьох країн, ніж ядерна енергетика».
«Зобов’язувальний договір мав би об’єднати всіх відповідних гравців, щоб вони погодилися не використовувати інструмент, який збільшує їхню військову міць. Це навряд чи спрацює, оскільки штучний інтелект може покращити військову ефективність за мінімальних фінансових та матеріальних витрат».
Поточні геополітичні перспективи
Хоча країни-члени Організації Об'єднаних Націй визнали необхідність відповідального військового використання штучного інтелекту, ще багато роботи попереду.
«Без чіткої регуляторної бази ці твердження залишаються значною мірою амбітними», – сказала виданню Army Technology Лаура Петроне, головний аналітик GlobalData. «Не дивно, що деякі країни хочуть зберегти свій суверенітет під час вирішення питань внутрішньої оборони та національної безпеки, особливо в нинішньому геополітичному кліматі».
Пані Петроне додала, що хоча Закон ЄС про штучний інтелект встановлює деякі вимоги до систем штучного інтелекту, він не стосується систем штучного інтелекту для військових цілей.
«Я вважаю, що, незважаючи на це виключення, Закон про штучний інтелект є важливою спробою створити давно назрілу систему для застосувань штучного інтелекту, що може призвести до певної міри уніфікації відповідних стандартів у майбутньому», – прокоментувала вона. «Ця уніфікація також буде важливою для штучного інтелекту у військовій сфері».
Нгуєн Кхань
Джерело: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
Коментар (0)