Złożony obraz wykorzystania robotów zabójców opartych na sztucznej inteligencji
Umożliwienie sztucznej inteligencji kontrolowania systemów uzbrojenia mogłoby oznaczać identyfikację, atak i zniszczenie celów bez ingerencji człowieka. Rodzi to poważne wątpliwości prawne i etyczne.
Podkreślając powagę sytuacji, austriacki minister spraw zagranicznych Alexander Schallenberg powiedział: „To jest moment Oppenheimera naszego pokolenia”.
Roboty i broń wykorzystująca sztuczną inteligencję zaczynają być szeroko stosowane w armiach wielu krajów. Zdjęcie: Forbes
Rzeczywiście, w jakim stopniu „dżin wydostał się z butelki” stało się palącym pytaniem, ponieważ drony i sztuczna inteligencja (AI) stały się szeroko stosowane przez armie na całym świecie .
„Wykorzystanie dronów we współczesnych konfliktach przez Rosję i Ukrainę, użycie dronów przez Stany Zjednoczone w ukierunkowanych operacjach uderzeniowych w Afganistanie i Pakistanie, a także, jak ujawniono niedawno w zeszłym miesiącu, w ramach izraelskiego programu Lavender, pokazują, w jaki sposób możliwości przetwarzania informacji dzięki sztucznej inteligencji są aktywnie wykorzystywane przez armie całego świata w celu zwiększenia ich siły ofensywnej” — powiedział Wilson Jones, analityk ds. obronności w GlobalData.
Dochodzenia przeprowadzone przez londyński Urząd Dziennikarstwa Śledczego Wojny wykazały, że system sztucznej inteligencji Lavender izraelskiej armii osiągnął 90% skuteczność w identyfikowaniu osób powiązanych z Hamasem, co oznacza, że 10% z nich nie miało z nim nic wspólnego. W rezultacie ginęli cywile z powodu możliwości identyfikacji i podejmowania decyzji przez sztuczną inteligencję.
Zagrożenie dla bezpieczeństwa globalnego
Wykorzystanie sztucznej inteligencji w ten sposób podkreśla potrzebę zarządzania technologią w systemach uzbrojenia.
„Wykorzystanie sztucznej inteligencji w systemach uzbrojenia, zwłaszcza w celu namierzania celów, rodzi fundamentalne pytania o nas – ludzi – i nasz stosunek do wojny, a konkretnie o nasze założenia dotyczące tego, jak moglibyśmy używać przemocy w konfliktach zbrojnych” – wyjaśnił dr Alexander Blanchard, starszy pracownik naukowy programu zarządzania sztuczną inteligencją w Sztokholmskim Międzynarodowym Instytucie Badań nad Pokojem (SIPRI), niezależnej grupie badawczej zajmującej się bezpieczeństwem globalnym, w rozmowie z Army Technology.
Systemy sztucznej inteligencji, używane w chaotycznych środowiskach, mogą zachowywać się nieprzewidywalnie i nie być w stanie precyzyjnie identyfikować celów. Zdjęcie: MES
„Czy sztuczna inteligencja zmienia sposób, w jaki wojsko wybiera cele i stosuje wobec nich siłę? Te zmiany z kolei rodzą szereg pytań prawnych, etycznych i operacyjnych. Największe obawy dotyczą kwestii humanitarnych” – dodał dr Blanchard.
„Wiele osób obawia się, że w zależności od sposobu projektowania i użytkowania systemów autonomicznych, mogą one narażać ludność cywilną i inne osoby chronione prawem międzynarodowym na większe ryzyko” – wyjaśnił ekspert SIPRI. „Dzieje się tak, ponieważ systemy sztucznej inteligencji, zwłaszcza używane w chaotycznych środowiskach, mogą działać nieprzewidywalnie i mogą nie być w stanie precyzyjnie identyfikować celów i atakować ludność cywilną lub identyfikować żołnierzy, którzy nie biorą udziału w walce”.
Rozwijając tę kwestię, analityk ds. obronności w GlobalData, Wilson Jones, zauważył, że sposób ustalania winy może budzić wątpliwości.
„W obecnym prawie wojennym istnieje koncepcja odpowiedzialności dowództwa” – powiedział pan Jones. „Oznacza to, że oficer, generał lub inny dowódca ponosi prawną odpowiedzialność za działania podległych mu żołnierzy. Jeśli żołnierze dopuszczą się zbrodni wojennych, oficer ponosi odpowiedzialność, nawet jeśli nie wydał rozkazów; to na nim spoczywa ciężar dowodu, że dołożył wszelkich starań, aby zapobiec zbrodniom wojennym”.
„W przypadku systemów AI to komplikuje sprawę. Czy odpowiedzialny jest technik IT? Projektant systemów? Nie jest to jasne. Jeśli nie jest to jasne, stwarza to ryzyko moralne, jeśli podmioty uważają, że ich działania nie są chronione przez obowiązujące prawo” – podkreślił pan Jones.
Żołnierz USA patroluje teren z psem-robotem. Zdjęcie: Forbes
Konwencje dotyczące kontroli zbrojeń. Kilka ważnych porozumień międzynarodowych ogranicza i reguluje niektóre rodzaje użycia broni. Istnieją zakazy broni chemicznej, traktaty o nierozprzestrzenianiu broni jądrowej oraz Konwencja o niektórych rodzajach broni konwencjonalnej, która zakazuje lub ogranicza użycie określonej broni uznawanej za powodującą niepotrzebne lub nieuzasadnione cierpienie stron walczących lub mającą wpływ na ludność cywilną w sposób nieselektywny.
„Kontrola zbrojeń nuklearnych wymagała dziesięcioleci współpracy międzynarodowej i kolejnych traktatów, aby została wdrożona” – wyjaśnia analityk ds. obronności Wilson Jones. „Nawet wtedy kontynuowaliśmy testy w atmosferze aż do lat 90. Głównym powodem sukcesu nierozprzestrzeniania broni jądrowej była współpraca między Stanami Zjednoczonymi a Związkiem Radzieckim w ramach dwubiegunowego porządku świata. Współpraca ta już nie istnieje, a technologia, która tworzy sztuczną inteligencję, jest dla wielu krajów bardziej dostępna niż energetyka jądrowa”.
Wiążący traktat musiałby skłonić wszystkich zainteresowanych graczy do zgodzenia się na nieużywanie narzędzia zwiększającego ich siłę militarną. To raczej się nie powiedzie, ponieważ sztuczna inteligencja może poprawić skuteczność militarną przy minimalnych kosztach finansowych i materiałowych.
Aktualne perspektywy geopolityczne
Chociaż państwa będące członkami Organizacji Narodów Zjednoczonych uznały potrzebę odpowiedzialnego wykorzystania sztucznej inteligencji do celów militarnych, wciąż pozostaje wiele do zrobienia.
„Bez jasnych ram regulacyjnych te roszczenia pozostają w dużej mierze jedynie ambicjami” – powiedziała w rozmowie z Army Technology Laura Petrone, główna analityczka w GlobalData. „Nic dziwnego, że niektóre kraje chcą zachować swoją suwerenność, podejmując decyzje w sprawach obrony wewnętrznej i bezpieczeństwa narodowego, zwłaszcza w obecnym klimacie geopolitycznym”.
Pani Petrone dodała, że ustawa UE o sztucznej inteligencji określa wprawdzie pewne wymogi dotyczące systemów sztucznej inteligencji, nie odnosi się jednak do systemów sztucznej inteligencji wykorzystywanych w celach wojskowych.
„Uważam, że pomimo tego wykluczenia, ustawa o sztucznej inteligencji (AI) stanowi ważny krok w kierunku ustanowienia długo oczekiwanych ram dla zastosowań AI, co mogłoby doprowadzić do pewnego stopnia ujednolicenia odpowiednich standardów w przyszłości” – skomentowała. „Ta jednolitość będzie również ważna dla AI w dziedzinie wojska”.
Nguyen Khanh
Source: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
Komentarz (0)