Den komplexa bilden av användningen av AI-mördarrobotar
Att låta AI styra vapensystem kan innebära att mål identifieras, attackeras och förstörs utan mänsklig inblandning. Detta väcker allvarliga juridiska och etiska frågor.
Österrikes utrikesminister Alexander Schallenberg underströk situationens allvar och sa: ”Detta är vår generations Oppenheimer-ögonblick.”
Robotar och vapen som använder artificiell intelligens börjar användas i stor utsträckning i många länders arméer. Foto: Forbes
I vilken utsträckning ”anden har undkommit flaskan” har faktiskt blivit en angelägen fråga, i takt med att drönare och artificiell intelligens (AI) har blivit allmänt använda av militärer runt om i världen .
”Användningen av drönare i moderna konflikter av Ryssland och Ukraina, USA:s användning av drönare i riktade attackoperationer i Afghanistan och Pakistan och, som nyligen avslöjades förra månaden, som en del av Israels Lavender-program, visar hur AI:s informationsbehandlingskapacitet aktivt används av världens militärer för att förbättra sin offensiva kraft”, säger försvarsanalytikern Wilson Jones på GlobalData.
Undersökningar utförda av det Londonbaserade Office of War Investigative Journalism visade att den israeliska militärens Lavender AI-system hade en noggrannhet på 90 % när det gällde att identifiera individer med Hamas-kopplingar, vilket innebär att 10 % inte gjorde det. Detta resulterade i civila dödsfall på grund av AI:ns identifierings- och beslutsfattande förmåga.
Ett hot mot den globala säkerheten
Att använda AI på detta sätt betonar behovet av att hantera teknik i vapensystem.
”Användningen av AI i vapensystem, särskilt när den används för målsökande angrepp, väcker grundläggande frågor om oss – människor – och vår relation till krig, och mer specifikt våra antaganden om hur vi kan använda våld i väpnade konflikter ”, förklarade Dr. Alexander Blanchard, seniorforskare i programmet Styrning av artificiell intelligens vid Stockholms internationella fredsforskningsinstitut (SIPRI), en oberoende forskargrupp inriktad på global säkerhet, för Arméteknik.
AI-system kan, när de används i kaotiska miljöer, bete sig oförutsägbart och kan misslyckas med att identifiera mål korrekt. Foto: MES
”Förändrar AI hur militären väljer ut mål och utövar våld mot dem? Dessa förändringar väcker i sin tur en mängd juridiska, etiska och operativa frågor. De största problemen är humanitära”, tillade Dr. Blanchard.
”Många är oroliga för att autonoma system, beroende på hur de utformas och används, kan utsätta civila och andra som skyddas av internationell rätt för större risk att skadas”, förklarade SIPRI-experten. ”Detta beror på att AI-system, särskilt när de används i kaotiska miljöer, kan fungera oförutsägbart och kan misslyckas med att korrekt identifiera mål och attackera civila, eller att identifiera stridande som inte är i strid.”
I en utveckling av frågan noterade försvarsanalytikern Wilson Jones på GlobalData att frågan om hur skuld fastställs kan vara tveksam.
”Enligt gällande krigsrätt finns det ett koncept av befälsansvar”, sade Jones. ”Detta innebär att en officer, general eller annan ledare är juridiskt ansvarig för handlingar utförda av trupper under deras befäl. Om trupper begår krigsförbrytelser är officeren ansvarig även om de inte gav order; bevisbördan ligger på dem att bevisa att de gjorde allt för att förhindra krigsförbrytelser.”
”Med AI-system komplicerar detta saker och ting. Är en IT-tekniker ansvarig? En systemdesigner? Det är inte tydligt. Om det inte är tydligt skapar det en moralisk risk om aktörer tror att deras handlingar inte skyddas av befintliga lagar”, betonade Jones.
En amerikansk soldat patrullerar med en robothund. Foto: Forbes
Vapenkontrollkonventioner Flera viktiga internationella avtal begränsar och reglerar vissa användningsområden för vapen. Det finns förbud mot kemiska vapen, icke-spridningsavtal för kärnvapen och konventionen om vissa konventionella vapen, som förbjuder eller begränsar användningen av specifika vapen som anses orsaka onödigt eller oberättigat lidande för krigförande parter eller drabba civila urskillningslöst.
”Kärnvapenkontroll krävde årtionden av internationellt samarbete och efterföljande fördrag för att upprätthållas”, förklarar försvarsanalytikern Wilson Jones. ”Även då fortsatte vi atmosfäriska tester fram till 1990-talet. En viktig anledning till att icke-spridning av kärnvapen var framgångsrik var samarbetet mellan USA och Sovjetunionen i den bipolära världsordningen. Det existerar inte längre, och tekniken som skapar AI är mer tillgänglig för många länder än kärnkraft.”
”Ett bindande fördrag skulle behöva få alla relevanta aktörer att komma överens om att inte använda ett verktyg som ökar deras militära makt. Det är osannolikt att det fungerar eftersom AI kan förbättra militär effektivitet till minimal ekonomisk och materiell kostnad.”
Nuvarande geopolitiska utsikter
Även om länder i FN har erkänt behovet av ansvarsfull militär användning av AI, finns det fortfarande mycket arbete att göra.
”Utan ett tydligt regelverk förblir dessa påståenden till stor del ambitiösa”, sa Laura Petrone, chefsanalytiker på GlobalData, till Army Technology. ”Det är ingen överraskning att vissa länder vill behålla sin egen suveränitet när de beslutar om frågor som rör inrikes försvar och nationell säkerhet, särskilt i det rådande geopolitiska klimatet.”
Fru Petrone tillade att även om EU:s AI-lag anger vissa krav för AI-system, behandlar den inte AI-system för militära ändamål.
”Jag anser att trots detta undantag är AI-lagen en viktig insats för att etablera ett länge efterlängtat ramverk för AI-tillämpningar, vilket skulle kunna leda till en viss grad av enhetlighet i relevanta standarder i framtiden”, kommenterade hon. ”Denna enhetlighet kommer också att vara viktig för AI inom militären.”
Nguyen Khanh
[annons_2]
Källa: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
Kommentar (0)