Risken att förlora kontrollen över AI
Mänskligheten verkar ignorera ett spöke vid horisonten: spöket om ett globalt kärnvapenkrig orsakat av artificiell intelligens (AI). FN:s generalsekreterare António Guterres har varnat för det. Men hittills har kärnvapenstater inte enats för att förhandla om detta katastrofala hot.
Den snabba utvecklingen av artificiell intelligens (AI) innebär en risk att AI kan ingripa i processen för kärnvapenuppskjutning. Illustrationsfoto
Det har länge funnits en informell enighet mellan de fem största kärnvapenmakterna – USA, Ryssland, Kina, Storbritannien och Frankrike – om principen ”människan i loopen”, vilket innebär att varje land har ett system för att säkerställa att människor är involverade i beslutet om att avfyra kärnvapen.
Ingen av de fem stormakterna säger att de har använt AI i sina kärnvapenuppskjutningskommandosystem. Detta är sant men vilseledande, enligt Dr. Sundeep Waslekar, ordförande för Strategic Foresight Group, en internationell forskningsorganisation i Mumbai, Indien.
AI används redan för hotdetektering och målval. AI-drivna system analyserar stora mängder data från sensorer, satelliter och radar i realtid, analyserar inkommande missilattacker och föreslår svarsalternativ.
Operatören dubbelkollar sedan hotet från olika källor och beslutar om de ska avlyssna fiendens missiler eller inleda vedergällningsattacker.
”För närvarande är reaktionstiden tillgänglig för mänskliga operatörer 10 till 15 minuter. År 2030 kommer detta att ha minskats till 5 till 7 minuter”, sa Sundeep Waslekar. ”Medan människor kommer att fatta de slutgiltiga besluten, kommer de att påverkas av AI:s prediktiva och preskriptiva analyser. AI skulle kunna vara drivkraften bakom uppskjutningsbeslut redan på 2030-talet.”
Problemet är att AI kan ha fel. Algoritmer för hotdetektering kan indikera en missilattack när ingen alls sker. Detta kan bero på datorfel, nätverksintrång eller miljöfaktorer som skymmer signalerna. Om inte mänskliga operatörer kan bekräfta falsklarm från andra källor inom två till tre minuter kan de utlösa vedergällningsattacker.
Mycket litet fel, enorm katastrof
Användningen av AI i många civila funktioner, såsom att förutsäga brott, ansiktsigenkänning och cancerprognoser, är känd för att ha en felmarginal på 10 %. I kärnvapensystem för tidig varning kan felmarginalen vara runt 5 %, enligt Sundeep Waslekar.
I takt med att noggrannheten hos bildigenkänningsalgoritmer förbättras under det kommande decenniet kan denna felmarginal minska till 1–2 %. Men även en felmarginal på 1 % kan starta ett globalt kärnvapenkrig.
Beslut att attackera eller vedergälla kärnvapen kan utlösas av AI-fel. Foto: Modern War Institute
Risken kan öka under de kommande två till tre åren i takt med att ny skadlig kod dyker upp som kan kringgå system för hotdetektering. Denna skadliga kod kommer att anpassa sig för att undvika upptäckt, automatiskt identifiera mål och attackera dem.
Det fanns flera situationer där man var på randen till attack under kalla kriget. År 1983 upptäckte en sovjetisk satellit av misstag fem missiler som avfyrats av USA. Stanislaw Petrov, en officer vid Rysslands kommandocentral Sepukhov-15, drog slutsatsen att det var ett falskt alarm och varnade inte sina överordnade så att de kunde inleda en motattack.
År 1995 upptäckte radarstationen i Olenegorsk en missilattack utanför Norges kust. Rysslands strategiska styrkor sattes i högsta beredskap och dåvarande president Boris Jeltsin fick kärnvapenportföljen. Han misstänkte att det var ett misstag och tryckte inte på knappen. Det visade sig vara en vetenskaplig missil. Om AI hade använts för att avgöra responsen i båda situationerna kunde resultaten ha blivit katastrofala.
Hypersoniska missiler använder idag konventionell automatisering istället för AI. De kan färdas i hastigheter mellan Mach 5 och Mach 25, undvika radardetektering och kontrollera sina flygvägar. Supermakterna planerar att förbättra hypersoniska missiler med AI för att omedelbart lokalisera och förstöra rörliga mål, vilket flyttar beslutet att döda från människor till maskiner.
Det pågår också en kapplöpning om att utveckla generell artificiell intelligens, vilket skulle kunna leda till AI-modeller som fungerar bortom mänsklig kontroll. När detta händer kommer AI-system att lära sig att förbättra och replikera sig själva och ta över beslutsprocesser. Om sådan AI integreras i beslutsstödssystem för kärnvapen kommer maskiner att kunna initiera förödande krig.
Dags att agera
Inför ovanstående risker anser många experter att mänskligheten behöver ett omfattande avtal mellan stormakterna för att minimera risken för kärnvapenkrig, vilket går utöver att upprepa slagordet "människor i loopen".
Detta avtal bör omfatta åtgärder för transparens, ansvarsskyldighet och samarbete; internationella standarder för testning och utvärdering; kriskommunikationskanaler; nationella tillsynsmyndigheter; och regler för att förbjuda aggressiva AI-modeller som kan kringgå mänskliga operatörer.
Generalsekreterare António Guterres deltar i en fredsminnesceremoni i Hiroshima, som drabbades av en atombomb 1945. Foto: FN
Geopolitiska förändringar skapar möjligheter för en sådan pakt. Ledande AI-experter från Kina och USA har till exempel deltagit i ett antal dialoger om AI-risker, vilket lett till ett gemensamt uttalande av den tidigare amerikanska presidenten Joe Biden och Kinas president Xi Jinping i november förra året.
Miljardären Elon Musk är en stark förespråkare för behovet av att rädda mänskligheten från de existentiella risker som AI utgör, och han kan komma att uppmana den nuvarande amerikanska presidenten Donald Trump att omvandla det gemensamma uttalandet mellan Joe Biden och Xi Jinping till ett fördrag, enligt Dr. Sundeep Waslekar.
Utmaningen med AI-kärnkraft kräver också Rysslands deltagande, enligt Dr. Sundeep Waslekar. Fram till januari i år vägrade Ryssland att diskutera några åtgärder för att minska kärnkraftsrisker, inklusive konvergens med AI, om inte Ukraina diskuterades.
Med president Donald Trump i dialog med Rysslands president Vladimir Putin för att förbättra de bilaterala relationerna och avsluta kriget i Ukraina, kan Ryssland nu vara öppet för diskussioner.
I februari i år, efter USA:s vicepresident J.D. Vances tal vid Paris AI Action Summit, publicerade Center for a New American Security (CNAS) även en rapport med titeln ”Preventing an AI Doomsday: US-China-Russia Competition at the Nexus of Nuclear Weapons and Artificial Intelligence”.
Rapporten identifierar de mest betydande riskerna med kopplingen mellan AI och kärnkraft och uppmanar den amerikanska administrationen att inrätta en omfattande uppsättning mekanismer för riskreducering och krishantering tillsammans med Kina och Ryssland.
Tidigare, i september förra året, antog cirka 60 länder, inklusive USA, en "handlingsplan" för att hantera ansvarsfull användning av AI inom militären vid Responsible AI in Military Summit (REAIM) som hölls i Seoul, Sydkorea. Detta var den andra konferensen i sitt slag, efter konferensen som hölls i Haag förra året. Dessa rörelser visar att risken för ett kärnvapenkrig initierat av AI inte är science fiction.
Världen står uppenbarligen inför ett alltmer akut existentiellt problem som kräver verkliga åtgärder från kärnvapenmakterna för att säkerställa att ”varje beslut om användningen av kärnvapen fattas av människor, inte maskiner eller algoritmer” – som FN:s generalsekreterare António Guterres har uppmanat till.
Nguyen Khanh










Kommentar (0)