Risikoen for å miste kontrollen over AI
Menneskeheten ser ut til å ignorere et spøkelse i horisonten: spøkelset om global atomkrig forårsaket av kunstig intelligens (KI). FNs generalsekretær António Guterres har advart om det. Men så langt har ikke atomvåpenstater kommet sammen for å forhandle om denne katastrofale trusselen.
Den raske utviklingen av kunstig intelligens (KI) utgjør en risiko for at KI kan gripe inn i oppskytningsprosessen for atomvåpen. Illustrasjonsfoto
Det har lenge vært en uformell enighet blant de fem største atommaktene – USA, Russland, Kina, Storbritannia og Frankrike – om «mennesket i loopen»-prinsippet, som betyr at hvert land har et system for å sikre at mennesker er involvert i beslutningen om å lansere atomvåpen.
Ingen av de fem stormaktene sier at de har tatt i bruk kunstig intelligens i sine kommandosystemer for atomvåpenoppskytning. Dette er sant, men misvisende, ifølge Dr. Sundeep Waslekar, president i Strategic Foresight Group, en internasjonal forskningsorganisasjon i Mumbai, India.
AI brukes allerede til trusseldeteksjon og målvalg. AI-drevne systemer analyserer store mengder data fra sensorer, satellitter og radarer i sanntid, analyserer innkommende missilangrep og foreslår responsalternativer.
Operatøren kryssjekker deretter trusselen fra forskjellige kilder og bestemmer seg for om de skal avskjære fiendens missiler eller iverksette gjengjeldelsesangrep.
«For øyeblikket er reaksjonstiden tilgjengelig for menneskelige operatører 10 til 15 minutter. Innen 2030 vil dette være redusert til 5 til 7 minutter», sa Sundeep Waslekar. «Mens mennesker vil ta de endelige avgjørelsene, vil de bli påvirket av AIs prediktive og forskrivende analyser. AI kan være drivkraften bak oppskytningsbeslutninger allerede på 2030-tallet.»
Problemet er at AI kan ta feil. Trusseldeteksjonsalgoritmer kan indikere et missilangrep når det ikke skjer noe. Dette kan skyldes datafeil, nettverksinnbrudd eller miljøfaktorer som skjuler signalene. Med mindre menneskelige operatører kan bekrefte falske alarmer fra andre kilder innen to til tre minutter, kan de utløse gjengjeldelsesangrep.
Svært liten feil, stor katastrofe
Bruk av kunstig intelligens i mange sivile funksjoner, som forutsi kriminalitet, ansiktsgjenkjenning og kreftprognose, er kjent for å ha en feilmargin på 10 %. I kjernefysiske tidligvarslingssystemer kan feilmarginen være rundt 5 %, ifølge Sundeep Waslekar.
Etter hvert som nøyaktigheten til bildegjenkjenningsalgoritmer forbedres i løpet av det neste tiåret, kan denne feilmarginen falle til 1–2 %. Men selv en feilmargin på 1 % kan starte en global atomkrig.
Beslutninger om å angripe eller gjengjelde atomvåpen kan utløses av AI-feil. Foto: Modern War Institute
Risikoen kan øke i løpet av de neste to til tre årene etter hvert som ny skadelig programvare dukker opp som er i stand til å unngå trusseldeteksjonssystemer. Denne skadelige programvaren vil tilpasse seg for å unngå oppdagelse, automatisk identifisere mål og angripe dem.
Det var flere «brinkmanship»-situasjoner under den kalde krigen. I 1983 oppdaget en sovjetisk satellitt feilaktig fem missiler skutt opp av USA. Stanislaw Petrov, en offiser ved Russlands Sepukhov-15 kommandosentral, konkluderte med at det var falsk alarm og varslet ikke sine overordnede slik at de kunne sette i gang et motangrep.
I 1995 oppdaget radarstasjonen Olenegorsk et missilangrep utenfor kysten av Norge. Russlands strategiske styrker ble satt i høy beredskap, og daværende president Boris Jeltsin fikk utlevert atomkofferten. Han mistenkte at det var en feil og trykket ikke på knappen. Det viste seg å være et vitenskapelig missil. Hvis kunstig intelligens ble brukt til å bestemme responsen i begge situasjoner, kunne resultatene ha vært katastrofale.
Hypersoniske missiler bruker i dag konvensjonell automatisering i stedet for kunstig intelligens. De kan bevege seg i hastigheter mellom Mach 5 og Mach 25, unngå radardeteksjon og kontrollere flyvebanene sine. Supermaktene planlegger å forbedre hypersoniske missiler med kunstig intelligens for umiddelbart å finne og ødelegge bevegelige mål, og dermed flytte beslutningen om å drepe fra mennesker til maskiner.
Det er også et kappløp om å utvikle generell kunstig intelligens, noe som kan føre til AI-modeller som opererer utenfor menneskelig kontroll. Når dette skjer, vil AI-systemer lære å forbedre og replikere seg selv, og ta over beslutningsprosesser. Hvis slik AI integreres i beslutningsstøttesystemer for atomvåpen, vil maskiner kunne starte ødeleggende kriger.
Tid for å handle
Stilt overfor de ovennevnte risikoene mener mange eksperter at menneskeheten trenger en omfattende avtale mellom stormaktene for å minimere risikoen for atomkrig, som går lenger enn å gjenta slagordet «mennesker i loopen».
Denne avtalen bør omfatte tiltak for åpenhet, ansvarlighet og samarbeid; internasjonale standarder for testing og evaluering; krisekommunikasjonskanaler; nasjonale tilsynsstyrer; og regler for å forby aggressive AI-modeller som er i stand til å omgå menneskelige operatører.
Generalsekretær António Guterres deltar på en fredsminneseremoni i Hiroshima, som ble truffet av en atombombe i 1945. Foto: FN
Geopolitiske endringer skaper en mulighet for en slik pakt. Ledende AI-eksperter fra Kina og USA har for eksempel deltatt i en rekke dialoger om AI-risikoer, noe som har ført til en felles uttalelse fra tidligere USAs president Joe Biden og Kinas president Xi Jinping i november i fjor.
Milliardæren Elon Musk er en sterk forkjemper for behovet for å redde menneskeheten fra de eksistensielle risikoene som AI utgjør, og han kan oppfordre den nåværende amerikanske presidenten Donald Trump til å gjøre den felles uttalelsen mellom Joe Biden og Xi Jinping om til en traktat, ifølge Dr. Sundeep Waslekar.
Utfordringen med KI og kjernekraft krever også Russlands deltakelse, ifølge Dr. Sundeep Waslekar. Frem til januar i år nektet Russland å diskutere noen tiltak for å redusere atomrisiko, inkludert konvergens med KI, med mindre Ukraina ble diskutert.
Nå som president Donald Trump er i dialog med Russlands president Vladimir Putin for å forbedre de bilaterale forbindelsene og avslutte krigen i Ukraina, kan Russland nå være åpen for diskusjoner.
I februar i år, etter USAs visepresident JD Vances tale på Paris AI Action Summit, publiserte Center for a New American Security (CNAS) også en rapport med tittelen «Preventing an AI Doomsday: US-China-Russland Competition at the Nexus of Nuclear Weapons and Artificial Intelligence».
Rapporten identifiserer de viktigste risikoene ved forbindelsen mellom kunstig intelligens og atomvåpen, og oppfordrer den amerikanske administrasjonen til å etablere et omfattende sett med mekanismer for risikoredusering og krisehåndtering sammen med Kina og Russland.
Tidligere, i september i fjor, vedtok rundt 60 land, inkludert USA, en «handlingsplan» for å håndtere ansvarlig bruk av AI i militæret på Responsible AI in Military Summit (REAIM) som ble holdt i Seoul, Sør-Korea. Dette var den andre konferansen av sitt slag, etter konferansen som ble holdt i Haag i fjor. Disse bevegelsene viser at risikoen for en atomkrig initiert av AI ikke er science fiction.
Verden står tydeligvis overfor et stadig mer presserende eksistensielt problem som krever reell handling fra atommaktene for å sikre at «enhver beslutning om bruk av atomvåpen tas av mennesker, ikke maskiner eller algoritmer» – slik FNs generalsekretær António Guterres har etterlyst.
Nguyen Khanh










Kommentar (0)