Vietnam.vn - Nền tảng quảng bá Việt Nam

Het risico dat AI een nucleaire oorlog ontketent, is geen sciencefiction

(CLO) Een nucleaire oorlog geïnitieerd door AI klinkt als iets uit een sciencefictionfilm. Maar veel vooraanstaande wetenschappers en politici ter wereld beweren van niet.

Công LuậnCông Luận23/03/2025

Het risico om de controle over AI te verliezen

De mensheid lijkt een spook aan de horizon te negeren: het spook van een wereldwijde nucleaire oorlog, veroorzaakt door kunstmatige intelligentie (AI). VN-secretaris-generaal Antonio Guterres heeft ervoor gewaarschuwd. Maar tot nu toe hebben landen met kernwapens zich niet verenigd om deze catastrofale dreiging het hoofd te bieden.

Het gevaar van een kernoorlog is geen mythe.

De snelle ontwikkeling van kunstmatige intelligentie (AI) brengt het risico met zich mee dat AI kan ingrijpen in het lanceringsproces van kernwapens. Illustratiefoto

Er bestaat al lange tijd informele consensus tussen de vijf grootste kernmachten – de VS, Rusland, China, het VK en Frankrijk – over het principe van de ‘menselijke betrokkenheid’, wat betekent dat elk land over een systeem beschikt om te garanderen dat mensen betrokken zijn bij de beslissing om kernwapens af te vuren.

Geen van de vijf mogendheden beweert AI te hebben ingezet in hun nucleaire lanceringscommandosystemen. Dit is waar, maar misleidend, aldus Dr. Sundeep Waslekar, president van Strategic Foresight Group, een internationale onderzoeksorganisatie in Mumbai, India.

AI wordt al gebruikt voor dreigingsdetectie en doelwitselectie. AI-gestuurde systemen analyseren grote hoeveelheden data van sensoren, satellieten en radars in realtime, analyseren inkomende raketaanvallen en suggereren reactiemogelijkheden.

Vervolgens controleert de operator de dreiging vanuit verschillende bronnen en beslist of hij vijandelijke raketten moet onderscheppen of een tegenaanval moet uitvoeren.

"Momenteel bedraagt ​​de reactietijd voor menselijke operators 10 tot 15 minuten. Tegen 2030 zal dit teruggebracht zijn tot 5 tot 7 minuten", aldus Sundeep Waslekar. "Hoewel mensen de uiteindelijke beslissingen zullen nemen, zullen ze beïnvloed worden door de voorspellende en prescriptieve analyses van AI. AI zou al in de jaren 2030 de drijvende kracht achter lanceringsbeslissingen kunnen zijn."

Het probleem is dat AI het mis kan hebben. Algoritmes voor dreigingsdetectie kunnen een raketaanval signaleren terwijl er geen plaatsvindt. Dit kan te wijten zijn aan computerfouten, netwerkinbraken of omgevingsfactoren die de signalen verduisteren. Tenzij menselijke operators valse alarmen van andere bronnen binnen twee tot drie minuten kunnen bevestigen, zouden ze vergeldingsaanvallen kunnen activeren.

Zeer kleine fout, grote ramp

Het gebruik van AI in veel civiele functies, zoals het voorspellen van criminaliteit, gezichtsherkenning en het voorspellen van kanker, heeft een foutmarge van 10%. In nucleaire systemen voor vroegtijdige waarschuwing kan de foutmarge rond de 5% liggen, aldus Sundeep Waslekar.

Naarmate de nauwkeurigheid van beeldherkenningsalgoritmen de komende tien jaar verbetert, zou deze foutmarge kunnen dalen tot 1-2%. Maar zelfs een foutmarge van 1% zou een wereldwijde nucleaire oorlog kunnen ontketenen.

Het gevaar van een kernoorlog is geen mythe.

Beslissingen om kernwapens aan te vallen of ertegen te vergelden, kunnen worden veroorzaakt door AI-fouten. Foto: Modern War Institute

Het risico kan de komende twee tot drie jaar toenemen naarmate er nieuwe malware opduikt die detectiesystemen voor bedreigingen kan omzeilen. Deze malware zal zich aanpassen om detectie te vermijden, automatisch doelen te identificeren en deze aan te vallen.

Er waren verschillende situaties van "brinkmanship" tijdens de Koude Oorlog. In 1983 detecteerde een Sovjetsatelliet per ongeluk vijf raketten die door de Verenigde Staten waren afgevuurd. Stanislaw Petrov, een officier in het Russische commandocentrum Sechoechov-15, concludeerde dat het vals alarm was en waarschuwde zijn superieuren niet, zodat ze een tegenaanval konden inzetten.

In 1995 detecteerde het radarstation van Olenegorsk een raketaanval voor de kust van Noorwegen. De Russische strategische troepen werden in hoogste staat van paraatheid gebracht en de toenmalige president Boris Jeltsin kreeg het nucleaire koffertje overhandigd. Hij vermoedde dat het een vergissing was en drukte niet op de knop. Het bleek een wetenschappelijke raket te zijn. Als AI was gebruikt om de reactie in beide situaties te bepalen, hadden de gevolgen catastrofaal kunnen zijn.

Hypersonische raketten gebruiken tegenwoordig conventionele automatisering in plaats van AI. Ze kunnen snelheden tussen Mach 5 en Mach 25 bereiken, waardoor radardetectie wordt vermeden en hun vliegroutes worden gecontroleerd. De supermachten zijn van plan hypersonische raketten te voorzien van AI om bewegende doelen direct te lokaliseren en te vernietigen, waardoor de beslissing om te doden niet langer door mensen, maar door machines wordt genomen.

Er is ook een race gaande om algemene kunstmatige intelligentie te ontwikkelen, wat zou kunnen leiden tot AI-modellen die buiten de menselijke controle vallen. Wanneer dit gebeurt, zullen AI-systemen leren zichzelf te verbeteren en te repliceren en zo besluitvormingsprocessen overnemen. Als dergelijke AI wordt geïntegreerd in beslissingsondersteunende systemen voor kernwapens, zullen machines verwoestende oorlogen kunnen ontketenen.

Tijd om te handelen

Gezien de bovengenoemde risico's zijn veel deskundigen van mening dat de mensheid behoefte heeft aan een alomvattende overeenkomst tussen de grootmachten om het risico op een nucleaire oorlog te minimaliseren. Deze overeenkomst gaat verder dan het herhalen van de slogan "mensen in de lus".

Deze overeenkomst moet transparantie, verantwoordingsplicht en samenwerkingsmaatregelen omvatten, evenals internationale normen voor testen en evalueren, crisiscommunicatiekanalen, nationale toezichthoudende raden en regels om agressieve AI-modellen te verbieden die menselijke operators kunnen omzeilen.

Het gevaar van een nucleaire oorlog is geen 3D-beeldexpert

Secretaris-generaal António Guterres woont een vredesherdenkingsceremonie bij in Hiroshima, dat in 1945 werd getroffen door een atoombom. Foto: VN

Geopolitieke verschuivingen creëren een kans voor een dergelijk pact. Vooraanstaande AI-experts uit China en de VS hebben bijvoorbeeld een aantal 'track-two'-dialogen over AI-risico's gevoerd, wat leidde tot een gezamenlijke verklaring van voormalig Amerikaans president Joe Biden en Chinees president Xi Jinping afgelopen november.

Miljardair Elon Musk is een fervent voorstander van de noodzaak om de mensheid te redden van de existentiële risico's die AI met zich meebrengt. Volgens Dr. Sundeep Waslekar zou hij de huidige Amerikaanse president Donald Trump zelfs kunnen aansporen om de gezamenlijke verklaring van Joe Biden en Xi Jinping om te zetten in een verdrag.

De AI-nucleaire uitdaging vereist ook de deelname van Rusland, aldus Dr. Sundeep Waslekar. Tot januari van dit jaar weigerde Rusland maatregelen te bespreken om de nucleaire risico's te verminderen, inclusief convergentie met AI, tenzij Oekraïne ter sprake kwam.

Nu president Donald Trump in gesprek is met de Russische president Vladimir Poetin om de bilaterale betrekkingen te verbeteren en de oorlog in Oekraïne te beëindigen, staat Rusland mogelijk open voor gesprekken.

In februari van dit jaar publiceerde het Center for a New American Security (CNAS), na de toespraak van de Amerikaanse vicepresident JD Vance op de AI Action Summit in Parijs, ook een rapport met de titel "Preventing an AI Doomsday: US-China-Russia Competition at the Nexus of Nuclear Weapons and Artificial Intelligence".

In het rapport worden de belangrijkste risico's van de nexus tussen AI en kernenergie geïdentificeerd en wordt de Amerikaanse regering opgeroepen om samen met China en Rusland een uitgebreid pakket aan mechanismen voor risicobeperking en crisisbeheer op te zetten.

Eerder, in september vorig jaar, namen zo'n 60 landen, waaronder de VS, een "actieplan" aan om het verantwoord gebruik van AI in het leger te beheren tijdens de Responsible AI in Military Summit (REAIM) in Seoul, Zuid-Korea. Dit was de tweede conferentie in zijn soort, na de conferentie die vorig jaar in Den Haag werd gehouden. Deze bewegingen laten zien dat het risico van een door AI ontketende nucleaire oorlog geen sciencefiction is.

De wereld staat duidelijk voor een steeds urgenter existentieel probleem dat vraagt ​​om echte actie van kernmachten om ervoor te zorgen dat “elke beslissing over het gebruik van kernwapens door mensen wordt genomen, en niet door machines of algoritmes”, zoals secretaris-generaal Antonio Guterres van de VN heeft opgeroepen.

Nguyen Khanh


Reactie (0)

Laat een reactie achter om je gevoelens te delen!

In dezelfde categorie

De Notre Dame-kathedraal in Ho Chi Minhstad is fel verlicht om Kerstmis 2025 te verwelkomen
Meisjes uit Hanoi kleden zich prachtig aan voor de kerstperiode
Het chrysantendorp Tet in Gia Lai is opgeknapt na de storm en de overstroming en hoopt dat er geen stroomuitval zal zijn om de planten te redden.
De hoofdstad van de gele abrikoos in de regio Centraal leed zware verliezen na dubbele natuurrampen

Van dezelfde auteur

Erfenis

Figuur

Bedrijf

Koffiehuis Dalat ziet 300% meer klanten omdat eigenaar de rol van 'vechtsportfilm' speelt

Actuele gebeurtenissen

Politiek systeem

Lokaal

Product

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC