Vietnam.vn - Nền tảng quảng bá Việt Nam

A mesterséges intelligencia által indított nukleáris háború kockázata nem sci-fi

(CLO) Egy mesterséges intelligencia által kirobbantott atomháború úgy hangzik, mintha egy sci-fi filmből lépne elő. De a világ számos vezető tudósa és politikusa szerint nem az.

Công LuậnCông Luận23/03/2025

A mesterséges intelligencia feletti kontroll elvesztésének kockázata

Úgy tűnik, az emberiség figyelmen kívül hagy egy fenyegető veszélyt: a mesterséges intelligencia (MI) által okozott globális nukleáris háború kísértetét. António Guterres, az ENSZ főtitkára már korábban is figyelmeztetett rá. Eddig azonban a nukleáris fegyverekkel rendelkező államok nem tudtak közösen tárgyalni erről a katasztrofális fenyegetésről.

A nukleáris háború veszélye nem mítosz.

A mesterséges intelligencia (MI) gyors fejlődése magában hordozza annak a kockázatát, hogy a MI beavatkozhat a nukleáris fegyverek indítási folyamatába. Illusztráció fotó

Az öt legnagyobb nukleáris hatalom – az Egyesült Államok, Oroszország, Kína, az Egyesült Királyság és Franciaország – között régóta informális konszenzus van az „emberi részvétel” elvéről, ami azt jelenti, hogy minden országnak van egy rendszere annak biztosítására, hogy az emberek részt vegyenek a nukleáris fegyverek indításáról szóló döntésben.

Az öt hatalom egyike sem állítja, hogy mesterséges intelligenciát telepített volna nukleáris indítási parancsnoki rendszereiben. Ez igaz, de félrevezető Dr. Sundeep Waslekar, a mumbai (India) székhelyű nemzetközi kutatószervezet, a Strategic Foresight Group elnöke szerint.

A mesterséges intelligenciát már alkalmazzák fenyegetések észlelésére és célpontok kiválasztására. A mesterséges intelligenciával működő rendszerek valós időben elemzik az érzékelőktől, műholdaktól és radaroktól származó nagy mennyiségű adatot, elemzik a bejövő rakétatámadásokat, és válaszlépéseket javasolnak.

Az operátor ezután összeveti a különböző forrásokból érkező fenyegetéseket, és eldönti, hogy elfogja-e az ellenséges rakétákat, vagy megtorló csapásokat indít.

„Jelenleg az emberi operátorok számára rendelkezésre álló reakcióidő 10-15 perc. 2030-ra ez 5-7 percre csökken” – mondta Sundeep Waslekar. „Míg az emberek hozzák meg a végső döntéseket, azokat a mesterséges intelligencia prediktív és preskriptív elemzése fogja befolyásolni. A mesterséges intelligencia már a 2030-as években a bevezetési döntések mozgatórugója lehet.”

A probléma az, hogy a mesterséges intelligencia tévedhet. A fenyegetésészlelő algoritmusok képesek jelezni egy rakétatámadást, amikor az nem történik meg. Ennek oka lehet számítógépes hiba, hálózati behatolás vagy a jeleket elfedő környezeti tényezők. Hacsak az emberi operátorok nem tudják két-három percen belül megerősíteni a más forrásokból származó téves riasztásokat, megtorló csapásokat indíthatnak el.

Nagyon apró hiba, hatalmas katasztrófa

A mesterséges intelligencia számos polgári funkcióban, például a bűnmegelőzésben, az arcfelismerésben és a rákprognózisban való alkalmazása köztudottan 10%-os hibahatárral rendelkezik. A nukleáris korai figyelmeztető rendszerekben a hibahatár körülbelül 5% is lehet Sundeep Waslekar szerint.

Ahogy a képfelismerő algoritmusok pontossága javulni fog a következő évtizedben, ez a hibahatár 1-2%-ra csökkenhet. De már egy 1%-os hibahatár is globális atomháborút indíthat el.

A nukleáris háború veszélye nem mítosz.

A nukleáris fegyverek támadására vagy megtorlására vonatkozó döntéseket mesterséges intelligencia hibák válthatják ki. Fotó: Modern War Institute

A kockázat a következő két-három évben növekedhet, mivel új rosszindulatú programok jelennek meg, amelyek képesek kijátszani a fenyegetésészlelő rendszereket. Ezek a rosszindulatú programok alkalmazkodni fognak az észlelés elkerüléséhez, automatikusan azonosítják a célpontokat és megtámadják őket.

A hidegháború alatt számos „veszélyhelyzet” adódott. 1983-ban egy szovjet műhold tévesen öt, az Egyesült Államok által kilőtt rakétát észlelt. Stanislaw Petrov, az orosz Szepuhov-15 parancsnoki központ tisztje arra a következtetésre jutott, hogy téves riasztás volt, és nem értesítette feletteseit, hogy ellentámadást indíthassanak.

1995-ben az Olenegorszki radarállomás rakétatámadást észlelt Norvégia partjainál. Oroszország stratégiai erőit fokozott készültségbe helyezték, és Borisz Jelcin akkori elnöknek átadták a nukleáris aktatáskát. Gyanította, hogy hiba történt, és nem nyomta meg a gombot. Kiderült, hogy egy tudományos célú rakéta volt. Ha bármelyik helyzetben mesterséges intelligenciát használtak volna a válasz meghatározására, az eredmények katasztrofálisak lehettek volna.

A hiperszonikus rakéták ma már hagyományos automatizálást használnak mesterséges intelligencia helyett. Mach 5 és Mach 25 közötti sebességgel tudnak haladni, elkerülve a radarérzékelést és irányítva repülési útvonalukat. A szuperhatalmak azt tervezik, hogy mesterséges intelligenciával fejlesztik a hiperszonikus rakétákat, hogy azonnal megtalálják és megsemmisítsék a mozgó célpontokat, így a gyilkolásról való döntést az emberekről a gépekre helyezik át.

Verseny folyik az általános mesterséges intelligencia fejlesztéséért is, ami olyan MI-modellekhez vezethet, amelyek az emberi kontrollon kívül működnek. Amikor ez megtörténik, a MI-rendszerek megtanulják majd önmagukat fejleszteni és replikálni, átvéve az irányítást a döntéshozatali folyamatok felett. Ha az ilyen MI-t integrálják a nukleáris fegyverek döntéstámogató rendszereibe, a gépek képesek lesznek pusztító háborúkat indítani.

Itt az ideje cselekedni

A fenti kockázatokkal szembesülve számos szakértő úgy véli, hogy az emberiségnek átfogó megállapodásra van szüksége a nagyhatalmak között a nukleáris háború kockázatának minimalizálása érdekében, túlmutatva az „emberiség a folyamatban” szlogen ismételgetésén.

Ennek a megállapodásnak tartalmaznia kell az átláthatóságra, az elszámoltathatóságra és az együttműködésre vonatkozó intézkedéseket; a tesztelésre és értékelésre vonatkozó nemzetközi szabványokat; a válságkommunikációs csatornákat; a nemzeti felügyeleti testületeket; valamint az emberi operátorok megkerülésére képes agresszív mesterséges intelligencia modellek tiltására vonatkozó szabályokat.

A nukleáris háború veszélye nem egy 3D-s képszakértő

António Guterres főtitkár részt vesz egy békeemlékünnepségen Hirosimában, amelyet 1945-ben atombomba talált el. Fotó: ENSZ

A geopolitikai változások lehetőséget teremtenek egy ilyen paktumra. Kína és az Egyesült Államok vezető mesterséges intelligencia szakértői például számos különálló párbeszédet folytattak a mesterséges intelligencia kockázatairól, ami Joe Biden volt amerikai elnök és Hszi Csin-ping kínai elnök tavaly novemberi közös nyilatkozatához vezetett.

Elon Musk milliárdos határozottan kiáll az emberiség mesterséges intelligencia jelentette kockázatoktól való megmentésének szükségessége mellett, és Dr. Sundeep Waslekar szerint arra is sürgetheti a jelenlegi amerikai elnököt, Donald Trumpot, hogy Joe Biden és Hszi Csin-ping közös nyilatkozatát alakítsa át szerződéssé.

Dr. Sundeep Waslekar szerint a mesterséges intelligencia és a nukleáris kihívás Oroszország részvételét is megköveteli. Idén januárig Oroszország megtagadta, hogy bármilyen nukleáris kockázatcsökkentő intézkedésről tárgyaljon, beleértve a mesterséges intelligenciával való konvergenciát is, kivéve, ha Ukrajna kérdése szóba került.

Mivel Donald Trump elnök párbeszédet kezdett Vlagyimir Putyin orosz elnökkel a kétoldalú kapcsolatok javítása és az ukrajnai háború befejezése érdekében, Oroszország most nyitott lehet a tárgyalásokra.

Idén februárban, J. D. Vance amerikai alelnök párizsi MI Akciócsúcstalálkozón tartott beszédét követően, a Center for a New American Security (CNAS) szintén közzétett egy jelentést „A mesterséges intelligencia világvégéjének megelőzése: USA-Kína-Oroszország verseny a nukleáris fegyverek és a mesterséges intelligencia találkozási pontján” címmel.

A jelentés azonosítja a mesterséges intelligencia és a nukleáris energia közötti kapcsolat legjelentősebb kockázatait, és sürgeti az amerikai kormányzatot, hogy Kínával és Oroszországgal átfogó kockázatcsökkentési és válságkezelési mechanizmusokat hozzon létre.

Korábban, tavaly szeptemberben, a dél-koreai Szöulban megrendezett „Felelős MI a Katonai Felelősségben” Csúcstalálkozón (REAIM) mintegy 60 ország, köztük az Egyesült Államok is elfogadott egy „cselekvési tervet” a mesterséges intelligencia felelős katonai felhasználásának kezelésére. Ez volt a második ilyen jellegű konferencia a tavalyi hágai konferencia után. Ezek a mozgalmak azt mutatják, hogy a mesterséges intelligencia által kiváltott nukleáris háború kockázata nem sci-fi.

A világ egyértelműen egy egyre sürgetőbb egzisztenciális problémával néz szembe, amely valódi cselekvést igényel az atomhatalmaktól annak biztosítása érdekében, hogy „a nukleáris fegyverek használatával kapcsolatos minden döntést emberek hozzanak meg, ne gépek vagy algoritmusok” – ahogy azt António Guterres, az ENSZ főtitkára is szorgalmazta.

Nguyễn Khánh


Hozzászólás (0)

Kérjük, hagyj egy hozzászólást, és oszd meg az érzéseidet!

Ugyanebben a kategóriában

A Ho Si Minh-városban található Notre Dame székesegyház fényesen kivilágítva köszönti a 2025-ös karácsonyt.
Hanoi lányai gyönyörűen öltöznek fel karácsonyra
A vihar és árvíz után kivilágosodott Gia Lai-i Tet krizantém falu abban reménykedik, hogy nem lesznek áramkimaradások a növények megmentése érdekében.
A sárgabarack fővárosa a központi régióban súlyos veszteségeket szenvedett el kettős természeti katasztrófa után

Ugyanattól a szerzőtől

Örökség

Ábra

Üzleti

Egy dalati kávézó vendégeinek száma 300%-kal nőtt, mert a tulajdonos egy harcművészeti filmbeli szerepet játszott.

Aktuális események

Politikai rendszer

Helyi

Termék

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC