Vietnam.vn - Nền tảng quảng bá Việt Nam

Riziko, že umělá inteligence rozpoutá jadernou válku, není sci-fi

(CLO) Jaderná válka vyvolaná umělou inteligencí zní jako scéna ze sci-fi filmu. Mnoho předních světových vědců a politiků však tvrdí, že tomu tak není.

Công LuậnCông Luận23/03/2025

Riziko ztráty kontroly nad umělou inteligencí

Zdá se, že lidstvo ignoruje přízrak na obzoru: přízrak globální jaderné války způsobené umělou inteligencí (AI). Generální tajemník OSN António Guterres před ní varoval. Státy disponující jadernými zbraněmi se však dosud nespojily, aby tuto katastrofickou hrozbu vyřešily.

Nebezpečí jaderné války není mýtus.

Rychlý rozvoj umělé inteligence (AI) představuje riziko, že by AI mohla zasáhnout do procesu odpalování jaderných zbraní. Ilustrační fotografie

Mezi pěti největšími jadernými mocnostmi – USA, Ruskem, Čínou, Spojeným královstvím a Francií – již dlouho panuje neformální konsenzus ohledně principu „člověk ve smyčce“, což znamená, že každá země má systém, který zajišťuje, aby se lidé podíleli na rozhodování o odpálení jaderných zbraní.

Žádná z pěti mocností netvrdí, že ve svých systémech řízení odpalování jaderných zbraní nasadila umělou inteligenci. To je pravda, ale zavádějící, tvrdí Dr. Sundeep Waslekar, prezident Strategic Foresight Group, mezinárodní výzkumné organizace v indické Bombaji.

Umělá inteligence se již používá k detekci hrozeb a výběru cílů. Systémy poháněné umělou inteligencí analyzují velké množství dat ze senzorů, satelitů a radarů v reálném čase, analyzují příchozí raketové útoky a navrhují možnosti reakce.

Operátor poté prověří hrozbu z různých zdrojů a rozhodne, zda zachytí nepřátelské rakety, nebo zahájí odvetné údery.

„V současné době je reakční doba, kterou mají lidští operátoři k dispozici, 10 až 15 minut. Do roku 2030 se tato doba zkrátí na 5 až 7 minut,“ řekl Sundeep Waslekar. „Konečná rozhodnutí sice budou činit lidé, ale budou ovlivněni prediktivní a preskriptivní analýzou umělé inteligence. Umělá inteligence by mohla být hnací silou rozhodnutí o spuštění již ve 30. letech 21. století.“

Problém je v tom, že umělá inteligence se může mýlit. Algoritmy pro detekci hrozeb mohou indikovat raketový útok, i když k němu nedochází. To může být způsobeno počítačovými chybami, narušením sítě nebo faktory prostředí, které signály zastíní. Pokud lidští operátoři nemohou potvrdit falešné poplachy z jiných zdrojů do dvou až tří minut, mohou spustit odvetné údery.

Velmi malá chyba, obrovská katastrofa

Je známo, že využití umělé inteligence v mnoha civilních funkcích, jako je predikce kriminality, rozpoznávání obličejů a prognóza rakoviny, má míru chyby 10 %. V systémech včasného varování před jadernými hrozbami může být míra chyby kolem 5 %, uvádí Sundeep Waslekar.

S tím, jak se bude v příštím desetiletí zlepšovat přesnost algoritmů rozpoznávání obrazu, by tato chybovost mohla klesnout na 1–2 %. Ale i chybovost 1 % by mohla rozpoutat globální jadernou válku.

Nebezpečí jaderné války není mýtus.

Rozhodnutí o útoku nebo odvetě proti jaderným zbraním by mohla být vyvolána chybami umělé inteligence. Foto: Modern War Institute

Riziko by se mohlo v příštích dvou až třech letech zvýšit, jelikož se objeví nový malware, který dokáže uniknout systémům detekce hrozeb. Tento malware se přizpůsobí, aby se vyhnul detekci, automaticky identifikuje cíle a útočí na ně.

Během studené války došlo k několika „rizikovým“ situacím. V roce 1983 sovětský satelit omylem detekoval pět raket odpálených Spojenými státy. Stanislaw Petrov, důstojník ruského velitelského střediska Sepuchov-15, usoudil, že se jednalo o planý poplach, a neupozornil své nadřízené, aby mohli zahájit protiútok.

V roce 1995 detekovala radarová stanice Olenegorsk raketový útok u pobřeží Norska. Ruské strategické síly byly uvedeny do stavu vysoké pohotovosti a tehdejší prezident Boris Jelcin dostal jaderný kufřík. Měl podezření, že se jedná o chybu, a nestiskl tlačítko. Ukázalo se, že se jedná o vědeckou raketu. Pokud by se v obou situacích k určení reakce použila umělá inteligence, mohly by být následky katastrofální.

Hypersonické střely dnes používají konvenční automatizaci místo umělé inteligence. Mohou se pohybovat rychlostí mezi Machem 5 a Machem 25, vyhýbat se detekci radarem a kontrolovat své letové dráhy. Supervelmoci plánují vylepšit hypersonické střely umělou inteligencí, aby mohly okamžitě lokalizovat a ničit pohyblivé cíle, a přesunout tak rozhodování o zabíjení z lidí na stroje.

Probíhá také závod ve vývoji obecné umělé inteligence, což by mohlo vést k modelům umělé inteligence, které fungují mimo lidskou kontrolu. Jakmile k tomu dojde, systémy umělé inteligence se naučí samy vylepšovat a replikovat a převezmou tak rozhodovací procesy. Pokud bude taková umělá inteligence integrována do systémů podpory rozhodování o jaderných zbraních, stroje budou schopny zahájit ničivé války.

Čas jednat

Tváří v tvář výše uvedeným rizikům se mnoho odborníků domnívá, že lidstvo potřebuje komplexní dohodu mezi hlavními mocnostmi, aby se minimalizovalo riziko jaderné války, a to nad rámec opakování hesla „lidé v obraze“.

Tato dohoda by měla zahrnovat opatření v oblasti transparentnosti, odpovědnosti a spolupráce; mezinárodní standardy pro testování a hodnocení; krizové komunikační kanály; národní dozorčí rady; a pravidla zakazující agresivní modely umělé inteligence, které jsou schopny obejít lidské operátory.

Nebezpečí jaderné války není odborníkem na 3D obrazy

Generální tajemník António Guterres se účastní pamětní ceremonie míru v Hirošimě, která byla v roce 1945 zasažena atomovou bombou. Foto: OSN

Geopolitické posuny vytvářejí příležitost pro takovou dohodu. Přední experti na umělou inteligenci z Číny a USA se například zapojili do řady dvoustranných dialogů o rizicích umělé inteligence, které vedly v listopadu loňského roku ke společnému prohlášení bývalého amerického prezidenta Joea Bidena a čínského prezidenta Si Ťin-pchinga.

Miliardář Elon Musk je silným zastáncem potřeby zachránit lidstvo před existenčními riziky, která představuje umělá inteligence, a podle Dr. Sundeepa Waslekara by mohl naléhat na současného amerického prezidenta Donalda Trumpa, aby společné prohlášení mezi Joem Bidenem a Si Ťin-pchingem proměnil ve smlouvu.

Výzva mezi umělou inteligencí a jadernými zbraněmi vyžaduje také účast Ruska, uvádí Dr. Sundeep Waslekar. Až do ledna letošního roku Rusko odmítalo diskutovat o jakýchkoli opatřeních ke snížení jaderných rizik, včetně konvergence s umělou inteligencí, pokud se nejednalo o Ukrajině.

Vzhledem k tomu, že prezident Donald Trump vede dialog s ruským prezidentem Vladimirem Putinem o zlepšení bilaterálních vztahů a ukončení války na Ukrajině, může být Rusko nyní otevřené diskusím.

V únoru letošního roku, po projevu amerického viceprezidenta J. D. Vance na pařížském summitu AI Action Summit, zveřejnilo Centrum pro novou americkou bezpečnost (CNAS) také zprávu s názvem „Zabránění soudnému dni AI: Soutěž mezi USA, Čínou a Ruskem na styčném bodě jaderných zbraní a umělé inteligence“.

Zpráva identifikuje nejvýznamnější rizika spojení mezi umělou inteligencí a jadernými zbraněmi a naléhavě žádá americkou administrativu, aby s Čínou a Ruskem zavedla komplexní soubor mechanismů pro zmírňování rizik a řešení krizí.

Dříve, v září loňského roku, přijalo na summitu REAIM (Responsible AI in Military Summit), který se konal v jihokorejském Soulu, „akční plán“ pro řízení zodpovědného používání umělé inteligence v armádě. Jednalo se o druhou konferenci svého druhu po konferenci konané v Haagu loni. Tyto kroky ukazují, že riziko jaderné války vyvolané umělou inteligencí není sci-fi.

Svět evidentně čelí stále naléhavějšímu existenčnímu problému, který vyžaduje skutečné kroky jaderných mocností, aby se zajistilo, že „každé rozhodnutí o použití jaderných zbraní budou činit lidé, nikoli stroje nebo algoritmy“ – k čemuž vyzval generální tajemník OSN António Guterres.

Nguyen Khanh


Komentář (0)

Zanechte komentář a podělte se o své pocity!

Ve stejné kategorii

Katedrála Notre Dame v Ho Či Minově Městě je jasně osvětlena, aby přivítala Vánoce 2025
Hanojské dívky se krásně „oblékají“ na Vánoce
Vesnice chryzantém Tet v Gia Lai, která se po bouři a povodni rozzářila, doufá, že nedojde k výpadkům proudu, které by rostliny zachránily.
Hlavní město žlutých meruněk v centrálním regionu utrpělo těžké ztráty po dvou přírodních katastrofách

Od stejného autora

Dědictví

Postava

Obchod

Kavárna v Dalatu zaznamenala 300% nárůst zákazníků, protože majitel si zahrál roli ve filmu o bojových uměních

Aktuální události

Politický systém

Místní

Produkt

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC