Vietnam.vn - Nền tảng quảng bá Việt Nam

Riscul ca inteligența artificială să declanșeze un război nuclear nu este science fiction.

(CLO) Un război nuclear inițiat de inteligența artificială sună ca ceva desprins dintr-un film science fiction. Dar mulți dintre oamenii de știință și politicienii de renume ai lumii spun că nu este așa.

Công LuậnCông Luận23/03/2025

Riscul de a pierde controlul asupra IA

Omenirea pare să ignore o fantomă la orizont: spectrul unui război nuclear global cauzat de inteligența artificială (IA). Secretarul general al ONU, Antonio Guterres, a avertizat în privința acestui lucru. Dar, până acum, statele înarmate cu arme nucleare nu s-au reunit pentru a negocia această amenințare catastrofală.

Pericolul unui război nuclear nu este un mit.

Dezvoltarea rapidă a inteligenței artificiale (IA) prezintă riscul ca aceasta să intervină în procesul de lansare a armelor nucleare. Fotografie ilustrativă

Există de mult timp un consens informal între cele mai mari cinci puteri nucleare – SUA, Rusia, China, Regatul Unit și Franța – cu privire la principiul „implicării umane în circuitul nuclear”, ceea ce înseamnă că fiecare țară are un sistem care să se asigure că oamenii sunt implicați în decizia de lansare a armelor nucleare.

Niciuna dintre cele cinci puteri nu declară că a implementat inteligență artificială în sistemele lor de comandă a lansării nucleare. Acest lucru este adevărat, dar înșelător, potrivit Dr. Sundeep Waslekar, președintele Strategic Foresight Group, o organizație internațională de cercetare din Mumbai, India.

Inteligența artificială este deja utilizată pentru detectarea amenințărilor și selectarea țintelor. Sistemele bazate pe inteligență artificială analizează cantități mari de date de la senzori, sateliți și radare în timp real, analizând atacurile cu rachete care se apropie și sugerând opțiuni de răspuns.

Operatorul verifică apoi amenințarea din diferite surse și decide dacă să intercepteze rachetele inamice sau să lanseze atacuri de represalii.

„În prezent, timpul de reacție disponibil operatorilor umani este de 10 până la 15 minute. Până în 2030, acesta se va reduce la 5 până la 7 minute”, a declarat Sundeep Waslekar. „Deși oamenii vor lua deciziile finale, ei vor fi influențați de analizele predictive și prescriptive ale inteligenței artificiale. Inteligența artificială ar putea fi forța motrice din spatele deciziilor de lansare încă din anii 2030.”

Problema este că inteligența artificială poate greși. Algoritmii de detectare a amenințărilor pot indica un atac cu rachete atunci când acesta nu se întâmplă. Acest lucru se poate datora unor erori informatice, intruziuni în rețea sau factori de mediu care ascund semnalele. Dacă operatorii umani nu pot confirma alarmele false din alte surse în termen de două-trei minute, aceștia ar putea declanșa atacuri de represalii.

O eroare foarte mică, un dezastru imens

Utilizarea inteligenței artificiale în multe funcții civile, cum ar fi prezicerea criminalității, recunoașterea facială și prognosticul cancerului, este cunoscută ca având o marjă de eroare de 10%. În sistemele de avertizare timpurie nucleară, marja de eroare poate fi de aproximativ 5%, potrivit lui Sundeep Waslekar.

Pe măsură ce precizia algoritmilor de recunoaștere a imaginilor se îmbunătățește în următorul deceniu, această marjă de eroare ar putea scădea la 1-2%. Dar chiar și o marjă de eroare de 1% ar putea declanșa un război nuclear global.

Pericolul unui război nuclear nu este un mit.

Deciziile de a ataca sau de a riposta împotriva armelor nucleare ar putea fi declanșate de erori ale inteligenței artificiale. Fotografie: Modern War Institute

Riscul ar putea crește în următorii doi-trei ani, pe măsură ce apar noi programe malware capabile să evite sistemele de detectare a amenințărilor. Aceste programe malware se vor adapta pentru a evita detectarea, vor identifica automat țintele și le vor ataca.

În timpul Războiului Rece au existat mai multe situații de „limită”. În 1983, un satelit sovietic a detectat din greșeală cinci rachete lansate de Statele Unite. Stanislaw Petrov, ofițer la centrul de comandă Sepuhov-15 al Rusiei, a concluzionat că a fost o alarmă falsă și nu și-a alertat superiorii pentru ca aceștia să poată lansa un contraatac.

În 1995, stația radar Olenegorsk a detectat un atac cu rachete în largul coastei Norvegiei. Forțele strategice ale Rusiei au fost plasate în alertă maximă, iar președintele de atunci, Boris Elțin, a primit servieta nucleară. Acesta a suspectat că a fost o greșeală și nu a apăsat butonul. S-a dovedit a fi o rachetă științifică . Dacă s-ar fi folosit inteligența artificială pentru a determina răspunsul în oricare dintre situații, rezultatele ar fi putut fi catastrofale.

Rachetele hipersonice folosesc astăzi automatizare convențională în loc de inteligență artificială. Acestea pot călători cu viteze între Mach 5 și Mach 25, evitând detectarea radarului și controlându-și traiectoriile de zbor. Superputerile plănuiesc să îmbunătățească rachetele hipersonice cu ajutorul inteligenței artificiale pentru a localiza și distruge instantaneu țintele în mișcare, mutând decizia de a ucide de la oameni la mașini.

Există, de asemenea, o cursă pentru dezvoltarea inteligenței artificiale generale, ceea ce ar putea duce la modele de IA care operează în afara controlului uman. Când se va întâmpla acest lucru, sistemele de IA vor învăța să se îmbunătățească și să se reproducă singure, preluând procesele decizionale. Dacă o astfel de IA este integrată în sistemele de asistență decizională pentru armele nucleare, mașinile vor putea iniția războaie devastatoare.

Este timpul să acționăm

Confruntați cu riscurile menționate anterior, mulți experți consideră că omenirea are nevoie de un acord cuprinzător între marile puteri pentru a minimiza riscul unui război nuclear, depășind repetarea sloganului „oamenii implicați”.

Acest acord ar trebui să includă măsuri de transparență, responsabilitate și cooperare; standarde internaționale pentru testare și evaluare; canale de comunicare în caz de criză; consilii naționale de supraveghere; și reguli care să interzică modelele agresive de IA care sunt capabile să ocolească operatorii umani.

Pericolul unui război nuclear nu este un expert în imagini 3D

Secretarul general António Guterres participă la o ceremonie memorială a păcii la Hiroshima, oraș lovit de o bombă atomică în 1945. Fotografie: ONU

Schimbările geopolitice creează o oportunitate pentru un astfel de pact. Experți de renume în domeniul inteligenței artificiale din China și SUA, de exemplu, s-au angajat într-o serie de dialoguri de tip „a doua fază” privind riscurile legate de inteligența artificială, ceea ce a dus la o declarație comună a fostului președinte american Joe Biden și a președintelui chinez Xi Jinping în noiembrie anul trecut.

Miliardarul Elon Musk este un susținător ferm al necesității de a salva omenirea de riscurile existențiale reprezentate de inteligența artificială și ar putea să-l îndemne pe actualul președinte american Donald Trump să transforme declarația comună dintre Joe Biden și Xi Jinping într-un tratat, potrivit Dr. Sundeep Waslekar.

Provocarea nucleară legată de inteligența artificială necesită și participarea Rusiei, potrivit Dr. Sundeep Waslekar. Până în ianuarie anul acesta, Rusia a refuzat să discute orice măsuri de reducere a riscului nuclear, inclusiv convergența cu inteligența artificială, cu excepția cazului în care se discuta despre Ucraina.

Având în vedere că președintele Donald Trump a intrat în dialog cu președintele rus Vladimir Putin pentru a îmbunătăți relațiile bilaterale și a pune capăt războiului din Ucraina, Rusia ar putea fi acum deschisă discuțiilor.

În februarie anul acesta, în urma discursului vicepreședintelui american JD Vance la Summitul de Acțiune privind Inteligența Artificială de la Paris, Centrul pentru o Nouă Securitate Americană (CNAS) a publicat, de asemenea, un raport intitulat „Prevenirea unei apocalipse în domeniul inteligenței artificiale: Competiția SUA-China-Rusia la punctul central al armelor nucleare și al inteligenței artificiale”.

Raportul identifică cele mai semnificative riscuri ale legăturii dintre inteligența artificială și energia nucleară și îndeamnă administrația SUA să stabilească un set cuprinzător de mecanisme de atenuare a riscurilor și de gestionare a crizelor împreună cu China și Rusia.

În septembrie anul trecut, aproximativ 60 de țări, inclusiv SUA, au adoptat un „plan de acțiune” pentru a gestiona utilizarea responsabilă a inteligenței artificiale în armată la Summitul „IA Responsabilă în Armată” (REAIM) care a avut loc la Seul, Coreea de Sud. Aceasta a fost a doua conferință de acest fel, după cea care a avut loc la Haga anul trecut. Aceste mișcări arată că riscul unui război nuclear inițiat de inteligența artificială nu este science fiction.

Lumea se confruntă în mod clar cu o problemă existențială din ce în ce mai urgentă, care necesită acțiuni reale din partea puterilor nucleare pentru a se asigura că „fiecare decizie privind utilizarea armelor nucleare este luată de oameni, nu de mașini sau algoritmi” - așa cum a cerut secretarul general al ONU, Antonio Guterres.

Nguyen Khanh


Comentariu (0)

Lăsați un comentariu pentru a vă împărtăși sentimentele!

În aceeași categorie

Catedrala Notre Dame din orașul Ho Chi Minh este puternic luminată pentru a ura bun venit Crăciunului din 2025
Fetele din Hanoi se „îmbracă” frumos pentru sezonul de Crăciun
Înseninați după furtună și inundații, locuitorii satului de crizanteme Tet din Gia Lai speră că nu vor exista pene de curent pentru a salva plantele.
Capitala caiselor galbene din regiunea Centrală a suferit pierderi mari după duble dezastre naturale

De același autor

Patrimoniu

Figura

Afaceri

Cafeneaua din Dalat înregistrează o creștere de 300% a numărului de clienți, deoarece proprietarul joacă un rol într-un „film de arte marțiale”.

Evenimente actuale

Sistem politic

Local

Produs

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC