Riscul de a pierde controlul asupra IA
Omenirea pare să ignore o fantomă la orizont: spectrul unui război nuclear global cauzat de inteligența artificială (IA). Secretarul general al ONU, Antonio Guterres, a avertizat în privința acestui lucru. Dar, până acum, statele înarmate cu arme nucleare nu s-au reunit pentru a negocia această amenințare catastrofală.
Dezvoltarea rapidă a inteligenței artificiale (IA) prezintă riscul ca aceasta să intervină în procesul de lansare a armelor nucleare. Fotografie ilustrativă
Există de mult timp un consens informal între cele mai mari cinci puteri nucleare – SUA, Rusia, China, Regatul Unit și Franța – cu privire la principiul „implicării umane în circuitul nuclear”, ceea ce înseamnă că fiecare țară are un sistem care să se asigure că oamenii sunt implicați în decizia de lansare a armelor nucleare.
Niciuna dintre cele cinci puteri nu declară că a implementat inteligență artificială în sistemele lor de comandă a lansării nucleare. Acest lucru este adevărat, dar înșelător, potrivit Dr. Sundeep Waslekar, președintele Strategic Foresight Group, o organizație internațională de cercetare din Mumbai, India.
Inteligența artificială este deja utilizată pentru detectarea amenințărilor și selectarea țintelor. Sistemele bazate pe inteligență artificială analizează cantități mari de date de la senzori, sateliți și radare în timp real, analizând atacurile cu rachete care se apropie și sugerând opțiuni de răspuns.
Operatorul verifică apoi amenințarea din diferite surse și decide dacă să intercepteze rachetele inamice sau să lanseze atacuri de represalii.
„În prezent, timpul de reacție disponibil operatorilor umani este de 10 până la 15 minute. Până în 2030, acesta se va reduce la 5 până la 7 minute”, a declarat Sundeep Waslekar. „Deși oamenii vor lua deciziile finale, ei vor fi influențați de analizele predictive și prescriptive ale inteligenței artificiale. Inteligența artificială ar putea fi forța motrice din spatele deciziilor de lansare încă din anii 2030.”
Problema este că inteligența artificială poate greși. Algoritmii de detectare a amenințărilor pot indica un atac cu rachete atunci când acesta nu se întâmplă. Acest lucru se poate datora unor erori informatice, intruziuni în rețea sau factori de mediu care ascund semnalele. Dacă operatorii umani nu pot confirma alarmele false din alte surse în termen de două-trei minute, aceștia ar putea declanșa atacuri de represalii.
O eroare foarte mică, un dezastru imens
Utilizarea inteligenței artificiale în multe funcții civile, cum ar fi prezicerea criminalității, recunoașterea facială și prognosticul cancerului, este cunoscută ca având o marjă de eroare de 10%. În sistemele de avertizare timpurie nucleară, marja de eroare poate fi de aproximativ 5%, potrivit lui Sundeep Waslekar.
Pe măsură ce precizia algoritmilor de recunoaștere a imaginilor se îmbunătățește în următorul deceniu, această marjă de eroare ar putea scădea la 1-2%. Dar chiar și o marjă de eroare de 1% ar putea declanșa un război nuclear global.
Deciziile de a ataca sau de a riposta împotriva armelor nucleare ar putea fi declanșate de erori ale inteligenței artificiale. Fotografie: Modern War Institute
Riscul ar putea crește în următorii doi-trei ani, pe măsură ce apar noi programe malware capabile să evite sistemele de detectare a amenințărilor. Aceste programe malware se vor adapta pentru a evita detectarea, vor identifica automat țintele și le vor ataca.
În timpul Războiului Rece au existat mai multe situații de „limită”. În 1983, un satelit sovietic a detectat din greșeală cinci rachete lansate de Statele Unite. Stanislaw Petrov, ofițer la centrul de comandă Sepuhov-15 al Rusiei, a concluzionat că a fost o alarmă falsă și nu și-a alertat superiorii pentru ca aceștia să poată lansa un contraatac.
În 1995, stația radar Olenegorsk a detectat un atac cu rachete în largul coastei Norvegiei. Forțele strategice ale Rusiei au fost plasate în alertă maximă, iar președintele de atunci, Boris Elțin, a primit servieta nucleară. Acesta a suspectat că a fost o greșeală și nu a apăsat butonul. S-a dovedit a fi o rachetă științifică . Dacă s-ar fi folosit inteligența artificială pentru a determina răspunsul în oricare dintre situații, rezultatele ar fi putut fi catastrofale.
Rachetele hipersonice folosesc astăzi automatizare convențională în loc de inteligență artificială. Acestea pot călători cu viteze între Mach 5 și Mach 25, evitând detectarea radarului și controlându-și traiectoriile de zbor. Superputerile plănuiesc să îmbunătățească rachetele hipersonice cu ajutorul inteligenței artificiale pentru a localiza și distruge instantaneu țintele în mișcare, mutând decizia de a ucide de la oameni la mașini.
Există, de asemenea, o cursă pentru dezvoltarea inteligenței artificiale generale, ceea ce ar putea duce la modele de IA care operează în afara controlului uman. Când se va întâmpla acest lucru, sistemele de IA vor învăța să se îmbunătățească și să se reproducă singure, preluând procesele decizionale. Dacă o astfel de IA este integrată în sistemele de asistență decizională pentru armele nucleare, mașinile vor putea iniția războaie devastatoare.
Este timpul să acționăm
Confruntați cu riscurile menționate anterior, mulți experți consideră că omenirea are nevoie de un acord cuprinzător între marile puteri pentru a minimiza riscul unui război nuclear, depășind repetarea sloganului „oamenii implicați”.
Acest acord ar trebui să includă măsuri de transparență, responsabilitate și cooperare; standarde internaționale pentru testare și evaluare; canale de comunicare în caz de criză; consilii naționale de supraveghere; și reguli care să interzică modelele agresive de IA care sunt capabile să ocolească operatorii umani.
Secretarul general António Guterres participă la o ceremonie memorială a păcii la Hiroshima, oraș lovit de o bombă atomică în 1945. Fotografie: ONU
Schimbările geopolitice creează o oportunitate pentru un astfel de pact. Experți de renume în domeniul inteligenței artificiale din China și SUA, de exemplu, s-au angajat într-o serie de dialoguri de tip „a doua fază” privind riscurile legate de inteligența artificială, ceea ce a dus la o declarație comună a fostului președinte american Joe Biden și a președintelui chinez Xi Jinping în noiembrie anul trecut.
Miliardarul Elon Musk este un susținător ferm al necesității de a salva omenirea de riscurile existențiale reprezentate de inteligența artificială și ar putea să-l îndemne pe actualul președinte american Donald Trump să transforme declarația comună dintre Joe Biden și Xi Jinping într-un tratat, potrivit Dr. Sundeep Waslekar.
Provocarea nucleară legată de inteligența artificială necesită și participarea Rusiei, potrivit Dr. Sundeep Waslekar. Până în ianuarie anul acesta, Rusia a refuzat să discute orice măsuri de reducere a riscului nuclear, inclusiv convergența cu inteligența artificială, cu excepția cazului în care se discuta despre Ucraina.
Având în vedere că președintele Donald Trump a intrat în dialog cu președintele rus Vladimir Putin pentru a îmbunătăți relațiile bilaterale și a pune capăt războiului din Ucraina, Rusia ar putea fi acum deschisă discuțiilor.
În februarie anul acesta, în urma discursului vicepreședintelui american JD Vance la Summitul de Acțiune privind Inteligența Artificială de la Paris, Centrul pentru o Nouă Securitate Americană (CNAS) a publicat, de asemenea, un raport intitulat „Prevenirea unei apocalipse în domeniul inteligenței artificiale: Competiția SUA-China-Rusia la punctul central al armelor nucleare și al inteligenței artificiale”.
Raportul identifică cele mai semnificative riscuri ale legăturii dintre inteligența artificială și energia nucleară și îndeamnă administrația SUA să stabilească un set cuprinzător de mecanisme de atenuare a riscurilor și de gestionare a crizelor împreună cu China și Rusia.
În septembrie anul trecut, aproximativ 60 de țări, inclusiv SUA, au adoptat un „plan de acțiune” pentru a gestiona utilizarea responsabilă a inteligenței artificiale în armată la Summitul „IA Responsabilă în Armată” (REAIM) care a avut loc la Seul, Coreea de Sud. Aceasta a fost a doua conferință de acest fel, după cea care a avut loc la Haga anul trecut. Aceste mișcări arată că riscul unui război nuclear inițiat de inteligența artificială nu este science fiction.
Lumea se confruntă în mod clar cu o problemă existențială din ce în ce mai urgentă, care necesită acțiuni reale din partea puterilor nucleare pentru a se asigura că „fiecare decizie privind utilizarea armelor nucleare este luată de oameni, nu de mașini sau algoritmi” - așa cum a cerut secretarul general al ONU, Antonio Guterres.
Nguyen Khanh










Comentariu (0)