Vietnam.vn - Nền tảng quảng bá Việt Nam

Ryzyko wywołania wojny nuklearnej przez sztuczną inteligencję nie jest science fiction

(CLO) Wojna nuklearna wywołana przez sztuczną inteligencję brzmi jak coś z filmu science fiction. Jednak wielu czołowych naukowców i polityków świata twierdzi, że tak nie jest.

Công LuậnCông Luận23/03/2025

Ryzyko utraty kontroli nad sztuczną inteligencją

Ludzkość zdaje się ignorować widmo na horyzoncie: widmo globalnej wojny nuklearnej wywołanej przez sztuczną inteligencję (AI). Sekretarz Generalny ONZ António Guterres ostrzegał przed tym. Jednak jak dotąd państwa posiadające broń jądrową nie zjednoczyły się, aby negocjować to katastrofalne zagrożenie.

Niebezpieczeństwo wojny nuklearnej nie jest mitem.

Szybki rozwój sztucznej inteligencji (AI) stwarza ryzyko, że AI mogłaby ingerować w proces wystrzeliwania broni jądrowej. Zdjęcie ilustracyjne

Od dawna istnieje nieformalny konsensus wśród pięciu największych mocarstw posiadających broń jądrową – USA, Rosji, Chin, Wielkiej Brytanii i Francji – co do zasady „udziału człowieka w procesie decyzyjnym”. Oznacza to, że każdy kraj dysponuje systemem zapewniającym udział człowieka w podejmowaniu decyzji o wystrzeleniu broni jądrowej.

Żadne z pięciu mocarstw nie twierdzi, że wdrożyło sztuczną inteligencję w swoich systemach dowodzenia odpalaniem pocisków jądrowych. To prawda, ale myląca, twierdzi dr Sundeep Waslekar, prezes Strategic Foresight Group, międzynarodowej organizacji badawczej z siedzibą w Mumbaju w Indiach.

Sztuczna inteligencja jest już wykorzystywana do wykrywania zagrożeń i wyboru celów. Systemy oparte na sztucznej inteligencji analizują w czasie rzeczywistym ogromne ilości danych z czujników, satelitów i radarów, analizując nadlatujące ataki rakietowe i sugerując opcje reakcji.

Operator następnie weryfikuje zagrożenie z różnych źródeł i podejmuje decyzję, czy przechwycić rakiety wroga, czy przeprowadzić ataki odwetowe.

„Obecnie czas reakcji dostępny dla operatorów wynosi od 10 do 15 minut. Do 2030 roku zostanie on skrócony do 5–7 minut” – powiedział Sundeep Waslekar. „Chociaż to ludzie będą podejmować ostateczne decyzje, będą one pod wpływem predykcyjnej i preskryptywnej analityki sztucznej inteligencji. Sztuczna inteligencja może być siłą napędową decyzji o starcie już w latach 30. XXI wieku”.

Problem polega na tym, że sztuczna inteligencja może się mylić. Algorytmy wykrywania zagrożeń mogą sygnalizować atak rakietowy, mimo że do niego nie doszło. Może to być spowodowane błędami komputera, włamaniami do sieci lub czynnikami środowiskowymi, które zakłócają sygnały. Jeśli operatorzy nie potwierdzą fałszywych alarmów z innych źródeł w ciągu dwóch do trzech minut, mogą one wywołać ataki odwetowe.

Bardzo mały błąd, ogromna katastrofa

Wykorzystanie sztucznej inteligencji w wielu funkcjach cywilnych, takich jak przewidywanie przestępczości, rozpoznawanie twarzy i diagnozowanie nowotworów, charakteryzuje się marginesem błędu wynoszącym 10%. Według Sundeepa Waslekara, w systemach wczesnego ostrzegania przed zagrożeniami nuklearnymi margines błędu może wynosić około 5%.

Wraz ze wzrostem dokładności algorytmów rozpoznawania obrazu w ciągu następnej dekady, margines błędu może spaść do 1-2%. Jednak nawet 1% margines błędu może doprowadzić do globalnej wojny nuklearnej.

Niebezpieczeństwo wojny nuklearnej nie jest mitem.

Decyzje o ataku lub odwecie za broń jądrową mogą być podejmowane na skutek błędów sztucznej inteligencji. Zdjęcie: Modern War Institute

Ryzyko może wzrosnąć w ciągu najbliższych dwóch do trzech lat, wraz z pojawieniem się nowego złośliwego oprogramowania, które potrafi ominąć systemy wykrywania zagrożeń. Takie złośliwe oprogramowanie będzie się dostosowywać, aby unikać wykrycia, automatycznie identyfikować cele i atakować je.

Podczas zimnej wojny doszło do kilku sytuacji „marginesu”. W 1983 roku radziecki satelita omyłkowo wykrył pięć pocisków wystrzelonych przez Stany Zjednoczone. Stanisław Pietrow, oficer w rosyjskim centrum dowodzenia Sepuchow-15, uznał to za fałszywy alarm i nie powiadomił swoich przełożonych, aby mogli oni przeprowadzić kontratak.

W 1995 roku stacja radarowa w Olenegorsku wykryła atak rakietowy u wybrzeży Norwegii. Rosyjskie siły strategiczne zostały postawione w stan najwyższej gotowości, a ówczesny prezydent Borys Jelcyn otrzymał nuklearną teczkę. Podejrzewał, że to pomyłka i nie nacisnął przycisku. Okazało się, że to rakieta naukowa . Gdyby w obu przypadkach do określenia reakcji wykorzystano sztuczną inteligencję, skutki mogłyby być katastrofalne.

Dzisiejsze pociski hipersoniczne wykorzystują konwencjonalną automatykę zamiast sztucznej inteligencji. Mogą one poruszać się z prędkością od Mach 5 do Mach 25, unikając wykrycia przez radary i kontrolując tor lotu. Supermocarstwa planują udoskonalić pociski hipersoniczne za pomocą sztucznej inteligencji, aby natychmiast lokalizować i niszczyć ruchome cele, przenosząc decyzję o zabiciu z ludzi na maszyny.

Trwa również wyścig w rozwoju ogólnej sztucznej inteligencji, co może doprowadzić do powstania modeli AI działających poza ludzką kontrolą. Kiedy to nastąpi, systemy AI nauczą się samodoskonalić i replikować, przejmując procesy decyzyjne. Jeśli taka SI zostanie zintegrowana z systemami wspomagania decyzji w zakresie broni jądrowej, maszyny będą mogły inicjować niszczycielskie wojny.

Czas działać

W obliczu powyższych zagrożeń wielu ekspertów uważa, że ​​ludzkość potrzebuje kompleksowego porozumienia między głównymi mocarstwami, które zminimalizuje ryzyko wojny nuklearnej, wykraczającego poza powtarzanie hasła „człowiek w centrum uwagi”.

Porozumienie to powinno obejmować środki zapewniające przejrzystość, rozliczalność i współpracę; międzynarodowe standardy testowania i oceny; kanały komunikacji kryzysowej; krajowe rady nadzoru; a także przepisy zakazujące stosowania agresywnych modeli sztucznej inteligencji, które są w stanie ominąć operatorów ludzkich.

Niebezpieczeństwo wojny nuklearnej nie jest problemem dla eksperta od obrazów 3D

Sekretarz Generalny António Guterres bierze udział w ceremonii upamiętniającej pokój w Hiroszimie, która została trafiona bombą atomową w 1945 roku. Zdjęcie: ONZ

Zmiany geopolityczne stwarzają okazję do zawarcia takiego paktu. Wiodący eksperci w dziedzinie sztucznej inteligencji z Chin i USA, na przykład, zaangażowali się w szereg dwutorowych dialogów na temat zagrożeń związanych ze sztuczną inteligencją, co doprowadziło do wspólnego oświadczenia byłego prezydenta USA Joe Bidena i prezydenta Chin Xi Jinpinga w listopadzie ubiegłego roku.

Miliarder Elon Musk jest gorącym zwolennikiem konieczności ocalenia ludzkości przed egzystencjalnymi zagrożeniami, jakie niesie ze sobą sztuczna inteligencja. Według dr. Sundeepa Waslekara może on nakłonić obecnego prezydenta USA Donalda Trumpa do przekształcenia wspólnego oświadczenia Joe Bidena i Xi Jinpinga w traktat.

Według dr. Sundeepa Waslekara, wyzwanie związane z nuklearną strategią sztucznej inteligencji wymaga również udziału Rosji. Do stycznia tego roku Rosja odmawiała rozmów na temat jakichkolwiek środków ograniczających ryzyko jądrowe, w tym konwergencji ze sztuczną inteligencją, chyba że poruszono kwestię Ukrainy.

W związku z tym, że prezydent Donald Trump nawiązał dialog z prezydentem Rosji Władimirem Putinem w celu poprawy stosunków dwustronnych i zakończenia wojny na Ukrainie, Rosja może być teraz otwarta na dyskusje.

W lutym tego roku, po przemówieniu wiceprezydenta USA J.D. Vance’a na paryskim szczycie AI Action Summit, Centrum Nowego Bezpieczeństwa Amerykańskiego (CNAS) opublikowało również raport zatytułowany „Zapobieganie zagładzie sztucznej inteligencji: rywalizacja USA, Chin i Rosji na styku broni jądrowej i sztucznej inteligencji”.

W raporcie wskazano najpoważniejsze zagrożenia związane z powiązaniami sztucznej inteligencji z energią jądrową i wezwano administrację USA do opracowania kompleksowych mechanizmów łagodzenia ryzyka i zarządzania kryzysowego we współpracy z Chinami i Rosją.

Wcześniej, we wrześniu ubiegłego roku, około 60 krajów, w tym Stany Zjednoczone, przyjęło „plan działania” mający na celu zarządzanie odpowiedzialnym wykorzystaniem sztucznej inteligencji w wojsku podczas szczytu „Responsible AI in Military Summit” (REAIM), który odbył się w Seulu w Korei Południowej. Była to druga tego typu konferencja, po konferencji zorganizowanej w Hadze w zeszłym roku. Działania te pokazują, że ryzyko wojny nuklearnej wywołanej przez sztuczną inteligencję nie jest science fiction.

Świat stoi wyraźnie w obliczu coraz pilniejszego problemu egzystencjalnego, który wymaga realnych działań ze strony mocarstw nuklearnych, aby zagwarantować, że „każdą decyzję o użyciu broni jądrowej podejmują ludzie, a nie maszyny czy algorytmy” – zgodnie z apelem Sekretarza Generalnego ONZ Antonio Guterresa.

Nguyen Khanh


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tej samej kategorii

Katedra Notre Dame w Ho Chi Minh City rozświetlona z okazji Bożego Narodzenia 2025
Dziewczyny z Hanoi „pięknie się ubierają” na okres Bożego Narodzenia
Rozjaśniona po burzy i powodzi wioska chryzantem Tet w Gia Lai ma nadzieję, że nie będzie przerw w dostawie prądu, które mogłyby uratować rośliny.
Stolica żółtej moreli w regionie centralnym poniosła duże straty po dwóch klęskach żywiołowych

Od tego samego autora

Dziedzictwo

Postać

Biznes

Liczba klientów kawiarni Dalat wzrosła o 300%, ponieważ właściciel odgrywa rolę w „filmie o sztukach walki”

Aktualne wydarzenia

System polityczny

Lokalny

Produkt

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC