Ryzyko utraty kontroli nad sztuczną inteligencją
Ludzkość zdaje się ignorować widmo na horyzoncie: widmo globalnej wojny nuklearnej wywołanej przez sztuczną inteligencję (AI). Sekretarz Generalny ONZ António Guterres ostrzegał przed tym. Jednak jak dotąd państwa posiadające broń jądrową nie zjednoczyły się, aby negocjować to katastrofalne zagrożenie.
Szybki rozwój sztucznej inteligencji (AI) stwarza ryzyko, że AI mogłaby ingerować w proces wystrzeliwania broni jądrowej. Zdjęcie ilustracyjne
Od dawna istnieje nieformalny konsensus wśród pięciu największych mocarstw posiadających broń jądrową – USA, Rosji, Chin, Wielkiej Brytanii i Francji – co do zasady „udziału człowieka w procesie decyzyjnym”. Oznacza to, że każdy kraj dysponuje systemem zapewniającym udział człowieka w podejmowaniu decyzji o wystrzeleniu broni jądrowej.
Żadne z pięciu mocarstw nie twierdzi, że wdrożyło sztuczną inteligencję w swoich systemach dowodzenia odpalaniem pocisków jądrowych. To prawda, ale myląca, twierdzi dr Sundeep Waslekar, prezes Strategic Foresight Group, międzynarodowej organizacji badawczej z siedzibą w Mumbaju w Indiach.
Sztuczna inteligencja jest już wykorzystywana do wykrywania zagrożeń i wyboru celów. Systemy oparte na sztucznej inteligencji analizują w czasie rzeczywistym ogromne ilości danych z czujników, satelitów i radarów, analizując nadlatujące ataki rakietowe i sugerując opcje reakcji.
Operator następnie weryfikuje zagrożenie z różnych źródeł i podejmuje decyzję, czy przechwycić rakiety wroga, czy przeprowadzić ataki odwetowe.
„Obecnie czas reakcji dostępny dla operatorów wynosi od 10 do 15 minut. Do 2030 roku zostanie on skrócony do 5–7 minut” – powiedział Sundeep Waslekar. „Chociaż to ludzie będą podejmować ostateczne decyzje, będą one pod wpływem predykcyjnej i preskryptywnej analityki sztucznej inteligencji. Sztuczna inteligencja może być siłą napędową decyzji o starcie już w latach 30. XXI wieku”.
Problem polega na tym, że sztuczna inteligencja może się mylić. Algorytmy wykrywania zagrożeń mogą sygnalizować atak rakietowy, mimo że do niego nie doszło. Może to być spowodowane błędami komputera, włamaniami do sieci lub czynnikami środowiskowymi, które zakłócają sygnały. Jeśli operatorzy nie potwierdzą fałszywych alarmów z innych źródeł w ciągu dwóch do trzech minut, mogą one wywołać ataki odwetowe.
Bardzo mały błąd, ogromna katastrofa
Wykorzystanie sztucznej inteligencji w wielu funkcjach cywilnych, takich jak przewidywanie przestępczości, rozpoznawanie twarzy i diagnozowanie nowotworów, charakteryzuje się marginesem błędu wynoszącym 10%. Według Sundeepa Waslekara, w systemach wczesnego ostrzegania przed zagrożeniami nuklearnymi margines błędu może wynosić około 5%.
Wraz ze wzrostem dokładności algorytmów rozpoznawania obrazu w ciągu następnej dekady, margines błędu może spaść do 1-2%. Jednak nawet 1% margines błędu może doprowadzić do globalnej wojny nuklearnej.
Decyzje o ataku lub odwecie za broń jądrową mogą być podejmowane na skutek błędów sztucznej inteligencji. Zdjęcie: Modern War Institute
Ryzyko może wzrosnąć w ciągu najbliższych dwóch do trzech lat, wraz z pojawieniem się nowego złośliwego oprogramowania, które potrafi ominąć systemy wykrywania zagrożeń. Takie złośliwe oprogramowanie będzie się dostosowywać, aby unikać wykrycia, automatycznie identyfikować cele i atakować je.
Podczas zimnej wojny doszło do kilku sytuacji „marginesu”. W 1983 roku radziecki satelita omyłkowo wykrył pięć pocisków wystrzelonych przez Stany Zjednoczone. Stanisław Pietrow, oficer w rosyjskim centrum dowodzenia Sepuchow-15, uznał to za fałszywy alarm i nie powiadomił swoich przełożonych, aby mogli oni przeprowadzić kontratak.
W 1995 roku stacja radarowa w Olenegorsku wykryła atak rakietowy u wybrzeży Norwegii. Rosyjskie siły strategiczne zostały postawione w stan najwyższej gotowości, a ówczesny prezydent Borys Jelcyn otrzymał nuklearną teczkę. Podejrzewał, że to pomyłka i nie nacisnął przycisku. Okazało się, że to rakieta naukowa . Gdyby w obu przypadkach do określenia reakcji wykorzystano sztuczną inteligencję, skutki mogłyby być katastrofalne.
Dzisiejsze pociski hipersoniczne wykorzystują konwencjonalną automatykę zamiast sztucznej inteligencji. Mogą one poruszać się z prędkością od Mach 5 do Mach 25, unikając wykrycia przez radary i kontrolując tor lotu. Supermocarstwa planują udoskonalić pociski hipersoniczne za pomocą sztucznej inteligencji, aby natychmiast lokalizować i niszczyć ruchome cele, przenosząc decyzję o zabiciu z ludzi na maszyny.
Trwa również wyścig w rozwoju ogólnej sztucznej inteligencji, co może doprowadzić do powstania modeli AI działających poza ludzką kontrolą. Kiedy to nastąpi, systemy AI nauczą się samodoskonalić i replikować, przejmując procesy decyzyjne. Jeśli taka SI zostanie zintegrowana z systemami wspomagania decyzji w zakresie broni jądrowej, maszyny będą mogły inicjować niszczycielskie wojny.
Czas działać
W obliczu powyższych zagrożeń wielu ekspertów uważa, że ludzkość potrzebuje kompleksowego porozumienia między głównymi mocarstwami, które zminimalizuje ryzyko wojny nuklearnej, wykraczającego poza powtarzanie hasła „człowiek w centrum uwagi”.
Porozumienie to powinno obejmować środki zapewniające przejrzystość, rozliczalność i współpracę; międzynarodowe standardy testowania i oceny; kanały komunikacji kryzysowej; krajowe rady nadzoru; a także przepisy zakazujące stosowania agresywnych modeli sztucznej inteligencji, które są w stanie ominąć operatorów ludzkich.
Sekretarz Generalny António Guterres bierze udział w ceremonii upamiętniającej pokój w Hiroszimie, która została trafiona bombą atomową w 1945 roku. Zdjęcie: ONZ
Zmiany geopolityczne stwarzają okazję do zawarcia takiego paktu. Wiodący eksperci w dziedzinie sztucznej inteligencji z Chin i USA, na przykład, zaangażowali się w szereg dwutorowych dialogów na temat zagrożeń związanych ze sztuczną inteligencją, co doprowadziło do wspólnego oświadczenia byłego prezydenta USA Joe Bidena i prezydenta Chin Xi Jinpinga w listopadzie ubiegłego roku.
Miliarder Elon Musk jest gorącym zwolennikiem konieczności ocalenia ludzkości przed egzystencjalnymi zagrożeniami, jakie niesie ze sobą sztuczna inteligencja. Według dr. Sundeepa Waslekara może on nakłonić obecnego prezydenta USA Donalda Trumpa do przekształcenia wspólnego oświadczenia Joe Bidena i Xi Jinpinga w traktat.
Według dr. Sundeepa Waslekara, wyzwanie związane z nuklearną strategią sztucznej inteligencji wymaga również udziału Rosji. Do stycznia tego roku Rosja odmawiała rozmów na temat jakichkolwiek środków ograniczających ryzyko jądrowe, w tym konwergencji ze sztuczną inteligencją, chyba że poruszono kwestię Ukrainy.
W związku z tym, że prezydent Donald Trump nawiązał dialog z prezydentem Rosji Władimirem Putinem w celu poprawy stosunków dwustronnych i zakończenia wojny na Ukrainie, Rosja może być teraz otwarta na dyskusje.
W lutym tego roku, po przemówieniu wiceprezydenta USA J.D. Vance’a na paryskim szczycie AI Action Summit, Centrum Nowego Bezpieczeństwa Amerykańskiego (CNAS) opublikowało również raport zatytułowany „Zapobieganie zagładzie sztucznej inteligencji: rywalizacja USA, Chin i Rosji na styku broni jądrowej i sztucznej inteligencji”.
W raporcie wskazano najpoważniejsze zagrożenia związane z powiązaniami sztucznej inteligencji z energią jądrową i wezwano administrację USA do opracowania kompleksowych mechanizmów łagodzenia ryzyka i zarządzania kryzysowego we współpracy z Chinami i Rosją.
Wcześniej, we wrześniu ubiegłego roku, około 60 krajów, w tym Stany Zjednoczone, przyjęło „plan działania” mający na celu zarządzanie odpowiedzialnym wykorzystaniem sztucznej inteligencji w wojsku podczas szczytu „Responsible AI in Military Summit” (REAIM), który odbył się w Seulu w Korei Południowej. Była to druga tego typu konferencja, po konferencji zorganizowanej w Hadze w zeszłym roku. Działania te pokazują, że ryzyko wojny nuklearnej wywołanej przez sztuczną inteligencję nie jest science fiction.
Świat stoi wyraźnie w obliczu coraz pilniejszego problemu egzystencjalnego, który wymaga realnych działań ze strony mocarstw nuklearnych, aby zagwarantować, że „każdą decyzję o użyciu broni jądrowej podejmują ludzie, a nie maszyny czy algorytmy” – zgodnie z apelem Sekretarza Generalnego ONZ Antonio Guterresa.
Nguyen Khanh










Komentarz (0)