Die Gefahren des Kontrollverlusts über KI
Die Menschheit scheint ein Schreckgespenst am Horizont zu ignorieren: einen globalen Atomkrieg durch künstliche Intelligenz (KI). UN-Generalsekretär Antonio Guterres hat davor gewarnt. Doch bisher haben sich die Atommächte nicht zusammengeschlossen, um über diese katastrophale Bedrohung zu verhandeln.
Die rasante Entwicklung künstlicher Intelligenz (KI) birgt das Risiko, dass KI in den Abschuss von Atomwaffen eingreifen könnte. Illustrationsfoto
Unter den fünf größten Atommächten – den USA, Russland, China, Großbritannien und Frankreich – besteht seit langem ein informeller Konsens über das Prinzip der „Humans in the Loop“. Das bedeutet, dass jedes Land über ein System verfügt, das sicherstellt, dass Menschen an der Entscheidung über den Einsatz von Atomwaffen beteiligt sind.
Keine der fünf Großmächte gibt an, KI in ihren Startleitsystemen für Atomwaffen einzusetzen. Dies ist zwar richtig, aber irreführend, so Dr. Sundeep Waslekar, Vorsitzender der Strategic Foresight Group, einer internationalen Forschungsorganisation mit Sitz in Mumbai, Indien.
KI wird bereits zur Bedrohungserkennung und Zielauswahl eingesetzt. KI-gestützte Systeme analysieren in Echtzeit große Datenmengen von Sensoren, Satelliten und Radaren, analysieren eingehende Raketenangriffe und schlagen entsprechende Reaktionsoptionen vor.
Anschließend prüft der Bediener die Bedrohung aus verschiedenen Quellen und entscheidet, ob feindliche Raketen abgefangen oder Vergeltungsschläge durchgeführt werden sollen.
„Derzeit beträgt die Reaktionszeit der Betreiber 10 bis 15 Minuten. Bis 2030 wird sie auf 5 bis 7 Minuten reduziert“, sagte Sundeep Waslekar. „Auch wenn Menschen die endgültigen Entscheidungen treffen, werden sie von der prädiktiven und präskriptiven Analyse der KI beeinflusst. KI könnte bereits in den 2030er Jahren die treibende Kraft hinter Startentscheidungen sein.“
Das Problem ist, dass KI sich irren kann. Bedrohungserkennungsalgorithmen können einen Raketenangriff anzeigen, obwohl keiner stattfindet. Dies kann auf Computerfehler, Netzwerkeinbrüche oder Umweltfaktoren zurückzuführen sein, die die Signale beeinträchtigen. Wenn menschliche Bediener Fehlalarme aus anderen Quellen nicht innerhalb von zwei bis drei Minuten bestätigen können, könnten sie Vergeltungsschläge auslösen.
Sehr kleiner Fehler, große Katastrophe
Der Einsatz von KI in vielen zivilen Bereichen wie der Kriminalitätsvorhersage, Gesichtserkennung und Krebsprognose weist bekanntermaßen eine Fehlerquote von 10 Prozent auf. Bei nuklearen Frühwarnsystemen kann die Fehlerquote laut Sundeep Waslekar bei etwa 5 Prozent liegen.
Da sich die Genauigkeit von Bilderkennungsalgorithmen im Laufe des nächsten Jahrzehnts verbessert, könnte diese Fehlerquote auf 1–2 % sinken. Doch selbst eine Fehlerquote von 1 % könnte einen globalen Atomkrieg auslösen.
Entscheidungen über einen Atomschlag oder einen Vergeltungsschlag könnten durch KI-Fehler ausgelöst werden. Foto: Modern War Institute
Das Risiko könnte in den nächsten zwei bis drei Jahren zunehmen, da neue Schadsoftware auftaucht, die Bedrohungserkennungssysteme umgehen kann. Diese Schadsoftware wird sich anpassen, um nicht erkannt zu werden, Ziele automatisch zu identifizieren und sie automatisch anzugreifen.
Während des Kalten Krieges kam es mehrfach zu „Konfrontationsmanövern“. 1983 registrierte ein sowjetischer Satellit fälschlicherweise fünf von den USA abgefeuerte Raketen. Stanislaw Petrow, ein Offizier im russischen Kommandozentrum Sepuchow-15, schloss daraus, dass es sich um einen Fehlalarm handelte, und alarmierte seine Vorgesetzten nicht, um einen Gegenangriff zu starten.
1995 registrierte die Radarstation Olenegorsk einen Raketenangriff vor der norwegischen Küste. Russlands strategische Streitkräfte wurden in höchste Alarmbereitschaft versetzt, und dem damaligen russischen Präsidenten Boris Jelzin wurde der Atomkoffer übergeben. Er vermutete einen Fehler und drückte den Knopf nicht. Es stellte sich heraus, dass es sich um eine wissenschaftliche Rakete handelte. Wäre in beiden Fällen KI zur Bestimmung der Reaktion eingesetzt worden, hätten die Folgen katastrophal sein können.
Hyperschallraketen nutzen heute konventionelle Automatisierung statt KI. Sie können Geschwindigkeiten von Mach 5 bis Mach 25 erreichen, Radarerkennung vermeiden und ihre Flugbahnen steuern. Die Supermächte planen, Hyperschallraketen mit KI auszustatten, um bewegliche Ziele sofort zu orten und zu zerstören. So wird die Entscheidung über den Tötungsvorgang vom Menschen auf die Maschine verlagert.
Es gibt auch einen Wettlauf um die Entwicklung allgemeiner künstlicher Intelligenz, der zu KI-Modellen führen könnte, die jenseits menschlicher Kontrolle agieren. In diesem Fall werden KI-Systeme lernen, sich selbst zu verbessern und zu replizieren und Entscheidungsprozesse zu übernehmen. Wird solche KI in Entscheidungsunterstützungssysteme für Atomwaffen integriert, können Maschinen verheerende Kriege auslösen.
Zeit zu handeln
Angesichts der genannten Risiken sind viele Experten der Ansicht, dass die Menschheit zur Minimierung des Risikos eines Atomkriegs eine umfassende Vereinbarung zwischen den Großmächten braucht, die über die bloße Wiederholung des Slogans „Menschen in der Schleife“ hinausgeht.
Dieses Abkommen sollte Maßnahmen zu Transparenz, Rechenschaftspflicht und Zusammenarbeit, internationale Standards für Tests und Bewertungen, Krisenkommunikationskanäle, nationale Aufsichtsbehörden und Regeln zum Verbot aggressiver KI-Modelle, die in der Lage sind, menschliche Bediener zu umgehen, umfassen.
Generalsekretär António Guterres nimmt an einer Gedenkzeremonie für den Frieden in Hiroshima teil, das 1945 von einer Atombombe getroffen wurde. Foto: UN
Geopolitische Veränderungen bieten die Gelegenheit für einen solchen Pakt. Führende KI-Experten aus China und den USA haben sich beispielsweise an mehreren Dialogen zu KI-Risiken beteiligt, die im vergangenen November zu einer gemeinsamen Erklärung des ehemaligen US-Präsidenten Joe Biden und des chinesischen Präsidenten Xi Jinping führten.
Der Milliardär Elon Musk ist ein entschiedener Befürworter der Rettung der Menschheit vor den existenziellen Risiken, die von künstlicher Intelligenz ausgehen, und Musk könnte den derzeitigen US-Präsidenten Donald Trump dazu drängen, die gemeinsame Erklärung von Joe Biden und Xi Jinping in einen Vertrag umzuwandeln, meint Dr. Sundeep Waslekar.
Die KI-nukleare Herausforderung erfordert laut Dr. Sundeep Waslekar auch die Beteiligung Russlands. Bis Januar dieses Jahres weigerte sich Russland, über Maßnahmen zur Reduzierung des nuklearen Risikos, einschließlich der Annäherung an KI, zu diskutieren, es sei denn, die Ukraine wurde angesprochen.
Da Präsident Donald Trump einen Dialog mit dem russischen Präsidenten Wladimir Putin zur Verbesserung der bilateralen Beziehungen und zur Beendigung des Krieges in der Ukraine führt, ist Russland nun möglicherweise für Gespräche offen.
Im Februar dieses Jahres veröffentlichte das Center for a New American Security (CNAS) im Anschluss an die Rede des US-Vizepräsidenten JD Vance auf dem Pariser AI Action Summit einen Bericht mit dem Titel „Preventing the AI Doomsday: US-China-Russia Competition at the Nexus of Nuclear Weapons and Artificial Intelligence“.
Der Bericht identifiziert die größten Risiken des Zusammenhangs zwischen KI und Atomkraft und fordert die US-Regierung nachdrücklich auf, mit China und Russland umfassende Mechanismen zur Risikominderung und Krisenbewältigung zu etablieren.
Bereits im September letzten Jahres verabschiedeten rund 60 Länder, darunter die USA, auf dem Responsible AI in Military (REAIM)-Gipfel in Seoul, Südkorea, einen Aktionsplan für den verantwortungsvollen Einsatz von KI im Militär. Dies war die zweite Konferenz dieser Art nach der Konferenz in Den Haag im vergangenen Jahr. Solche Entwicklungen zeigen, dass die Gefahr eines durch KI ausgelösten Atomkriegs keine Science-Fiction ist.
Die Welt steht eindeutig vor einem immer dringlicheren existenziellen Problem, das echtes Handeln seitens der Atommächte erfordert, um sicherzustellen, dass „jede Entscheidung über den Einsatz von Atomwaffen von Menschen und nicht von Maschinen oder Algorithmen getroffen wird“ – wie UN-Generalsekretär Antonio Guterres gefordert hat.
Nguyen Khanh
Kommentar (0)