Vietnam.vn - Nền tảng quảng bá Việt Nam

Das Risiko, dass eine KI einen Atomkrieg auslöst, ist keine Science-Fiction.

(CLO) Ein von KI ausgelöster Atomkrieg klingt wie aus einem Science-Fiction-Film. Doch viele der weltweit führenden Wissenschaftler und Politiker sagen, dass dem nicht so ist.

Công LuậnCông Luận23/03/2025

Das Risiko, die Kontrolle über KI zu verlieren

Die Menschheit scheint ein Schreckgespenst am Horizont zu ignorieren: die Gefahr eines globalen Atomkriegs, ausgelöst durch künstliche Intelligenz (KI). UN-Generalsekretär António Guterres hat davor gewarnt. Doch bisher haben sich die Atommächte nicht zusammengefunden, um diese katastrophale Bedrohung zu bewältigen.

Die Gefahr eines Atomkriegs ist kein Mythos.

Die rasante Entwicklung künstlicher Intelligenz (KI) birgt das Risiko, dass KI in den Startvorgang von Atomwaffen eingreifen könnte. (Illustrationsfoto)

Zwischen den fünf größten Atommächten – den USA, Russland, China, Großbritannien und Frankreich – besteht seit langem ein informeller Konsens über das Prinzip der „Einbeziehung des Menschen in die Entscheidungsfindung“. Dies bedeutet, dass jedes Land über ein System verfügt, das sicherstellt, dass Menschen in die Entscheidung über den Einsatz von Atomwaffen einbezogen werden.

Keine der fünf Atommächte gibt an, KI in ihren nuklearen Startleitsystemen eingesetzt zu haben. Das ist zwar richtig, aber irreführend, so Dr. Sundeep Waslekar, Präsident der Strategic Foresight Group, einer internationalen Forschungsorganisation in Mumbai, Indien.

Künstliche Intelligenz wird bereits zur Bedrohungserkennung und Zielauswahl eingesetzt. KI-gestützte Systeme analysieren große Datenmengen von Sensoren, Satelliten und Radargeräten in Echtzeit, um anfliegende Raketenangriffe zu analysieren und Gegenmaßnahmen vorzuschlagen.

Der Bediener gleicht dann die Bedrohung aus verschiedenen Quellen ab und entscheidet, ob feindliche Raketen abgefangen oder Vergeltungsschläge durchgeführt werden sollen.

„Aktuell beträgt die Reaktionszeit für menschliche Bediener 10 bis 15 Minuten. Bis 2030 wird sie sich auf 5 bis 7 Minuten reduzieren“, sagte Sundeep Waslekar. „Zwar werden Menschen die endgültigen Entscheidungen treffen, aber sie werden von den prädiktiven und präskriptiven Analysen der KI beeinflusst. KI könnte bereits in den 2030er-Jahren die treibende Kraft hinter Startentscheidungen sein.“

Das Problem besteht darin, dass KI fehlerhaft sein kann. Bedrohungserkennungsalgorithmen können einen Raketenangriff anzeigen, obwohl keiner stattfindet. Dies kann auf Computerfehler, Netzwerkangriffe oder Umwelteinflüsse zurückzuführen sein, die die Signale stören. Können menschliche Bediener Fehlalarme nicht innerhalb von zwei bis drei Minuten durch andere Quellen bestätigen, könnten sie Vergeltungsschläge auslösen.

Kleinster Fehler, riesige Katastrophe

Der Einsatz von KI in vielen zivilen Bereichen wie der Verbrechensbekämpfung, der Gesichtserkennung und der Krebsprognose weist bekanntermaßen eine Fehlermarge von 10 % auf. Bei nuklearen Frühwarnsystemen kann die Fehlermarge laut Sundeep Waslekar bei etwa 5 % liegen.

Da sich die Genauigkeit von Bilderkennungsalgorithmen im Laufe des nächsten Jahrzehnts verbessern wird, könnte diese Fehlermarge auf 1-2 % sinken. Doch selbst eine Fehlermarge von 1 % könnte einen globalen Atomkrieg auslösen.

Die Gefahr eines Atomkriegs ist kein Mythos.

KI-Fehler könnten Entscheidungen zum Angriff oder zur Vergeltung gegen Atomwaffen auslösen. Foto: Modern War Institute

Das Risiko könnte in den nächsten zwei bis drei Jahren steigen, da neue Schadsoftware auftaucht, die Bedrohungserkennungssysteme umgehen kann. Diese Schadsoftware wird sich anpassen, um nicht entdeckt zu werden, Ziele automatisch identifizieren und diese angreifen.

Während des Kalten Krieges gab es mehrere Situationen, in denen es ums Spiel mit dem Feuer ging. 1983 ortete ein sowjetischer Satellit irrtümlich fünf von den USA abgefeuerte Raketen. Stanislaw Petrov, ein Offizier im russischen Kommandozentrum Sepuchow-15, ging von einem Fehlalarm aus und informierte seine Vorgesetzten nicht, sodass diese keinen Gegenangriff einleiten konnten.

1995 registrierte die Radarstation Olenegorsk einen Raketenangriff vor der Küste Norwegens. Russlands strategische Streitkräfte wurden in höchste Alarmbereitschaft versetzt, und dem damaligen Präsidenten Boris Jelzin wurde der Atomkoffer überreicht. Er vermutete einen Irrtum und drückte den Knopf nicht. Es stellte sich heraus, dass es sich um eine Forschungsrakete handelte. Wäre in einer dieser Situationen künstliche Intelligenz zur Bestimmung der Reaktion eingesetzt worden, wären die Folgen katastrophal gewesen.

Hyperschallraketen nutzen heute konventionelle Automatisierung anstelle von KI. Sie erreichen Geschwindigkeiten zwischen Mach 5 und Mach 25, entgehen der Radarerfassung und steuern ihre Flugbahn selbstständig. Die Supermächte planen, Hyperschallraketen mit KI auszustatten, um bewegliche Ziele sofort zu orten und zu zerstören und so die Entscheidung über den Angriff von Menschen auf Maschinen zu übertragen.

Es gibt auch einen Wettlauf um die Entwicklung allgemeiner künstlicher Intelligenz, der zu KI-Modellen führen könnte, die sich der menschlichen Kontrolle entziehen. In diesem Fall lernen KI-Systeme, sich selbst zu verbessern und zu replizieren und übernehmen Entscheidungsprozesse. Wird eine solche KI in Entscheidungssysteme für Atomwaffen integriert, können Maschinen verheerende Kriege auslösen.

Es ist Zeit zu handeln

Angesichts der oben genannten Risiken sind viele Experten der Ansicht, dass die Menschheit ein umfassendes Abkommen zwischen den Großmächten benötigt, um das Risiko eines Atomkriegs zu minimieren, und dass dies über die bloße Wiederholung des Slogans „Der Mensch ist mitverantwortlich“ hinausgeht.

Dieses Abkommen sollte Maßnahmen zur Transparenz, Rechenschaftspflicht und Zusammenarbeit, internationale Standards für Tests und Evaluierungen, Krisenkommunikationskanäle, nationale Aufsichtsgremien sowie Regeln zum Verbot aggressiver KI-Modelle, die menschliche Bediener umgehen können, umfassen.

Die Gefahr eines Atomkriegs ist kein 3D-Bildexperte

UN-Generalsekretär António Guterres nimmt an einer Gedenkfeier für die Opfer des Atombombenabwurfs in Hiroshima (1945) teil. Foto: UN

Geopolitische Verschiebungen schaffen die Möglichkeit für ein solches Abkommen. Führende KI-Experten aus China und den USA haben beispielsweise mehrere informelle Gespräche über KI-Risiken geführt, was im vergangenen November zu einer gemeinsamen Erklärung des ehemaligen US-Präsidenten Joe Biden und des chinesischen Präsidenten Xi Jinping führte.

Laut Dr. Sundeep Waslekar ist der Milliardär Elon Musk ein starker Verfechter der Notwendigkeit, die Menschheit vor den existenziellen Risiken der KI zu bewahren, und er könnte den derzeitigen US-Präsidenten Donald Trump dazu drängen, die gemeinsame Erklärung zwischen Joe Biden und Xi Jinping in einen Vertrag umzuwandeln.

Laut Dr. Sundeep Waslekar erfordert die Herausforderung im Bereich der nuklearen Technologie auch die Beteiligung Russlands. Bis Januar dieses Jahres weigerte sich Russland, über Maßnahmen zur Reduzierung des nuklearen Risikos, einschließlich der Konvergenz mit KI, zu sprechen, solange die Ukraine nicht Thema war.

Da Präsident Donald Trump mit dem russischen Präsidenten Wladimir Putin in einen Dialog tritt, um die bilateralen Beziehungen zu verbessern und den Krieg in der Ukraine zu beenden, könnte Russland nun zu Gesprächen bereit sein.

Im Februar dieses Jahres, im Anschluss an die Rede des US-Vizepräsidenten JD Vance auf dem Pariser KI-Aktionsgipfel, veröffentlichte das Center for a New American Security (CNAS) auch einen Bericht mit dem Titel „Die Verhinderung eines KI-Weltuntergangs: Der Wettbewerb zwischen den USA, China und Russland im Spannungsfeld von Atomwaffen und künstlicher Intelligenz“.

Der Bericht benennt die größten Risiken des KI-Atomkraft-Nexus und fordert die US-Regierung nachdrücklich auf, mit China und Russland ein umfassendes Paket an Risikominderungs- und Krisenmanagementmechanismen zu etablieren.

Bereits im September letzten Jahres verabschiedeten rund 60 Länder, darunter die USA, auf dem Responsible AI in Military Summit (REAIM) in Seoul, Südkorea, einen Aktionsplan für den verantwortungsvollen Einsatz von KI im Militär. Dies war die zweite Konferenz dieser Art nach der letztjährigen Konferenz in Den Haag. Diese Entwicklungen zeigen, dass die Gefahr eines durch KI ausgelösten Atomkriegs keine Science-Fiction ist.

Die Welt steht eindeutig vor einem immer dringlicheren existenziellen Problem, das echtes Handeln der Atommächte erfordert, um sicherzustellen, dass „jede Entscheidung über den Einsatz von Atomwaffen von Menschen und nicht von Maschinen oder Algorithmen getroffen wird“ – wie UN-Generalsekretär Antonio Guterres gefordert hat.

Nguyen Khanh


Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiche Kategorie

Die Notre-Dame-Kathedrale in Ho-Chi-Minh-Stadt erstrahlt im hellen Lichterglanz, um Weihnachten 2025 willkommen zu heißen.
Hanoi-Mädchen kleiden sich wunderschön für die Weihnachtszeit
Nach dem Sturm und der Überschwemmung erstrahlt das Tet-Chrysanthemendorf in Gia Lai wieder in neuem Glanz und hofft, dass es keine Stromausfälle geben wird, um die Pflanzen zu retten.
Die Hauptstadt des Anbaus gelber Aprikosen in der Zentralregion erlitt nach zwei Naturkatastrophen schwere Verluste.

Gleicher Autor

Erbe

Figur

Geschäft

Ein Café in Dalat verzeichnet einen Kundenzuwachs von 300 %, weil der Besitzer eine Rolle in einem „Kampfkunstfilm“ spielt.

Aktuelle Ereignisse

Politisches System

Lokal

Produkt

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC