Das komplexe Bild des Einsatzes von KI-Killerrobotern
Die Steuerung von Waffensystemen durch KI könnte dazu führen, dass Ziele ohne menschliches Zutun identifiziert, angegriffen und zerstört werden. Dies wirft schwerwiegende rechtliche und ethische Fragen auf.
Der österreichische Außenminister Alexander Schallenberg unterstrich den Ernst der Lage und sagte: „Dies ist der Oppenheimer-Moment unserer Generation.“
Roboter und Waffen mit künstlicher Intelligenz werden in den Armeen vieler Länder zunehmend eingesetzt. Foto: Forbes
Tatsächlich stellt sich die Frage, inwieweit der „Geist aus der Flasche entwichen“ ist, da Drohnen und künstliche Intelligenz (KI) in der Armee weltweit immer häufiger eingesetzt werden.
„Der Einsatz von Drohnen in modernen Konflikten durch Russland und die Ukraine, der Einsatz von Drohnen durch die USA bei gezielten Angriffsoperationen in Afghanistan und Pakistan und, wie letzten Monat bekannt wurde, im Rahmen des israelischen Lavender-Programms zeigen, wie die Informationsverarbeitungsfähigkeiten der KI von den Streitkräften der Welt aktiv genutzt werden, um ihre Angriffskraft zu stärken“, sagte Wilson Jones, Verteidigungsanalyst bei GlobalData.
Untersuchungen des in London ansässigen Office of War Investigative Journalism ergaben, dass das Lavender-KI-System des israelischen Militärs eine Trefferquote von 90 % bei der Identifizierung von Personen mit Hamas-Verbindungen aufwies, was bedeutet, dass nur 10 % keine Verbindungen zur Hamas hatten. Dies führte aufgrund der Identifizierungs- und Entscheidungsfähigkeiten der KI zu zivilen Todesopfern.
Eine Bedrohung für die globale Sicherheit
Der Einsatz von KI auf diese Weise unterstreicht die Notwendigkeit, die Technologie in Waffensystemen zu verwalten.
„Der Einsatz von KI in Waffensystemen, insbesondere wenn sie zur Zielerfassung eingesetzt wird, wirft grundlegende Fragen über uns – Menschen – und unsere Beziehung zum Krieg auf, und insbesondere über unsere Annahmen darüber, wie wir in bewaffneten Konflikten Gewalt anwenden könnten“, erklärte Dr. Alexander Blanchard, leitender wissenschaftlicher Mitarbeiter im Programm „Governance of Artificial Intelligence“ am Stockholm International Peace Research Institute (SIPRI), einer unabhängigen Forschungsgruppe mit Schwerpunkt auf globaler Sicherheit, gegenüber Army Technology.
KI-Systeme können in chaotischen Umgebungen unvorhersehbares Verhalten zeigen und Ziele möglicherweise nicht genau identifizieren. Foto: MES
„Ändert KI die Art und Weise, wie das Militär Ziele auswählt und Gewalt gegen sie anwendet? Diese Veränderungen werfen wiederum eine Reihe rechtlicher, ethischer und operativer Fragen auf. Die größten Bedenken sind humanitärer Natur“, fügte Dr. Blanchard hinzu.
„Viele befürchten, dass autonome Systeme, je nachdem, wie sie konzipiert und eingesetzt werden, Zivilisten und andere durch das Völkerrecht geschützte Personen einem größeren Risiko aussetzen könnten“, erklärte der SIPRI-Experte. „Das liegt daran, dass KI-Systeme, insbesondere in chaotischen Umgebungen, unvorhersehbar agieren und möglicherweise Ziele nicht genau identifizieren und Zivilisten angreifen oder Kombattanten identifizieren, die nicht im Kampf sind.“
Wilson Jones, Verteidigungsanalyst bei GlobalData, ging näher auf das Thema ein und merkte an, dass die Frage, wie die Schuld festgestellt wird, fraglich sein könnte.
„Das geltende Kriegsrecht sieht eine Befehlsverantwortung vor“, sagte Herr Jones. „Das bedeutet, dass ein Offizier, General oder anderer Anführer für die Handlungen der ihm unterstellten Truppen rechtlich verantwortlich ist. Wenn Truppen Kriegsverbrechen begehen, ist der Offizier verantwortlich, auch wenn er die Befehle nicht gegeben hat. Er trägt die Beweislast dafür, dass er alles Mögliche getan hat, um Kriegsverbrechen zu verhindern.“
„Bei KI-Systemen wird die Sache dadurch komplizierter. Ist ein IT-Techniker verantwortlich? Ein Systemdesigner? Das ist unklar. Wenn dies unklar ist, entsteht ein moralisches Risiko, wenn die Akteure glauben, dass ihre Handlungen nicht durch bestehende Gesetze geschützt sind“, betonte Jones.
Ein US-Soldat patrouilliert mit einem Roboterhund. Foto: Forbes
Rüstungskontrollkonventionen Mehrere wichtige internationale Abkommen begrenzen und regulieren den Einsatz bestimmter Waffen. Dazu gehören das Verbot chemischer Waffen, Verträge zur Nichtverbreitung von Atomwaffen und das Übereinkommen über bestimmte konventionelle Waffen (CWW). Dieses verbietet oder beschränkt den Einsatz bestimmter Waffen, die den Kriegsparteien unnötiges oder ungerechtfertigtes Leid zufügen oder wahllos Zivilisten treffen.
„Die nukleare Rüstungskontrolle erforderte jahrzehntelange internationale Zusammenarbeit und die Durchsetzung nachfolgender Verträge“, erklärt Verteidigungsanalyst Wilson Jones. „Selbst dann setzten wir die atmosphärischen Tests bis in die 1990er Jahre fort. Ein Hauptgrund für den Erfolg der nuklearen Nichtverbreitung war die Zusammenarbeit zwischen den Vereinigten Staaten und der Sowjetunion in der bipolaren Weltordnung. Diese existiert heute nicht mehr, und die Technologie zur Schaffung künstlicher Intelligenz ist für viele Länder leichter zugänglich als Atomkraft.“
Ein verbindlicher Vertrag müsste alle relevanten Akteure an einen Tisch bringen und ihnen einräumen, kein Instrument einzusetzen, das ihre militärische Macht stärkt. Das wird wahrscheinlich nicht funktionieren, da KI die militärische Effektivität mit minimalem finanziellen und materiellen Aufwand verbessern kann.
Aktueller geopolitischer Ausblick
Obwohl die Länder bei den Vereinten Nationen die Notwendigkeit eines verantwortungsvollen militärischen Einsatzes von KI anerkannt haben, bleibt noch viel zu tun.
„Ohne einen klaren Regulierungsrahmen bleiben diese Ansprüche weitgehend Wunschdenken“, sagte Laura Petrone, Chefanalystin bei GlobalData, gegenüber Army Technology. „Es ist keine Überraschung, dass einige Länder ihre Souveränität bei Entscheidungen über die innere Verteidigung und nationale Sicherheit bewahren wollen, insbesondere im aktuellen geopolitischen Klima.“
Frau Petrone fügte hinzu, dass das EU-KI-Gesetz zwar einige Anforderungen an KI-Systeme festlege, sich jedoch nicht mit KI-Systemen für militärische Zwecke befasse.
„Ich denke, dass das KI-Gesetz trotz dieser Ausnahme ein wichtiger Schritt ist, um einen längst überfälligen Rahmen für KI-Anwendungen zu schaffen, der in Zukunft zu einer gewissen Vereinheitlichung der relevanten Standards führen könnte“, kommentierte sie. „Diese Vereinheitlichung wird auch für KI im militärischen Bereich wichtig sein.“
Nguyen Khanh
[Anzeige_2]
Quelle: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
Kommentar (0)