Das komplexe Bild des Einsatzes von KI-Killerrobotern
Die Steuerung von Waffensystemen durch KI könnte bedeuten, dass Ziele ohne menschliches Eingreifen identifiziert, angegriffen und zerstört werden. Dies wirft ernsthafte rechtliche und ethische Fragen auf.
Der österreichische Außenminister Alexander Schallenberg unterstrich die Schwere der Situation mit den Worten: „Dies ist der Oppenheimer-Moment unserer Generation.“
Roboter und Waffensysteme mit künstlicher Intelligenz finden in den Armeen vieler Länder zunehmend breite Anwendung. Foto: Forbes
In der Tat ist die Frage, inwieweit der „Geist aus der Flasche entkommen ist“, zu einer drängenden Frage geworden, da Drohnen und künstliche Intelligenz (KI) von Militärs auf der ganzen Welt immer häufiger eingesetzt werden.
„Der Einsatz von Drohnen in modernen Konflikten durch Russland und die Ukraine, der Einsatz von Drohnen durch die USA bei gezielten Angriffsoperationen in Afghanistan und Pakistan und, wie erst letzten Monat bekannt wurde, im Rahmen des israelischen Lavender-Programms, zeigt, wie die Informationsverarbeitungsfähigkeiten der KI aktiv von den Streitkräften der Welt genutzt werden, um ihre Offensivkraft zu steigern“, sagte Wilson Jones, Verteidigungsanalyst bei GlobalData.
Recherchen des in London ansässigen Office of War Investigative Journalism ergaben, dass das KI-System „Lavender“ des israelischen Militärs in 90 % der Fälle Personen mit Verbindungen zur Hamas korrekt identifizierte; 10 % der Identifizierungen fielen somit falsch aus. Dies führte aufgrund der Identifizierungs- und Entscheidungsfähigkeiten der KI zu zivilen Todesopfern.
Eine Bedrohung für die globale Sicherheit
Der Einsatz von KI in dieser Weise unterstreicht die Notwendigkeit, die Technologie in Waffensystemen zu steuern.
„Der Einsatz von KI in Waffensystemen, insbesondere bei der Zielerfassung, wirft grundlegende Fragen über uns – die Menschen – und unser Verhältnis zum Krieg auf, genauer gesagt über unsere Annahmen darüber, wie wir Gewalt in bewaffneten Konflikten einsetzen könnten“, erklärte Dr. Alexander Blanchard, leitender Wissenschaftler im Programm „Governance of Artificial Intelligence“ am Stockholmer Internationalen Friedensforschungsinstitut (SIPRI), einer unabhängigen Forschungsgruppe mit Schwerpunkt auf globaler Sicherheit, gegenüber Army Technology.
KI-Systeme können in chaotischen Umgebungen unvorhersehbar reagieren und Ziele möglicherweise nicht präzise identifizieren. Foto: MES
„Verändert KI die Art und Weise, wie das Militär Ziele auswählt und Gewalt gegen sie anwendet? Diese Veränderungen werfen wiederum eine Reihe rechtlicher, ethischer und operativer Fragen auf. Die größten Bedenken betreffen den humanitären Bereich“, fügte Dr. Blanchard hinzu.
„Viele befürchten, dass autonome Systeme, je nach ihrer Ausgestaltung und Anwendung, Zivilisten und andere durch internationales Recht geschützte Personen einem größeren Schadensrisiko aussetzen könnten“, erklärte der SIPRI-Experte. „Denn KI-Systeme können, insbesondere in chaotischen Umgebungen, unvorhersehbar agieren und Ziele möglicherweise nicht präzise identifizieren und Zivilisten angreifen oder Kombattanten, die sich nicht im Kampf befinden, nicht erkennen.“
Der Verteidigungsanalyst Wilson Jones von GlobalData ging näher auf das Thema ein und merkte an, dass die Frage, wie Schuld festgestellt wird, fragwürdig sein könnte.
„Nach geltendem Kriegsrecht gibt es das Konzept der Befehlsverantwortung“, erklärte Herr Jones. „Das bedeutet, dass ein Offizier, General oder anderer Vorgesetzter für die Handlungen der ihm unterstellten Truppen rechtlich verantwortlich ist. Begehen Truppen Kriegsverbrechen, ist der Offizier verantwortlich, selbst wenn er die Befehle nicht erteilt hat; er muss beweisen, dass er alles Mögliche getan hat, um Kriegsverbrechen zu verhindern.“
„Bei KI-Systemen wird die Sache komplizierter. Ist ein IT-Techniker verantwortlich? Ein Systementwickler? Das ist unklar. Und wenn es unklar ist, entsteht ein moralisches Risiko, wenn Akteure glauben, ihre Handlungen seien nicht durch geltende Gesetze geschützt“, betonte Herr Jones.
Ein US-Soldat patrouilliert mit einem Roboterhund. Foto: Forbes
Rüstungskontrollübereinkommen Mehrere wichtige internationale Abkommen beschränken und regeln bestimmte Waffeneinsätze. Dazu gehören das Verbot chemischer Waffen, Atomwaffensperrverträge und das Übereinkommen über bestimmte konventionelle Waffen, welches den Einsatz bestimmter Waffen verbietet oder einschränkt, die als Ursache für unnötiges oder ungerechtfertigtes Leid der Kriegsparteien oder als wahllos schädlich für die Zivilbevölkerung angesehen werden.
„Die nukleare Rüstungskontrolle erforderte jahrzehntelange internationale Zusammenarbeit und die Durchsetzung entsprechender Verträge“, erklärt der Verteidigungsanalyst Wilson Jones. „Selbst dann führten wir bis in die 1990er-Jahre hinein Atomtests in der Atmosphäre durch. Ein wesentlicher Grund für den Erfolg der nuklearen Nichtverbreitung war die Zusammenarbeit zwischen den Vereinigten Staaten und der Sowjetunion in der bipolaren Weltordnung. Diese existiert nicht mehr, und die Technologie zur Erzeugung von KI ist für viele Länder leichter zugänglich als die Kernenergie.“
„Ein verbindlicher Vertrag müsste alle relevanten Akteure an einen Tisch bringen, damit sie sich darauf einigen, kein Instrument einzusetzen, das ihre militärische Macht erhöht. Das ist unwahrscheinlich, da KI die militärische Effektivität mit minimalem finanziellen und materiellen Aufwand verbessern kann.“
Aktuelle geopolitische Aussichten
Obwohl die Staaten der Vereinten Nationen die Notwendigkeit eines verantwortungsvollen militärischen Einsatzes von KI anerkannt haben, bleibt noch viel zu tun.
„Ohne einen klaren Rechtsrahmen bleiben diese Forderungen weitgehend Wunschdenken“, erklärte Laura Petrone, leitende Analystin bei GlobalData, gegenüber Army Technology. „Es ist nicht verwunderlich, dass einige Länder ihre Souveränität bei Entscheidungen über die innere Verteidigung und die nationale Sicherheit wahren wollen, insbesondere im aktuellen geopolitischen Klima.“
Frau Petrone fügte hinzu, dass der EU-AI-Act zwar einige Anforderungen an KI-Systeme festlegt, sich aber nicht mit KI-Systemen für militärische Zwecke befasst.
„Ich denke, dass das KI-Gesetz trotz dieses Ausschlusses ein wichtiger Schritt zur Schaffung eines längst überfälligen Rahmens für KI-Anwendungen ist, der künftig zu einer gewissen Vereinheitlichung der relevanten Standards führen könnte“, kommentierte sie. „Diese Vereinheitlichung wird auch für KI im militärischen Bereich wichtig sein.“
Nguyen Khanh
Quelle: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html






Kommentar (0)