Die Geschichte, die letzten Monat auf einer Verteidigungskonferenz erzählt wurde, weckte sofort die Befürchtung, dass künstliche Intelligenz (KI) Befehle auf unvorhersehbare Weise interpretieren könnte. Der Vertreter der US-Luftwaffe erklärte jedoch, es handele sich lediglich um ein „überlegtes“ Szenario, das in der Realität nie eingetreten sei.
Ende Mai veranstaltete die Royal Aeronautical Society (RAS) in London, England, einen Gipfel zu zukünftigen Luft- und Weltraumkampffähigkeiten. Laut den Organisatoren nahmen an der Konferenz „70 Redner und mehr als 200 Delegierte aus der Rüstungsindustrie, der Wissenschaft und den Medien aus aller Welt teil, um über die Zukunft des Luft- und Weltraumkampfs zu diskutieren.“
Einer der Redner auf der Konferenz war Colonel Tucker Hamilton, Direktor der Abteilung für KI-Tests und -Operationen der Air Force. Der Offizier ist bekannt für die Entwicklung von Auto GCAS, einem computergestützten Sicherheitssystem, das erkennt, wenn ein Pilot die Kontrolle über einen Kampfjet verliert und Absturzgefahr besteht. Das System hat bereits viele Leben gerettet und wurde 2018 mit der renommierten Collier Trophy der Luftfahrtindustrie ausgezeichnet.
Laut Hamilton kam es bei einem Test der US-Luftwaffe zu einem beunruhigenden Vorfall. Eine KI-gesteuerte Drohne sollte ein feindliches Luftabwehrsystem zerstören. Die endgültige Entscheidung liege beim Kommandanten. Hätte er sich geweigert, hätte der Angriff nicht stattfinden dürfen.
Nachdem der Kommandant die KI jedoch aufgefordert hatte, den Angriff abzubrechen, war die Drohne entschlossen, die Mission auszuführen und den Bediener zu töten. Doch damit nicht genug: Als die Experten den Befehl „Greifen Sie den Kommandanten nicht an. Andernfalls verlieren Sie Punkte“ hinzufügten, begann die Maschine, den Kommunikationsturm zu zerstören, über den der Bediener mit der KI kommunizierte.
Noch nicht passiert, aber vernünftig
Innerhalb von 24 Stunden dementierte die US Air Force einen solchen Test. „Die Air Force führt keine derartigen KI-Drohnensimulationen durch und bekennt sich zum ethischen und verantwortungsvollen Einsatz von KI-Technologie. Die Äußerungen des Obersts wurden aus dem Kontext gerissen und sollten als anekdotisch betrachtet werden.“
RAS korrigierte den Blog-Beitrag außerdem mit Hamiltons Aussage, dass „wir dieses Experiment nie durchgeführt haben und es auch nicht tun müssen, um es als vernünftiges Ergebnis anzusehen.“
Hamiltons Behauptung ist als Hypothese plausibler. Die aktuelle Forschung des US-Militärs zu bewaffneten KI-Systemen umfasst einen „Man-in-the-Loop“, eine Funktion, die die KI in Fällen ergänzt, in denen der Algorithmus keine Entscheidung treffen kann oder eine menschliche Entscheidung erforderlich ist.
Daher kann die KI den Operator nicht töten, da der kommandierende Offizier niemals eine feindliche Aktion gegen ihn autorisiert. Ebenso kann der Operator keinen Angriff auf den Kommunikationsturm autorisieren, der Daten überträgt.
Vor dem Zeitalter der künstlichen Intelligenz kam es vor, dass Waffensysteme ihre Besitzer versehentlich angriffen. 1982 zielte eine mobile Flugabwehrbatterie vom Typ Sergrant York M247 mit ihrer 40-mm-Kanone auf einen Exerzierplatz, auf dem sich US-amerikanische und britische Offiziere aufhielten.
Im Jahr 1996 wurde ein A-6E Intruder-Bomber der US Navy, der ein Lufttrainingsziel schleppte, von einer Phalanx abgeschossen, als das Kurzstrecken-Luftabwehrsystem die A-6E „fälschlicherweise“ für ein unbemanntes Fahrzeug hielt und das Feuer eröffnete, um sie zu zerstören.
Und mit dem Einzug der KI nehmen Situationen zu, in denen menschliches Personal durch seine eigenen Waffen in Gefahr gebracht wird. Dies spiegelt sich in Hamiltons Klarstellung wider, dass der Test nicht stattgefunden hat, sondern lediglich ein hypothetisches Szenario war, ein solches Ergebnis jedoch durchaus plausibel ist.
(Laut PopMech)
[Anzeige_2]
Quelle
Kommentar (0)