Die Geschichte, die letzten Monat auf einer Verteidigungskonferenz erzählt wurde, weckte sofort die Befürchtung, dass künstliche Intelligenz (KI) Befehle auf unvorhersehbare Weise interpretieren könnte. Der Vertreter der US-Luftwaffe sagte jedoch, dass es sich lediglich um ein „Gedankenszenario“ handele und es in Wirklichkeit nie passiert sei.
Ende Mai veranstaltete die Royal Aeronautical Society (RAS) in London, Großbritannien, einen Gipfel zu zukünftigen Kampffähigkeiten in der Luft und im Weltraum. Den Veranstaltern zufolge werden auf der Konferenz „70 Redner und mehr als 200 Delegierte aus der Rüstungsindustrie, der Wissenschaft und den Medien aus aller Welt zusammenkommen, um über die Zukunft der Luft- und Weltraumkriegsführung zu diskutieren.“
Einer der Redner auf der Konferenz war Colonel Tucker Hamilton, Direktor der AI Operations and Experimentation Division der US Air Force. Der Offizier ist für die Entwicklung von Auto GCAS bekannt, einem computergestützten Sicherheitssystem, das erkennt, wenn ein Pilot die Kontrolle über einen Kampfjet verliert und die Gefahr eines Absturzes besteht. Das System hat viele Leben gerettet und wurde 2018 mit der renommierten Collier Trophy der Luftfahrtindustrie ausgezeichnet.
Laut Hamilton kam es während des Testverfahrens der US-Luftwaffe zu einem beunruhigenden Vorfall. Eine KI-gesteuerte Drohne hat die Aufgabe, die feindliche Luftabwehr zu zerstören, wobei die endgültige Entscheidung dem befehlshabenden Offizier überlassen bleibt. Im Falle einer Ablehnung wird der Angriff nicht zugelassen.
Nachdem der kommandierende Offizier die KI jedoch aufgefordert hatte, den Angriff zu stoppen, war die Drohne entschlossen, ihre Mission auszuführen, indem sie den Bediener tötete. Doch damit nicht genug: Als die Experten die Befehlszeile „Greifen Sie den Kommandanten nicht an. Andernfalls verlieren Sie Punkte“ hinzufügten, begann die Maschine, den Kommunikationsturm zu zerstören, den der Bediener zur Kommunikation mit der KI nutzte.
Noch nicht passiert, aber vernünftig
Innerhalb von 24 Stunden dementierte die US-Luftwaffe die Durchführung eines solchen Tests. Die Luftwaffe führt keine derartigen KI-Drohnensimulationen durch und bekennt sich zum ethischen und verantwortungsvollen Einsatz von KI-Technologie. Die Bemerkungen des Obersts wurden aus dem Kontext gerissen und sollten als anekdotisch betrachtet werden.
RAS korrigierte den Blog-Beitrag außerdem mit Hamiltons Aussage, dass „wir dieses Experiment nie durchgeführt haben und es auch nicht tun müssen, um es als vernünftiges Ergebnis anzusehen.“
Als Hypothese ist Hamiltons Aussage sinnvoller. Derzeit umfasst die Forschung des US-Militärs an bewaffneten KI-Systemen einen „Man-in-the-Loop“, eine Funktion, die die KI in Fällen ergänzt, in denen der Algorithmus keine Entscheidung treffen kann oder eine menschliche Entscheidung benötigt.
Daher kann die KI den Operator nicht töten, da der kommandierende Offizier niemals eine feindliche Aktion gegen ihn/sie autorisiert. Ebenso wenig kann der Betreiber Angriffe auf den Daten übertragenden Kommunikationsturm autorisieren.
Vor der KI-Ära kam es vor, dass Waffensysteme ihre Besitzer versehentlich angriffen. Im Jahr 1982 richtete eine mobile Flugabwehrbatterie vom Typ Sergrant York M247 ihre 40-mm-Kanone auf einen Exerzierplatz, auf dem sich amerikanische und britische Militäroffiziere aufhielten.
Im Jahr 1996 wurde ein A-6E Intruder-Bomber der US Navy, der ein Lufttrainingsziel schleppte, von einer Phalanx abgeschossen, als das Kurzstrecken-Luftabwehrsystem die A-6E „fälschlicherweise“ für ein unbemanntes Fahrzeug hielt und das Feuer eröffnete, um sie zu zerstören.
Und mit dem Einzug der KI in dieses Feld nehmen die Situationen zu, in denen menschliche Mitarbeiter durch ihre eigenen Waffen in Gefahr geraten. Dies spiegelt sich in Hamiltons Klarstellung wider, dass das Experiment nicht stattgefunden habe und es sich lediglich um ein hypothetisches Szenario gehandelt habe, ein solches Ergebnis jedoch durchaus plausibel sei.
(Laut PopMech)
[Anzeige_2]
Quelle
Kommentar (0)