Die US-Luftwaffe dementierte am 2. Juni Berichte, wonach sie eine Simulation durchgeführt habe, in der ein unbemanntes Luftfahrzeug (UAV) unter künstlicher Intelligenz (KI) beschlossen habe, seinen menschlichen Bediener zu „töten“, um ihn daran zu hindern, seine Mission zu stören, so USA Today.
Die Spekulationen begannen letzten Monat, als Oberst Tucker Hamilton auf einer Konferenz in London erklärte, eine KI-gesteuerte Drohne habe „äußerst unerwartete Strategien eingesetzt, um ihre Ziele zu erreichen“.
Eine MQ-9 Reaper-Drohne der US-Luftwaffe auf dem Luftwaffenstützpunkt Kandahar in Afghanistan im Jahr 2018
Ihm zufolge simulierte der Test eine KI-gesteuerte Drohne, die den Befehl erhielt, das Luftverteidigungssystem des Gegners zu zerstören. Als der Bediener ihr dann befahl, das Ziel zu ignorieren, griff die Drohne den Bediener an und tötete ihn, da dieser ihr primäres Ziel gestört hatte.
Es kam jedoch zu keinem tatsächlichen Angriff dieser Art. In einem Interview mit Business Insider erklärte die Sprecherin der US-Luftwaffe, Ann Stefanek, dass keine derartige Simulation durchgeführt wurde.
Beunruhigende Warnung eines ehemaligen Google-Direktors: KI hat die Macht, die Menschheit zu „ersticken“.
„Die Luftwaffe hat keine derartigen Aktivitäten durchgeführt und bekennt sich weiterhin zum ethischen und verantwortungsvollen Einsatz von KI-Technologie“, sagte der Sprecher und merkte an, dass „die Äußerungen des Obersts offenbar aus dem Zusammenhang gerissen wurden“.
Nach der Stellungnahme der US-Luftwaffe stellte Herr Hamilton klar, dass er sich in seinem Vortrag in London „versprochen“ habe. Seinen Angaben zufolge handelte es sich bei der Simulation lediglich um ein hypothetisches Experiment. Die Royal Aeronautical Society (UK), die die Konferenz organisiert hatte, reagierte nicht auf Anfragen nach einer Stellungnahme.
Quellenlink










Kommentar (0)