Laut USA Today dementierte die US-Luftwaffe am 2. Juni Berichte, sie habe eine Simulation durchgeführt, bei der ein von künstlicher Intelligenz (KI) gesteuertes unbemanntes Luftfahrzeug (UAV) beschlossen habe, seinen Bediener zu „töten“, um ihn daran zu hindern, seine Mission zu stören .
Die Spekulationen begannen im vergangenen Monat, als Colonel Tucker Hamilton auf einer Konferenz in London sagte, ein KI-gesteuertes UAV verwende „äußerst unerwartete Strategien, um seine Ziele zu erreichen“.
Eine MQ-9 Reaper-Drohne der US Air Force auf dem Luftwaffenstützpunkt Kandahar in Afghanistan im Jahr 2018.
Ihm zufolge simulierte der Test eine KI-gesteuerte Drohne, die den Befehl erhielt, ein feindliches Luftabwehrsystem zu zerstören. Als der Bediener dann befahl, das Ziel zu ignorieren, griff die Drohne den Bediener an und tötete ihn, weil dieser sein primäres Ziel störte.
Tatsächlich kam es jedoch zu keinem derartigen Angriff. In einem Interview mit Business Insider erklärte die Sprecherin der US-Luftwaffe, Ann Stefanek, dass keine derartige Simulation durchgeführt worden sei.
Schreckliche Warnung des ehemaligen Google-CEOs: KI hat die Macht, die Menschheit zu „töten“
„Die Air Force hat keine derartigen Aktivitäten durchgeführt und bleibt dem ethischen und verantwortungsvollen Einsatz von KI-Technologie verpflichtet“, sagte der Sprecher und merkte an, dass „die Kommentare des Obersts offenbar aus dem Kontext gerissen wurden“.
Nach der Erklärung der US-Luftwaffe stellte Hamilton klar, er habe sich bei seiner Präsentation in London „versprochen“. Ihm zufolge handelte es sich bei der Simulation um ein hypothetisches Experiment. Die Royal Aeronautical Society (UK), die die Konferenz organisierte, reagierte nicht auf Anfragen um eine Stellungnahme.
[Anzeige_2]
Quellenlink
Kommentar (0)