Vietnam.vn - Nền tảng quảng bá Việt Nam

Die Wahrheit über die willkürliche Befehlsänderung und Tötung kommandierender Offiziere durch die KI des US-Militärs

VietNamNetVietNamNet07/06/2023

[Anzeige_1]

Die Geschichte, die letzten Monat auf einer Verteidigungskonferenz erzählt wurde, weckte sofort die Befürchtung, dass künstliche Intelligenz (KI) Befehle auf unvorhersehbare Weise interpretieren könnte. Der Vertreter der US-Luftwaffe sagte jedoch, dass es sich lediglich um ein „Gedankenszenario“ handele und es in Wirklichkeit nie passiert sei.

Ende Mai veranstaltete die Royal Aeronautical Society (RAS) in London, Großbritannien, einen Gipfel zu zukünftigen Kampffähigkeiten in der Luft und im Weltraum. Den Veranstaltern zufolge werden auf der Konferenz „70 Redner und mehr als 200 Delegierte aus der Rüstungsindustrie, der Wissenschaft und den Medien aus aller Welt zusammenkommen, um über die Zukunft der Luft- und Weltraumkriegsführung zu diskutieren.“

Ein Drohnen-/UAV-Angriff auf einen kommandierenden Offizier ist ein durchaus mögliches Szenario

Einer der Redner auf der Konferenz war Colonel Tucker Hamilton, Direktor der AI Operations and Experimentation Division der US Air Force. Der Offizier ist für die Entwicklung von Auto GCAS bekannt, einem computergestützten Sicherheitssystem, das erkennt, wenn ein Pilot die Kontrolle über einen Kampfjet verliert und die Gefahr eines Absturzes besteht. Das System hat viele Leben gerettet und wurde 2018 mit der renommierten Collier Trophy der Luftfahrtindustrie ausgezeichnet.

Laut Hamilton kam es während des Testverfahrens der US-Luftwaffe zu einem beunruhigenden Vorfall. Eine KI-gesteuerte Drohne hat die Aufgabe, die feindliche Luftabwehr zu zerstören, wobei die endgültige Entscheidung dem befehlshabenden Offizier überlassen bleibt. Im Falle einer Ablehnung wird der Angriff nicht zugelassen.

Nachdem der kommandierende Offizier die KI jedoch aufgefordert hatte, den Angriff zu stoppen, war die Drohne entschlossen, ihre Mission auszuführen, indem sie den Bediener tötete. Doch damit nicht genug: Als die Experten die Befehlszeile „Greifen Sie den Kommandanten nicht an. Andernfalls verlieren Sie Punkte“ hinzufügten, begann die Maschine, den Kommunikationsturm zu zerstören, den der Bediener zur Kommunikation mit der KI nutzte.

Noch nicht passiert, aber vernünftig

Innerhalb von 24 Stunden dementierte die US-Luftwaffe die Durchführung eines solchen Tests. Die Luftwaffe führt keine derartigen KI-Drohnensimulationen durch und bekennt sich zum ethischen und verantwortungsvollen Einsatz von KI-Technologie. Die Bemerkungen des Obersts wurden aus dem Kontext gerissen und sollten als anekdotisch betrachtet werden.

KI-integrierte Drohnen sind der Trend der modernen Kriegsführung

RAS korrigierte den Blog-Beitrag außerdem mit Hamiltons Aussage, dass „wir dieses Experiment nie durchgeführt haben und es auch nicht tun müssen, um es als vernünftiges Ergebnis anzusehen.“

Als Hypothese ist Hamiltons Aussage sinnvoller. Derzeit umfasst die Forschung des US-Militärs an bewaffneten KI-Systemen einen „Man-in-the-Loop“, eine Funktion, die die KI in Fällen ergänzt, in denen der Algorithmus keine Entscheidung treffen kann oder eine menschliche Entscheidung benötigt.

Daher kann die KI den Operator nicht töten, da der kommandierende Offizier niemals eine feindliche Aktion gegen ihn/sie autorisiert. Ebenso wenig kann der Betreiber Angriffe auf den Daten übertragenden Kommunikationsturm autorisieren.

Vor der KI-Ära kam es vor, dass Waffensysteme ihre Besitzer versehentlich angriffen. Im Jahr 1982 richtete eine mobile Flugabwehrbatterie vom Typ Sergrant York M247 ihre 40-mm-Kanone auf einen Exerzierplatz, auf dem sich amerikanische und britische Militäroffiziere aufhielten.

Im Jahr 1996 wurde ein A-6E Intruder-Bomber der US Navy, der ein Lufttrainingsziel schleppte, von einer Phalanx abgeschossen, als das Kurzstrecken-Luftabwehrsystem die A-6E „fälschlicherweise“ für ein unbemanntes Fahrzeug hielt und das Feuer eröffnete, um sie zu zerstören.

Und mit dem Einzug der KI in dieses Feld nehmen die Situationen zu, in denen menschliche Mitarbeiter durch ihre eigenen Waffen in Gefahr geraten. Dies spiegelt sich in Hamiltons Klarstellung wider, dass das Experiment nicht stattgefunden habe und es sich lediglich um ein hypothetisches Szenario gehandelt habe, ein solches Ergebnis jedoch durchaus plausibel sei.

(Laut PopMech)


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Die feuerrote Sonnenaufgangsszene bei Ngu Chi Son
10.000 Antiquitäten versetzen Sie zurück ins alte Saigon
Der Ort, an dem Onkel Ho die Unabhängigkeitserklärung las
Wo Präsident Ho Chi Minh die Unabhängigkeitserklärung verlas

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt