Die chinesische Volksbefreiungsarmee (VBA) warnte kürzlich, dass künstliche Intelligenz (KI) den Menschen bei Entscheidungen auf dem Schlachtfeld nicht ersetzen könne.
Die endgültige Entscheidung liegt beim menschlichen Kommandanten, um Fehler zu vermeiden, die sich aus der Blackbox-Natur der KI ergeben. (Quelle: Shutterstock) |
„KI muss mit Entscheidungsträgern zusammenarbeiten, um die Effizienz der Führung zu optimieren und den Menschen zu ergänzen, statt ihn zu ersetzen“, heißt es in einem am 31. Dezember 2024 in der People’s Liberation Army Daily veröffentlichten Artikel.
KI könne dazu genutzt werden, menschliche Fähigkeiten zu erweitern – etwa durch Datenanalyse, Simulation oder Planung – könne unsere Rollen jedoch nicht ersetzen, heißt es in dem Artikel.
„Auch wenn sich KI weiterentwickelt, bleibt sie ein Werkzeug, das von menschlichem Urteilsvermögen geleitet wird und Verantwortlichkeit gewährleistet. Kreativität und strategische Anpassungsfähigkeit bleiben oberste Priorität bei militärischen Entscheidungen“, heißt es in dem Artikel.
Dem Artikel zufolge sind menschliche Autonomie und Kreativität auf dem Schlachtfeld unverzichtbare Faktoren. Während Menschen in Führungspositionen dynamisch auf Situationen reagieren und die Schwächen des Gegners ausnutzen können, operiert KI innerhalb vorgegebener algorithmischer Grenzen, und den Reaktionen der Technologie mangelt es oft an Originalität.
Die PLA hat ein Modell vorgeschlagen, bei dem „Menschen planen und KI ausführt“, wobei Technologie zur Umsetzung von Strategien und Taktiken eingesetzt wird, die von Kommandeuren entwickelt wurden, während ein Element menschlicher Aufsicht erhalten bleibt.
Allerdings „liegt die endgültige Entscheidung beim menschlichen Kommandanten, um sich vor Fehlern zu schützen, die sich aus der Blackbox-Natur der KI ergeben.“
Eine weitere Schwäche der Technologie besteht nach Ansicht der PLA darin, dass sie nicht in der Lage ist, Verantwortung für getroffene Entscheidungen zu übernehmen. Menschliche Kommandeure können ihre Pläne flexibel an Situationen anpassen.
In dem Artikel hieß es auch, dass selbst bei hochentwickelter Ausrüstung wie etwa automatisierten Raketenabwehrsystemen die endgültigen Entscheidungen häufig von menschlichen Bedienern getroffen würden, um die Verantwortlichkeit sicherzustellen.
China ist ein starker Befürworter einer Regulierung des KI-Einsatzes im Militär und hat den Vereinten Nationen bereits zuvor Dokumente zu diesem Thema vorgelegt, in denen die Notwendigkeit einer „menschlichen Kontrolle der Technologie“ betont wird.
Der chinesische Präsident Xi Jinping hat die Notwendigkeit betont, die Technologie zu kontrollieren, und bei seinem jüngsten Treffen mit seinem US-Amtskollegen Joe Biden vor zwei Monaten in Peru einigten sich die beiden Mächte darauf, dass „Menschen und nicht künstliche Intelligenz darüber entscheiden sollten, wie Atomwaffen eingesetzt werden.“
Im jüngsten Jahresbericht des Pentagons über Chinas Militär, der letzten Monat veröffentlicht wurde, heißt es, die PLA dränge auf die Zusammenarbeit zwischen Mensch und Maschine und strebe bis 2030 eine „algorithmische Kriegsführung“ und eine „netzwerkzentrierte Kriegsführung“ an.
Der Bericht weist auf die erheblichen Investitionen der PLA in autonome Fahrzeuge, vorausschauende Wartung, automatische Zielerkennung und U-Boot-Drohnen hin. Gleichzeitig strebt die PLA den Einsatz ziviler KI-Initiativen in Bereichen wie Drohnen, Bilderkennung und intelligenter Entscheidungsfindung an.
Auch die USA wollen die Technologie nutzen. Im vergangenen Monat enthüllte Radha Plumb, die Leiterin der Digital- und KI-Abteilung des Pentagons, Details eines Plans zur Integration der Technologie in Kampfeinsätze. Sie bezeichnete dies als „den ersten großen Versuch, fortschrittliche KI zur Unterstützung der Echtzeit-Bedürfnisse von Kriegskämpfern einzusetzen“.
Der Erwerb dieser Technologie durch die USA von „Gegnern“ wie China, Russland, dem Iran und Nordkorea „beschleunigt sich und birgt erhebliche Risiken für die nationale Sicherheit“, warnte sie.
[Anzeige_2]
Quelle
Kommentar (0)