Elon Musk hat erklärt, sein Ziel sei es, das US-Haushaltsdefizit schnell um mindestens eine Billion Dollar zu senken.

Medienberichte unter Berufung auf anonyme Quellen legen nahe, dass das DOGE-Ministerium KI einsetzt, um Entscheidungen zur Kostensenkung zu beschleunigen.

David Evan Harris, ein KI-Experte, der früher für die verantwortliche KI-Abteilung von Meta gearbeitet hat, nennt dies eine „schreckliche Idee“.

Experten zufolge spiegelt dieser Ansatz die Denkweise „Erst schneiden, dann reparieren“ wider, die Musk vor zwei Jahren bei Twitter einführte und die zu Tausenden von Arbeitsplatzverlusten, technischen Störungen, Klagen und Kontroversen führte, die dem sozialen Netzwerk geschadet haben.

Allerdings wären die Folgen einer Zerschlagung staatlicher Behörden, Systeme und Dienste weitaus schwerwiegender als bei einem Technologieunternehmen.

Einsatz von KI zur Unterstützung von Kostensenkungsentscheidungen

Laut der Washington Post haben DOGE-Mitglieder Anfang Februar sensible Daten des Bildungsministeriums in eine KI-Software eingespeist, um die Programme und Ausgaben des Ministeriums zu analysieren.

Wired berichtete, dass DOGE-Mitarbeiter einen KI-Chatbot namens GSAi für die General Services Administration (GSA) entwickelt haben, der bei der Analyse großer Mengen von Vertrags- und Beschaffungsdaten hilft.

In einem weiteren Bericht von NBC News hieß es, DOGE erwäge, mithilfe von KI das Feedback von Bundesangestellten zu ihren Jobs zu analysieren und so festzustellen, welche Stellen nicht mehr benötigt werden.

Elon Musk Bloomberg
Elon Musk (stehend) und sein Sohn im Weißen Haus. Foto: Bloomberg

Im Februar berichtete Wired, dass DOGE die AutoRIF-Software des Verteidigungsministeriums so modifiziert habe, dass sie Personal für Entlassungszwecke automatisch einstuft.

Letzte Woche kündigten 21 Mitarbeiter der United States Digital Services Agency (USDS) aus Protest. Sie warfen dem DOGE-Personal vor, mit sensiblen Daten falsch umgegangen zu sein und kritische Systeme zu stören.

Die Pressesprecherin des Weißen Hauses, Karoline Leavitt, behauptete jedoch laut AP, dass jeder, der glaube, dass Proteste, Klagen oder rechtliche Schritte Präsident Trump stoppen könnten, „in den letzten Jahren keine Ahnung gehabt haben muss“.

Auf X bezeichnete Musk diese Menschen auch als „Konservative“, die sich weigerten, ins Büro zurückzukehren.

Ein Teil des Problems besteht laut Amanda Renteria, CEO von Code for America, einer gemeinnützigen Organisation, die digitale Tools entwickelt und technische Kapazitäten für Regierungen aufbaut, darin, dass die Entwicklung effektiver KI-Tools ein tiefes Verständnis der für das Training verwendeten Daten erfordert, über das das DOGE-Team nicht verfügt.

Die von KI-Tools erzeugten Ergebnisse sind möglicherweise nutzlos oder der Technologie fehlen die Informationen und der Kontext, um die richtige Entscheidung zu treffen. Möglicherweise liegt ein Halluzinationsproblem vor.

Laut vielen Nachrichtenagenturen handelt es sich bei den DOGE-Mitarbeitern um eine Gruppe junger Männer in ihren Zwanzigern, die aus anderen Musk-Unternehmen kommen.

Bedenken hinsichtlich der Verwendung von KI durch DOGE

Experten befürchten, dass KI Vorurteile nachahmen könnte, die häufig beim Menschen auftreten. Beispielsweise bevorzugen einige KI-Rekrutierungstools weiße, männliche Kandidaten gegenüber anderen Kandidaten.

Wenn KI eingesetzt wird, um zu bestimmen, welche Positionen oder Projekte gestrichen werden sollen, bedeutet dies, dass einige wichtige Personen oder Arbeitsplätze einfach aufgrund ihres Aussehens oder der Person, für die sie tätig sind, gestrichen werden.

Harris analysierte das Beispiel der Verwendung von KI zur Auswertung von Feedback von Bundesangestellten: Talentierte Angestellte, deren Muttersprache nicht Englisch ist, werden von der KI möglicherweise als minderwertiger als Englischsprachige beurteilt.

Diese Bedenken sind zwar nicht neu, können jedoch schwerwiegendere Folgen haben, wenn in der Regierung Fehler gemacht werden. Musk selbst gibt zu, dass DOGE Fehler machen kann und hat sich aus einigen wichtigen Bemühungen wie der Ebola-Prävention zurückgezogen.

Es ist unklar, ob KI an dieser Entscheidungsfindung beteiligt war.

Es ist unbestreitbar, dass KI dazu beiträgt, die Arbeitseffizienz zu steigern und große Mengen an Informationen zu synthetisieren und zu analysieren. Bei unsachgemäßer Verwendung können jedoch vertrauliche Regierungsdaten oder persönliche Informationen von Bürgern gefährdet sein.

Ohne angemessenen Schutz und ohne Einschränkungen hinsichtlich des Zugriffs auf das System könnten in ein KI-Programm eingespeiste Daten unerwartet in Antworten auf andere Anfragen auftauchen und in die Hände von Personen gelangen, die davon nichts wissen sollten.

Harris war besonders besorgt über den Umgang von DOGE mit Personalakten, die seiner Ansicht nach zu den „sensibelsten Dokumenten in jeder Organisation“ gehören.

Das vielleicht dringlichste Problem ist laut Experten jedoch die mangelnde Transparenz im Zusammenhang mit der KI-Nutzung von DOGE. Welche Instrumente das Ministerium nutzt, wie die Kontrolle erfolgt, ob es Menschen gibt, die die Ergebnisse prüfen und auswerten … all das sind noch offene Fragen.

Julia Stoyanovich, außerordentliche Professorin für Informatik und Direktorin des Center for Responsible AI an der New York University, argumentiert, dass die Benutzer sich über ihre Ziele für die Technologie im Klaren sein und umfassend testen müssen, ob das KI-System diese Anforderungen erfüllt, damit KI effektiv sein kann.

„Ich bin wirklich sehr gespannt, zu hören, wie das DOGE-Team näher darauf eingeht, wie es die Leistung und die Richtigkeit der Ergebnisse misst“, teilte sie mit.

(Laut CNN)