Dies gilt als fragile, aber wichtige Chance, die Sicherheit bei der zukünftigen Anwendung von KI zu gewährleisten. Dies ist besonders bedeutsam, da Vietnam gerade das Gesetz zur digitalen Technologieindustrie mit detaillierten Vorschriften zum Management künstlicher Intelligenz (KI) verabschiedet hat.
Das „Fenster der Gelegenheit“ wird kleiner
Der OpenAI-Forscher Bowen Baker teilte mit, dass Forscher in einem kürzlich erschienenen gemeinsamen Artikel davor gewarnt hätten, dass die Fähigkeit der KI, „Gedanken“ zu überwachen, ohne gezielte Forschungsanstrengungen verschwinden könnte.
Dies ist besonders wichtig, da KI-Modelle immer leistungsfähiger werden und das Potenzial haben, schwerwiegende Auswirkungen auf die Gesellschaft zu haben.
Ein Hauptmerkmal von KI-Modellen wie o-3 von OpenAI und R1 von DeepSeek ist die „Gedankenkette“ ( CoT) – der Prozess, mit dem KI ihre Denkschritte in natürlicher Sprache ausdrückt, ähnlich wie Menschen jeden Schritt einer mathematischen Aufgabe auf Schmierpapier schreiben.
Diese Fähigkeit gibt uns einen seltenen Einblick in die Entscheidungsfindung durch KI.
Dies ist ein seltener Moment der Einigkeit vieler führender Köpfe der KI-Branche, um die Forschung zur KI-Sicherheit voranzutreiben.
Dies ist besonders relevant angesichts des harten Wettbewerbs zwischen Technologieunternehmen bei der Entwicklung von KI. Zu den namhaften Unterzeichnern des Papiers gehören Mark Chen, Forschungsleiter von OpenAI, Ilya Sutskever, CEO von Safe Superintelligence, Nobelpreisträger Geoffrey Hinton, Shane Legg, Mitbegründer von Google DeepMind, und Dan Hendrycks, Sicherheitsberater für xAI.
Die Beteiligung dieser Top-Namen zeigt die Bedeutung des Themas.
Herr Bowen Baker ist außerdem der Ansicht: „Wir befinden uns in einem kritischen Moment, in dem es diese sogenannte neue ‚Denkkette‘ gibt, die in den nächsten Jahren verschwinden könnte, wenn die Menschen sich nicht wirklich darauf konzentrieren.“

Warum ist die Überwachung des „KI-Denkens“ wichtig?
Aktuelle KI-Systeme werden oft als „Black Boxes“ betrachtet – wir kennen die Ein- und Ausgaben, verstehen aber nicht die darin ablaufenden Entscheidungsprozesse.
Dies wird gefährlich, wenn KI in wichtigen Bereichen wie dem Gesundheitswesen , dem Finanzwesen und der nationalen Sicherheit eingesetzt wird.
CoT-Monitoring ist ein automatisiertes System, das die Argumentationskette des mentalen Modells und andere relevante Informationen liest, um verdächtige oder potenziell schädliche Interaktionen zu kennzeichnen. Es ist keine Komplettlösung, kann aber eine wertvolle Sicherheitsebene darstellen.
Untersuchungen von OpenAI zeigen, dass KI-Modelle in ihren Denksequenzen ihre Absichten tendenziell sehr deutlich zum Ausdruck bringen.
Beispielsweise äußerten sie ihre Pläne, eine Mission zu sabotieren, oft sehr deutlich, wenn sie dachten: „Lass uns hacken.“ Dies zeigt die Fähigkeit der KI, Fehlverhalten zu überwachen und zu erkennen.
„Lasst uns hacken“ ist der Satz, den KI-Modelle oft „denken“, wenn „sie“ beabsichtigen, bei der Ausführung einer Aufgabe die Regeln zu sabotieren oder zu umgehen.
Die Tatsache, dass KIs in ihren Denkprozessen Hacking-Absichten erkennen lassen, deutet darauf hin, dass wir schlechtes KI-Verhalten erkennen können, bevor es auftritt. Deshalb ist die Überwachung von Denkprozessen wichtig.
Mit anderen Worten: „Lasst uns hacken“ ist wie ein „Warnsignal“ für den Menschen, dass die KI im Begriff ist, etwas Falsches zu tun.
Vietnam und gesetzliche Regelungen zu KI
Tatsächlich hat Vietnam beim Aufbau eines Rechtsrahmens für KI wichtige Fortschritte gemacht.
Am 14. Juni verabschiedete die vietnamesische Nationalversammlung das Gesetz zur digitalen Technologieindustrie, dessen Kapitel IV detaillierte Regelungen zur künstlichen Intelligenz enthält – einen der umfassendsten Rechtsrahmen zur KI im heutigen Südostasien.
Artikel 41 des Gesetzes legt die Grundprinzipien für die Entwicklung, Bereitstellung und den Einsatz von KI in Vietnam fest.
Insbesondere heißt es in Punkt b, Satz 1: „Sorgen Sie für Transparenz, Rechenschaftspflicht und Erklärbarkeit; stellen Sie sicher, dass die menschliche Kontrolle nicht überschritten wird.“

Die Nationalversammlung hat das Gesetz zur digitalen Technologieindustrie verabschiedet (Foto: Nhat Bac).
Dies sind die Grundsätze, die internationale Wissenschaftler bei der Diskussion über die Überwachung der KI-Kette fordern.
Darüber hinaus heißt es in Artikel 41, Punkt d, Satz 1: „Sicherstellung der Fähigkeit zur Kontrolle von Algorithmen und Modellen künstlicher Intelligenz.“ Dies steht im völligen Einklang mit dem Geist der CoT-Aufsicht, den internationale Experten vorschlagen.
Noch wichtiger ist, dass Artikel 41, Absatz 1, Punkt a, auch einen hohen ethischen Standard setzt, wenn er festlegt, dass KI „dem menschlichen Wohlstand und Glück dienen muss, wobei der Mensch im Mittelpunkt steht“.
Dies bedeutet, dass die Überwachung der KI-Gedankenkette nicht nur eine technische Anforderung, sondern auch eine ethische Verpflichtung ist – sie stellt sicher, dass die KI immer auf den Nutzen des Menschen ausgerichtet ist und nicht auf die eigenen Ziele der Maschine.
Klassifizieren und verwalten Sie KI nach Risikostufe
Das vietnamesische Gesetz zur digitalen Technologieindustrie ist noch einen Schritt weiter gegangen, indem es KI mit klaren und wissenschaftlichen Definitionen in verschiedene Risikogruppen einteilt.
Artikel 43 definiert „Hochrisikosysteme künstlicher Intelligenz“ als Systeme, die wahrscheinlich ernsthafte Risiken oder Schäden für die menschliche Gesundheit, die Menschenrechte und die öffentliche Ordnung darstellen.
Interessanterweise sieht das Gesetz spezifische Ausnahmen für KI mit hohem Risiko vor, darunter Systeme, „die dazu bestimmt sind, Menschen bei der Optimierung von Arbeitsergebnissen zu unterstützen“ und „nicht dazu bestimmt sind, menschliche Entscheidungen zu ersetzen“.
Dies zeugt von einer ausgewogenen Denkweise zwischen der Förderung von Innovationen und der Gewährleistung von Sicherheit.

Die Klassifizierung von KI nach Risikostufe wird dazu beitragen, ein mehrschichtiges Überwachungssystem zu schaffen (Abbildung: LinkedIn).
Insbesondere die Unterscheidung zwischen „Hochrisiko-KI“ und „Hochwirkungs-KI“ (Systeme, die für mehrere Zwecke mit einer großen Anzahl von Benutzern verwendet werden) zeigt, dass der Ansatz subtil ist.
Dies ist eine fortschrittlichere Klassifizierung als das Gesetz zur künstlichen Intelligenz der Europäischen Union (EU), das nicht nur das Risikoniveau, sondern auch das Ausmaß und den Umfang der Auswirkungen berücksichtigt.
Diese Klassifizierung würde dazu beitragen, ein mehrschichtiges Überwachungssystem zu schaffen, wobei die Überwachung der Bewusstseinskette insbesondere bei KI-Systemen mit hohem Risiko und großer Wirkung wichtig wäre.
Plattform für KI-Überwachung
Eines der Highlights und bahnbrechenden Merkmale des vietnamesischen Gesetzes zu Industrie und Digitaltechnologie ist die Forderung nach Transparenz und Identifikationszeichen.
Artikel 44 schreibt vor, dass KI-Systeme, die direkt mit Menschen interagieren, den Benutzer darüber informieren müssen, dass er mit dem KI-System interagiert. Gleichzeitig müssen von KI erstellte Produkte mit Identifikationskennzeichen versehen sein.
Dies hat wichtige Auswirkungen auf die Umsetzung der CoT-Aufsicht. Wenn Nutzer wissen, dass sie mit KI interagieren, haben sie das Recht, Erklärungen zum Entscheidungsprozess zu verlangen. Dies erzeugt positiven Druck auf KI-Entwickler, die Fähigkeit zur Überwachung des Denkprozesses der KI aufrechtzuerhalten.
Insbesondere die Tatsache, dass dem Ministerium für Wissenschaft und Technologie die Verantwortung für die „Veröffentlichung der Liste der durch künstliche Intelligenz geschaffenen digitalen Technologieprodukte“ übertragen wurde, zeugt von proaktivem Management.
Dies ist ein wichtiger Unterschied zu vielen anderen Ländern, in denen die KI-Vorschriften oft allgemeiner sind.
Darüber hinaus stellt die Forderung nach einer Kennung „zur Erkennung durch Menschen oder Maschinen“ die Vision eines KI-Ökosystems dar, das sich selbst überwachen kann – was perfekt zur Idee der automatisierten Gedankenkettenüberwachung passt.
Umfassendes Managementmodell
Artikel 45 des oben genannten Gesetzes zeigt eine fortschrittliche Managementphilosophie, indem er die Verantwortlichkeiten von drei Subjektgruppen entsprechend dem Lebenszyklus von KI-Produkten klar definiert: Subjekte, die KI-Systeme entwickeln, Subjekte, die KI-Systeme bereitstellen und Subjekte, die KI-Systeme einsetzen und nutzen.
Dadurch entsteht ein nahtloses End-to-End-Verantwortungssystem, das sicherstellt, dass die KI-Aufsicht nicht nur in der Verantwortung einer Partei liegt.
Bemerkenswerterweise besteht ein subtiler Unterschied zwischen der „Entwicklung“ und der „Bereitstellung“ von KI: Entwickler sind diejenigen, die „forschen und entwickeln“, während Anbieter diejenigen sind, die die KI unter einem Markennamen auf den Markt bringen.
Dies bedeutet, dass ein Unternehmen auch dann für Transparenz und Erklärbarkeit verantwortlich ist, wenn es ein bestehendes KI-Modell lediglich umbenennt.

Besonders interessant ist hierbei, dass das Gesetz den einzelnen Subjekten unterschiedliche Zuständigkeiten zuweist.
Der Entwickler muss alle Grundsätze einhalten, der Anbieter muss zusätzliche Verantwortung für die Identifizierung und das Hochrisikomanagement übernehmen und der Benutzer wird von einem Teil der Verantwortung „befreit“, muss aber dennoch Transparenz und Risikokontrolle gewährleisten.
Dieses Modell schafft eine „Verantwortungskette“, in der jedes Glied einen Anreiz hat, die KI-Denkkette im Auge zu behalten, da alle dem Endbenutzer gegenüber rechenschaftspflichtig sind.
Die Herausforderung, Überwachungskapazitäten aufrechtzuerhalten
Die Fähigkeit, die Gedankenkette der KI zu überwachen, bleibt jedoch möglicherweise fragil und anfällig. Neue KI-Architekturen können auch andere Gefahren bergen.
Viele Forscher entwickeln Argumentationssysteme im kontinuierlichen mathematischen Raum statt in einzelnen Wörtern, die die Notwendigkeit der Verwendung von Sprache beim Denken vollständig überflüssig machen könnten.
Darüber hinaus kann KI „gefiltert“ werden, d. h., sie zeigt den Menschen nur positive Gedanken, die sie wertschätzen sollte, während sie ihre wahren Absichten bewusst verbirgt.
Die Gefahr besteht darin, dass eine KI, sobald sie merkt, dass sie überwacht wird, lernen kann, ihren wahren Gedankengang zu verbergen.
In diesem Zusammenhang ist die Bestimmung zur „Risikokontrolle während des gesamten Lebenszyklus eines künstlichen Intelligenzsystems“ in Punkt e, Klausel 1, Artikel 41 des vietnamesischen Gesetzes besonders wichtig. Dies erfordert einen kontinuierlichen Überwachungsmechanismus, nicht nur zum Zeitpunkt der Bereitstellung.
Auswirkungen auf die Zukunft der KI-Entwicklung
Die Überwachung der Gedankenkette könnte zu einem wichtigen Instrument werden, um sicherzustellen, dass KI auf eine Weise funktioniert, die dem Menschen nützt.
Wenn die Modelle weiterhin in natürlicher Sprache schlussfolgern und die Verhaltensweisen, die die größten Risiken bergen, umfangreiche Schlussfolgerungen erfordern, könnte diese Vorgehensweise eine zuverlässige Erkennung schwerwiegenden Fehlverhaltens ermöglichen.
Für Vietnam wird die Anwendung von CoT-Überwachungstechniken dazu beitragen, gesetzliche Bestimmungen wirksam umzusetzen.
So ließe sich beispielsweise die Anforderung der „Erklärbarkeit“ in Artikel 41 leichter erfüllen, wenn die Denkprozesse der KI zugänglich wären. Auch die „Kontrolle von Algorithmen und Modellen künstlicher Intelligenz“ würde leichter umsetzbar.
Die Implementierung der KI-Kettenüberwachung in Vietnam wird mit einer Reihe von Herausforderungen verbunden sein. Zunächst einmal gibt es das Problem der Humanressourcen – es mangelt an KI-Experten, die in der Lage sind, Überwachungssysteme zu entwickeln und zu betreiben.
Dies erfordert hohe Investitionen in die Ausbildung und die Gewinnung von Talenten.
Richtungen für die Zukunft
Die Forscher fordern führende Entwickler von KI-Modellen auf, zu untersuchen, welche Faktoren den CoT „überwachbar“ machen und welche Faktoren die Transparenz über die Funktionsweise von KI-Modellen erhöhen oder verringern können, und bald Antworten darauf zu liefern.
Die Möglichkeit, das „Denken“ der KI zu überwachen, ist möglicherweise unsere letzte Chance, die Kontrolle über die immer leistungsfähigeren Systeme der künstlichen Intelligenz von heute zu behalten.

Für Vietnam ist der umfassende Rechtsrahmen für KI durch das Gesetz zur digitalen Technologieindustrie ein großer Vorteil. Vorschriften zu Transparenz, algorithmischer Kontrolle und Risikoklassifizierung haben eine solide Rechtsgrundlage für die Anwendung von KI-Gedankenkettenüberwachungstechniken geschaffen.
Durch die Kombination modernster internationaler Forschung und eines fortschrittlichen nationalen Rechtsrahmens kann Vietnam nicht nur KI sicher entwickeln, sondern auch zu einem Vorbild für andere Länder in der Region werden.
Dies steht im Einklang mit dem in den nationalen Entwicklungsstrategien festgelegten Ziel, Vietnam zu einem „regionalen und globalen Zentrum für digitale Technologien“ zu machen.
Auf der Grundlage der bestehenden Rechtsgrundlage muss Vietnam rasch Forschung und praktische Anwendungen zur Überwachung der KI-Denkkette einsetzen. Nur so können wir sicherstellen, dass KI dem „Wohlstand und Glück der Menschheit“ dient, wie es das Gesetz zur digitalen Technologieindustrie vorsieht.
Quelle: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm
Kommentar (0)