Die Abgeordneten werden in den kommenden Wochen weiter über detaillierte Regelungen beraten, damit der endgültige Prozess Anfang nächsten Jahres abgeschlossen werden kann; die Regelungen sollen voraussichtlich ab 2026 gelten.
Bis dahin werden Unternehmen ermutigt, den freiwilligen KI-Pakt zu unterzeichnen, um die wichtigsten Verpflichtungen der Regeln umzusetzen.
Nachfolgend sind die wichtigsten Inhalte des von der EU vereinbarten Abkommens aufgeführt.
Hochrisikosystem
Sogenannte Hochrisiko-KI-Systeme – solche, die voraussichtlich erheblichen Schaden für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie, Wahlen und Rechtsstaatlichkeit verursachen – müssen eine Reihe von Anforderungen erfüllen, wie z. B. Tests zur Bewertung der Auswirkungen auf Grundrechte und EU-Marktzugangsverpflichtungen.
Systeme mit geringem Risiko würden hingegen weniger strengen Transparenzpflichten unterliegen, wie etwa der Kennzeichnung von KI-generierten Inhalten, damit die Nutzer deren Verwendung in Betracht ziehen können.
KI in der Strafverfolgung
Den Strafverfolgungsbehörden ist der Einsatz von biometrischen Echtzeit-Fernidentifizierungssystemen im öffentlichen Raum nur gestattet, um Opfer von Entführung, Menschenhandel und sexueller Ausbeutung zu identifizieren und um konkrete und unmittelbar bevorstehende terroristische Bedrohungen abzuwenden.
Den Behörden wird es außerdem gestattet sein, KI-Technologie zur Verfolgung von Verdächtigen in den Bereichen Terrorismus, Menschenhandel, sexuelle Ausbeutung, Mord, Entführung, Vergewaltigung, bewaffneter Raub, Beteiligung an kriminellen Organisationen und Umweltkriminalität einzusetzen.
Allgemeine und Plattform-KI (GPAI)-Systeme
GPAI und die zugrunde liegenden Modelle unterliegen Transparenzanforderungen wie der Erstellung technischer Dokumentationen, der Einhaltung des EU-Urheberrechts und der Veröffentlichung detaillierter Zusammenfassungen der Inhalte, die zum Trainieren der Algorithmen verwendet wurden.
Plattformmodelle, die potenziell ein systemisches Risiko und eine hohe Auswirkung auf GPAI haben, müssen eine allgemeine Modellbewertung durchführen, Risiken überprüfen und mindern, Reverse Engineering betreiben, die Europäische Kommission über schwerwiegende Vorfälle informieren, die Cybersicherheit gewährleisten und über den Energieverbrauch berichten.
Solange keine EU-weit harmonisierten Standards veröffentlicht werden, besteht für GPAIs die systemische Gefahr, dass sie sich bei der Einhaltung von Vorschriften auf Verhaltenskodizes stützen müssen.
KI-Systeme sind verboten
Verbotene Verhaltensweisen und Inhalte umfassen: Biometrische Klassifizierungssysteme, die sensible Merkmale wie politische , religiöse oder philosophische Überzeugungen, sexuelle Orientierung und Rasse verwenden;
Ungerichtetes Scannen von Gesichtsbildern aus dem Internet oder von Überwachungskameraaufnahmen zur Erstellung einer Gesichtserkennungsdatenbank;
Emotionserkennung am Arbeitsplatz und im Bildungsbereich ;
Soziale Bewertung basiert auf Sozialverhalten oder persönlichen Eigenschaften;
KI-Systeme manipulieren das menschliche Verhalten, um den freien Willen des Menschen zu untergraben;
Künstliche Intelligenz wird eingesetzt, um menschliche Schwächen aufgrund ihres Alters, einer Behinderung oder ihrer wirtschaftlichen oder sozialen Umstände auszunutzen.
Sanktionen
Je nach Verstoß und Größe des betroffenen Unternehmens beginnen die Geldbußen bei 7,5 Millionen Euro (8 Millionen US-Dollar) oder 1,5 % des weltweiten Jahresumsatzes und können bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes betragen.
(Laut Reuters)
Die EU erzielt eine historische Einigung zur Regulierung künstlicher Intelligenz
EU erzielt Einigung über Smart Device Protection Act
Die EU geht hart gegen Tech-Giganten vor und droht mit der Zerschlagung von Unternehmen, die gegen die Vorschriften verstoßen.
Quelle






Kommentar (0)