Vietnam.vn - Nền tảng quảng bá Việt Nam

So nutzen Sie KI richtig

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng15/05/2023

[Anzeige_1]

SGGP

Im Bestreben, die KI-Regulierung zu verschärfen, haben sich wichtige Gesetzgeber der Europäischen Union (EU) auf mehrere Änderungen am Entwurf der Verordnung über künstliche Intelligenz (KI) geeinigt, um generative KI wie ChatGPT einzudämmen.

Die Panasonic Connect Corporation hat Mitarbeitern in Japan geholfen, mithilfe von KI-Systemen ihre Produktivität zu steigern. Foto: Nikkei Asia
Die Panasonic Connect Corporation hat Mitarbeitern in Japan geholfen, mithilfe von KI-Systemen ihre Produktivität zu steigern. Foto: Nikkei Asia

Erwartung des ersten vollständigen Gesetzes

Die entscheidende Abstimmung über den Gesetzentwurf zur KI-Regulierung am 11. Mai markierte einen neuen Schritt im Prozess der Verabschiedung eines Gesetzes, das KI-Tools wie ChatGPT offiziell regulieren wird. Die Ausschüsse für Verbraucherschutz und bürgerliche Freiheiten des Europäischen Parlaments (EP) stimmten dem Textentwurf zu und bekräftigten die Ansicht, dass der Einsatz von KI in der EU reguliert werden muss. Gleichzeitig müssen Innovationen in diesem Bereich gefördert und die Grundrechte geachtet werden, denen zufolge KI den Menschen, der Gesellschaft und der Umwelt dienen muss.

Nach zwei Jahren der Diskussion wird das in der EU erwartete KI-Gesetz das erste umfassende Gesetz zur Regulierung dieser Technologie sein, da es Bestimmungen enthält, die den Einsatz von Gesichtserkennungstechnologie an öffentlichen Orten (was voraussichtlich zu Konflikten zwischen EU-Ländern führen wird) und Tools, die Algorithmen zur Vorhersage kriminellen Verhaltens verwenden, sowie generative KI-Anwendungen wie ChatGPT von OpenAI und biometrische Überprüfungen verbieten. Dementsprechend müssen diese Anwendungen Benachrichtigungen senden, um die Benutzer daran zu erinnern, dass die Produkte dieser Tools von Maschinen und nicht von Menschen erstellt werden.

Das Dokument enthält außerdem einen Abschnitt, der zusätzliche Kriterien zur Identifizierung von Hochrisikobereichen für KI-Anwendungen fordert und so den Umfang der Tool-Entwicklung einschränkt. KI-Tools werden nach dem von ihnen ausgehenden Risiko klassifiziert. Regierungen und Unternehmen, die diese Tools nutzen, unterliegen je nach Risikograd unterschiedlichen Verpflichtungen.

Der Textentwurf wird dem gesamten EP nächsten Monat vorgelegt und anschließend zur Prüfung und Fertigstellung an die EU-Mitgliedsstaaten weitergeleitet. Die von der Europäischen Kommission vorgeschlagene Liste enthält bereits Anwendungsfälle von KI in den Bereichen kritisches Infrastrukturmanagement, Bildung , Personalwesen, öffentliche Ordnung und Einwanderung. Die EP-Abgeordneten wollen jedoch auch Schwellenwerte hinzufügen, um Bedrohungen für Sicherheit, Gesundheit und Grundrechte abzugrenzen.

Japan wird die Führung übernehmen

Viele Länder suchen außerdem nach Lösungen, um einerseits zu verhindern, dass die heimische Industrie ins Hintertreffen gerät, und andererseits den Datenschutzbedenken der Bürger Rechnung zu tragen.

In Asien tagte erstmals der Strategierat für Künstliche Intelligenz der japanischen Regierung, um einen Rahmen für die Entwicklung von KI zu schaffen. Premierminister Fumio Kishida sagte vor dem Rat: „KI hat das Potenzial, unsere Wirtschaftsgesellschaft positiv zu verändern, birgt aber auch Risiken. Es ist wichtig, beide Aspekte angemessen anzugehen.“

Der Einsatz von KI-Technologie wird dazu beitragen, die industrielle Wettbewerbsfähigkeit zu steigern und gesellschaftliche Probleme zu lösen. KI muss jedoch sinnvoll eingesetzt werden, um die Risiken für die Nutzer zu minimieren. Bisher konzentrierten sich die Diskussionen jedoch hauptsächlich auf technische Aspekte. Japanische Experten fordern, die Diskussionen künftig aus einer breiteren Perspektive zu führen und Bereiche wie Wirtschaft und Recht einzubeziehen. Laut Nikkei Asia besteht eine der Herausforderungen für Japan darin, die inländische KI-Entwicklung zu verbessern und gleichzeitig den Einsatz allgemeiner KI zu regulieren, wobei Sicherheit, Datenschutz und Urheberrecht wichtige Themen sind.

Künstliche Intelligenz (KI) verändert zunehmend den Alltag, da gefälschte Bilder und Videos sowie robotergenerierte Texte Bedenken hinsichtlich der nationalen Sicherheit und Desinformation auslösen. Die Digital- und Technologieminister der Gruppe der Sieben (G7) haben vereinbart, bis Ende dieses Jahres Leitlinien für die Entwicklung und Nutzung allgemeiner KI zu erarbeiten. Da Japan 2023 die G7-Präsidentschaft übernimmt, erklärte Premierminister Kishida, dass das Land bei der Formulierung internationaler Regeln die Führung übernehmen werde, um das Potenzial künstlicher KI optimal zu nutzen und die Risiken zu bewältigen.

Wie Japan kündigte auch das Weiße Haus letzte Woche an, 140 Millionen Dollar in den Aufbau von sieben KI-Forschungszentren zu investieren und Richtlinien für den Einsatz dieser Spitzentechnologie zu veröffentlichen. Ziel ist es, Regeln zu schaffen, die Risiken minimieren, aber die Entwicklung KI-basierter Innovationen nicht behindern. In einer Rede vor dem Wissenschafts- und Technologiebeirat betonte US-Präsident Joe Biden, dass KI bei der Bewältigung einiger sehr schwieriger Herausforderungen wie Krankheiten und Klimawandel helfen könne, wir uns aber auch mit potenziellen Risiken für Gesellschaft, Wirtschaft und nationale Sicherheit auseinandersetzen müssten. Technologieunternehmen tragen die Verantwortung, die Sicherheit ihrer Produkte zu gewährleisten, bevor sie auf den Markt kommen.


[Anzeige_2]
Quelle

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Geben Sie Millionen aus, um das Blumenarrangieren zu lernen und beim Mittherbstfest gemeinsame Erlebnisse zu finden
Am Himmel von Son La gibt es einen Hügel aus lila Sim-Blumen
Verloren auf der Wolkenjagd in Ta Xua
Die Schönheit der Halong-Bucht wurde von der UNESCO bereits dreimal zum Weltkulturerbe erklärt.

Gleicher Autor

Erbe

;

Figur

;

Geschäft

;

No videos available

Aktuelle Veranstaltungen

;

Politisches System

;

Lokal

;

Produkt

;