|
KI-Chatbots sind in der Lage, die Emotionen der Nutzer zu manipulieren. Foto: AFP . |
China plant, die Kontrollen von KI-Chatbots, die menschliche Emotionen beeinflussen können, zu verschärfen, insbesondere solcher, deren Inhalte zu Suizid, Selbstverletzung oder anderen schädlichen Verhaltensweisen anstiften. Dies geht aus einem Entwurf neuer Vorschriften hervor, der am 27. Dezember von der Cyberspace-Administration Chinas veröffentlicht wurde.
Laut CNBCs Übersetzung des Dokuments zielt der Entwurf auf „menschenähnliche interaktive KI-Dienste“ ab, also KI-Systeme, die menschliche Persönlichkeit, Verhalten und Kommunikation über Text, Bilder, Audio oder Video imitieren können. Diese Regelungen gelten nach ihrer Verabschiedung für alle in China öffentlich angebotenen KI-Produkte und -Dienstleistungen. Die Frist für öffentliche Stellungnahmen endet am 25. Januar.
Winston Ma, Gastprofessor an der juristischen Fakultät der New York University (NYU), hält dies für den weltweit ersten Versuch, einen Rechtsrahmen speziell für KI-Systeme mit „menschenähnlichen“ Eigenschaften zu schaffen. Er merkt an, dass dieser Vorschlag zu einem Zeitpunkt kommt, an dem chinesische Unternehmen die Entwicklung von KI-basierten virtuellen Assistenten beschleunigen.
Im Vergleich zu den chinesischen KI-Vorschriften aus dem Jahr 2023 sieht Herr Ma in dem neuen Entwurf eine Verlagerung des Schwerpunkts von der „Inhaltssicherheit“ hin zur „emotionalen Sicherheit“, was die wachsende Besorgnis über die psychologischen Auswirkungen von KI auf die Nutzer widerspiegelt.
Die Verordnungsentwürfe legen fest, dass KI-Chatbots keine Inhalte erstellen dürfen, die zu Suizid, Selbstverletzung oder verbaler Gewalt anstiften oder irgendeine Form der emotionalen Manipulation beinhalten, die die psychische Gesundheit beeinträchtigt. Äußert ein Nutzer Suizidabsichten, muss der Technologieanbieter die Konversation übernehmen lassen und unverzüglich den Vormund oder eine benannte Vertrauensperson des Nutzers kontaktieren.
Darüber hinaus ist es KI-Chatbots untersagt, Inhalte zu erstellen, die mit Glücksspiel, Pornografie oder Gewalt in Verbindung stehen. Minderjährige dürfen KI nur mit Zustimmung eines Erziehungsberechtigten zur emotionalen Unterstützung nutzen und müssen dabei zeitliche Beschränkungen einhalten.
|
China verschärft die Vorschriften für KI-Chatbots. Foto: Bloomberg . |
Der Vorschlag wurde kurz nach der Einreichung der Börsengänge (IPOs) zweier großer chinesischer KI-Chatbot-Startups, Z.ai und Minimax, im Dezember in Hongkong bekannt gegeben.
Minimax ist bekannt für seine KI-App Talkie AI und deren koreanische Version Xingye, die in den ersten drei Quartalen des Jahres mehr als ein Drittel des Unternehmensumsatzes ausmachte und durchschnittlich über 20 Millionen monatlich aktive Nutzer verzeichnete. Z.ai (Zhipu) gab an, dass seine Technologie auf rund 80 Millionen Geräten im Einsatz sei, nannte aber keine konkreten Nutzerzahlen.
Im globalen Kontext erfährt der Einfluss von KI auf die psychische Gesundheit des Menschen zunehmend Aufmerksamkeit, da viele Länder und Technologieunternehmen beginnen, sich mit den sozialen Risiken dieser Technologie auseinanderzusetzen.
Quelle: https://znews.vn/trung-quoc-ra-don-voi-chatbot-ai-post1615236.html









Kommentar (0)