|
Chatboty oparte na sztucznej inteligencji potrafią manipulować emocjami użytkowników. Zdjęcie: AFP . |
Chiny planują zaostrzyć kontrolę nad chatbotami opartymi na sztucznej inteligencji, które mogą wpływać na ludzkie emocje, zwłaszcza tymi, które zawierają treści promujące samobójstwo, samookaleczenie lub inne szkodliwe zachowania. Działania te zostały opisane w projekcie nowych przepisów opublikowanym przez Chińską Administrację Cyberprzestrzeni 27 grudnia.
Według tłumaczenia dokumentu CNBC , projekt dotyczy „interaktywnych usług sztucznej inteligencji przypominających ludzi”, czyli systemów AI zdolnych do naśladowania ludzkiej osobowości, zachowań i komunikacji za pomocą tekstu, obrazów, dźwięku lub wideo . Po sfinalizowaniu przepisy te będą miały zastosowanie do wszystkich produktów i usług AI oferowanych publicznie w Chinach. Termin składania uwag publicznych upływa 25 stycznia.
Winston Ma, profesor wizytujący na Wydziale Prawa Uniwersytetu Nowojorskiego (NYU), uważa, że może to być pierwsza na świecie próba ustanowienia ram prawnych specjalnie dla systemów AI o cechach „podobnych do ludzkich”. Zauważa, że propozycja ta pojawia się w momencie, gdy chińskie firmy przyspieszają rozwój wirtualnych asystentów AI.
W porównaniu z chińskimi przepisami dotyczącymi sztucznej inteligencji, które mają zostać wydane w 2023 r., pan Ma uważa, że nowy projekt pokazuje przesunięcie akcentów z „bezpieczeństwa treści” na „bezpieczeństwo emocjonalne”, co odzwierciedla rosnące obawy dotyczące psychologicznego wpływu sztucznej inteligencji na użytkowników.
Projekt przepisów stanowi, że chatboty oparte na sztucznej inteligencji nie mogą tworzyć treści zachęcających do samobójstwa, samookaleczenia lub przemocy słownej, ani żadnych form manipulacji emocjonalnej, które szkodzą zdrowiu psychicznemu. W przypadku, gdy użytkownik wyraża zamiary samobójcze, dostawca usług technologicznych musi przejąć rozmowę i natychmiast skontaktować się z opiekunem użytkownika lub osobą wyznaczoną.
Ponadto chatboty oparte na sztucznej inteligencji (AI) nie mogą tworzyć treści związanych z hazardem, pornografią ani przemocą. Osoby niepełnoletnie mogą korzystać ze sztucznej inteligencji w celu wsparcia emocjonalnego wyłącznie za zgodą opiekuna i muszą przestrzegać limitów czasowych.
|
Chiny zaostrzają przepisy dotyczące chatbotów opartych na sztucznej inteligencji. Zdjęcie: Bloomberg . |
Propozycja została ogłoszona wkrótce po tym, jak dwa duże chińskie startupy zajmujące się chatbotami ze sztuczną inteligencją, Z.ai i Minimax, złożyły w grudniu wniosek o pierwszą ofertę publiczną (IPO) w Hongkongu.
Firma Minimax znana jest z aplikacji Talkie AI i jej krajowej wersji, Xingye, które w pierwszych trzech kwartałach roku stanowiły ponad jedną trzecią przychodów firmy, ze średnią liczbą ponad 20 milionów aktywnych użytkowników miesięcznie. Z kolei Z.ai (Zhipu) poinformował, że jego technologia została wdrożona na około 80 milionach urządzeń, choć nie ujawnił konkretnej liczby aktywnych użytkowników.
W kontekście globalnym wpływ sztucznej inteligencji na zdrowie psychiczne człowieka przyciąga coraz większą uwagę, ponieważ wiele krajów i firm technologicznych zaczyna stawiać czoła zagrożeniom społecznym, jakie niesie ze sobą ta technologia.
Źródło: https://znews.vn/trung-quoc-ra-don-voi-chatbot-ai-post1615236.html









Komentarz (0)