Vietnam.vn - Nền tảng quảng bá Việt Nam

China contraataca a los chatbots de inteligencia artificial.

Las nuevas regulaciones ayudarán a China a reforzar el control sobre los chatbots de inteligencia artificial, con el objetivo de prevenir contenido relacionado con el suicidio, el juego y la pornografía.

ZNewsZNews30/12/2025


Los chatbots de IA tienen la capacidad de manipular las emociones de los usuarios. Foto: AFP .

China planea reforzar los controles sobre los chatbots de IA capaces de influir en las emociones humanas, en particular aquellos con contenido que promueve el suicidio, la autolesión u otras conductas perjudiciales. Esta medida se describe en un borrador de nuevas regulaciones publicado por la Administración del Ciberespacio de China el 27 de diciembre.

Según la traducción del documento de CNBC , el borrador se centra en los "servicios de inteligencia artificial interactivos de tipo humano", es decir, sistemas de IA capaces de imitar la personalidad, el comportamiento y la comunicación humana mediante texto, imágenes, audio o vídeo . Estas regulaciones se aplicarán a todos los productos y servicios de IA ofrecidos públicamente en China una vez finalizadas. El plazo para presentar comentarios públicos se extiende hasta el 25 de enero.

Winston Ma, profesor visitante de la Facultad de Derecho de la Universidad de Nueva York (NYU), cree que este podría ser el primer intento a nivel mundial de establecer un marco legal específico para sistemas de IA con características "similares a las humanas". Señala que esta propuesta surge en un momento en que las empresas chinas están acelerando el desarrollo de asistentes virtuales de IA.

En comparación con las regulaciones de IA de China emitidas en 2023, el Sr. Ma cree que el nuevo borrador muestra un cambio de enfoque de la "seguridad del contenido" a la "seguridad emocional", lo que refleja una creciente preocupación por el impacto psicológico de la IA en los usuarios.

El proyecto de reglamento establece que los chatbots de IA no deben crear contenido que incite al suicidio, la autolesión o la violencia verbal, ni ninguna forma de manipulación emocional que perjudique la salud mental. En caso de que un usuario exprese intenciones suicidas, el proveedor de servicios tecnológicos debe designar a alguien para que se encargue de la conversación y se ponga en contacto de inmediato con el tutor o la persona designada del usuario.

Además, los chatbots de IA tienen prohibido crear contenido relacionado con juegos de azar, pornografía o violencia. Los menores solo pueden usar IA para apoyo emocional con el consentimiento de un tutor y deben cumplir con los límites de tiempo.

Chatbot de IA, hermano 1

China está endureciendo las regulaciones sobre los chatbots de IA. Foto: Bloomberg .

La propuesta se anunció poco después de que dos importantes empresas emergentes chinas de chatbots de inteligencia artificial, Z.ai y Minimax, solicitaran ofertas públicas iniciales (OPI) en Hong Kong en diciembre.

Minimax es conocida por su aplicación Talkie AI y su versión nacional, Xingye, que representó más de un tercio de los ingresos de la compañía en los primeros tres trimestres del año, con un promedio de más de 20 millones de usuarios activos mensuales. Por su parte, Z.ai (Zhipu) afirmó que su tecnología se ha implementado en aproximadamente 80 millones de dispositivos, aunque no reveló cifras específicas de usuarios activos.

En un contexto global, el impacto de la IA en la salud mental humana está recibiendo cada vez más atención, a medida que muchos países y empresas tecnológicas comienzan a enfrentar los riesgos sociales que plantea esta tecnología.




Fuente: https://znews.vn/trung-quoc-ra-don-voi-chatbot-ai-post1615236.html


Kommentar (0)

¡Deja un comentario para compartir tus sentimientos!

Misma categoría

Mismo autor

Herencia

Cifra

Empresas

Actualidad

Sistema político

Local

Producto

Happy Vietnam
Ciudad Ho Chi Minh

Ciudad Ho Chi Minh

Asta de la bandera de Hanoi

Asta de la bandera de Hanoi

arte vietnamita

arte vietnamita