Función para compartir chats mediante un enlace público en ChatGPT - Foto: Techradar
ChatGPT ahora alcanza más de 2.5 mil millones de consultas de usuarios globales todos los días, lo que demuestra la creciente popularidad de este chatbot.
Sin embargo, esta herramienta se está enfrentando a una fuerte reacción por parte de los usuarios, ya que la función de “compartir” ha provocado que miles de conversaciones filtren información confidencial a Google y a varios motores de búsqueda en Internet.
Alto riesgo de seguridad
El Sr. Vu Ngoc Son, jefe de tecnología de la Asociación Nacional de Seguridad Cibernética (NCA), evaluó que el incidente mencionado muestra un alto nivel de riesgo de seguridad para los usuarios de ChatGPT.
El incidente mencionado no es necesariamente una falla técnica, ya que el usuario tiene cierta iniciativa al hacer clic en el botón para compartir. Sin embargo, se puede afirmar que el problema radica en el diseño del chatbot de IA, que ha confundido a los usuarios y no cuenta con medidas de advertencia lo suficientemente contundentes sobre el riesgo de filtración de datos personales si los usuarios comparten información, analizó el Sr. Vu Ngoc Son.
En ChatGPT, esta función se implementa después de que el usuario elige compartir el chat a través de un enlace público, el contenido se almacenará en el servidor de OpenAI como un sitio web público (chatgpt.com/share/...), no se requiere inicio de sesión ni contraseña para acceder.
Los rastreadores de Google escanean e indexan automáticamente estas páginas, haciéndolas aparecer en los resultados de búsqueda, incluidos textos, imágenes o datos de chat confidenciales.
Muchos usuarios desconocían el riesgo, pensando que compartían chats con amigos o contactos. Esto provocó la exposición de miles de conversaciones, algunas de las cuales contenían información personal confidencial.
Aunque OpenAI eliminó rápidamente la función a finales de julio de 2025 tras la reacción negativa de la comunidad, aún llevó tiempo coordinarse con Google para eliminar los índices antiguos. Especialmente con el complejo sistema de almacenamiento, que incluye los servidores de caché de Google, esto no es posible rápidamente.
No trate a los chatbots de IA como una "caja negra de seguridad"
Vu Ngoc Son, experto en seguridad de datos y director de tecnología de la Asociación Nacional de Seguridad Cibernética (NCA) - Foto: CHI HIEU
La filtración de miles de chats puede suponer riesgos para los usuarios, como revelar secretos personales, secretos comerciales, daños a la reputación, riesgos financieros o incluso riesgos de seguridad al revelar direcciones particulares.
“Los chatbots impulsados por IA son útiles, pero no son una ‘caja negra’, ya que los datos compartidos pueden permanecer en la web para siempre si no se controlan.
El incidente es, sin duda, una lección tanto para los proveedores como para los usuarios. Otros proveedores de servicios de IA pueden aprender de esta experiencia y diseñar funciones con advertencias más claras y transparentes.
Al mismo tiempo, los usuarios también deben limitar de forma proactiva la publicación incontrolada de información personal identificable o confidencial en las plataformas de IA", recomendó el experto en seguridad Vu Ngoc Son.
Según expertos en seguridad de datos, el incidente mencionado demuestra la necesidad de corredores legales y estándares de ciberseguridad para la IA. Los proveedores y desarrolladores de IA también deben diseñar sistemas que garanticen la seguridad, evitando el riesgo de fuga de datos, como: fugas a través de vulnerabilidades maliciosas; vulnerabilidades de software que provoquen ataques a bases de datos; control deficiente que provoque envenenamiento y abuso para responder preguntas engañosas y distorsionadas.
Los usuarios también deben controlar el intercambio de información personal con la IA y evitar compartir información confidencial. En casos donde sea realmente necesario, se recomienda usar el modo anónimo o cifrar activamente la información para evitar que los datos se vinculen directamente con personas específicas.
Fuente: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
Kommentar (0)