Vietnam.vn - Nền tảng quảng bá Việt Nam

Miles de conversaciones de ChatGPT expuestas en Google, ¿a qué deberían prestar atención los usuarios?

Tras el incidente de miles de conversaciones de usuarios de ChatGPT expuestas en Google, los expertos en seguridad advierten: la IA es una herramienta de apoyo útil, pero no una "caja negra segura".

Báo Tuổi TrẻBáo Tuổi Trẻ05/08/2025

ChatGPT - Ảnh 1.

Función para compartir chats mediante enlace público en ChatGPT - Foto: Techradar

ChatGPT recibe actualmente más de 2.500 millones de consultas diarias de usuarios globales, lo que demuestra la creciente popularidad de este chatbot.

Sin embargo, esta herramienta está recibiendo fuertes críticas por parte de los usuarios, ya que la función de "compartir" ha provocado que miles de conversaciones filtren información confidencial a Google y a algunos motores de búsqueda en Internet.

Alto riesgo para la seguridad

El Sr. Vu Ngoc Son, jefe del departamento de tecnología de la Asociación Nacional de Ciberseguridad (NCA), evaluó que el incidente mencionado anteriormente muestra un alto nivel de riesgo de seguridad para los usuarios de ChatGPT.

“El incidente anterior no se debe necesariamente a un fallo técnico, ya que existe cierta iniciativa por parte del usuario al hacer clic en el botón de compartir. Sin embargo, se puede afirmar que el problema reside en el diseño del chatbot de IA, que ha confundido a los usuarios y no cuenta con medidas de advertencia suficientemente sólidas sobre el riesgo de filtración de datos personales al compartir contenido”, analizó el Sr. Vu Ngoc Son.

En ChatGPT, esta función se implementa después de que el usuario elige compartir el chat a través de un enlace público; el contenido se almacenará en el servidor de OpenAI como un sitio web público (chatgpt.com/share/...), sin necesidad de iniciar sesión ni contraseña para acceder.

Los rastreadores de Google escanean e indexan automáticamente estas páginas, haciendo que aparezcan en los resultados de búsqueda, incluyendo texto confidencial, imágenes o datos de chat.

Muchos usuarios desconocían el riesgo, creyendo que simplemente compartían el chat con amigos o contactos. Esto provocó la exposición de miles de conversaciones, algunas de las cuales contenían información personal sensible.

Aunque OpenAI eliminó rápidamente esta función a finales de julio de 2025 tras las críticas de la comunidad, aún requirió tiempo coordinar con Google la eliminación de los índices antiguos. Esto se debe, en particular, a la complejidad del sistema de almacenamiento, que incluye los servidores caché de Google, lo que dificulta su ejecución.

No trates a los chatbots de IA como una "caja negra de seguridad".

Hàng ngàn cuộc trò chuyện với ChatGPT bị lộ trên Google, người dùng lưu ý gì? - Ảnh 3.

Vu Ngoc Son, experto en seguridad de datos y jefe de tecnología de la Asociación Nacional de Ciberseguridad (NCA). Foto: CHI HIEU

La filtración de miles de registros de chat puede suponer riesgos para los usuarios, como la revelación de secretos personales y comerciales; daños a la reputación, riesgos financieros o incluso peligros para la seguridad debido a la revelación de direcciones particulares.

“Los chatbots con inteligencia artificial son útiles, pero no una ‘caja negra’, ya que los datos compartidos pueden permanecer indefinidamente en la web si no se controlan.”

El incidente anterior constituye sin duda una lección tanto para proveedores como para usuarios. Otros proveedores de servicios de IA pueden aprender de esta experiencia y diseñar funciones con advertencias más claras y transparentes.

Al mismo tiempo, los usuarios también deben limitar de forma proactiva la publicación incontrolada de información personal o de identificación en plataformas de IA”, recomendó el experto en seguridad Vu Ngoc Son.

Según expertos en seguridad de datos, el incidente mencionado demuestra la necesidad de establecer marcos legales y estándares de ciberseguridad para la IA. Los proveedores y desarrolladores de IA también deben diseñar sistemas que garanticen la seguridad, evitando riesgos de fuga de datos como: fugas por vulnerabilidades; vulnerabilidades de software que permiten ataques a bases de datos; y controles deficientes que pueden provocar envenenamiento o abuso de datos para responder preguntas falsas o distorsionadas.

Los usuarios también deben controlar el intercambio de información personal con la IA, evitando compartir información sensible. En caso de ser estrictamente necesario, se recomienda usar el modo anónimo o cifrar activamente la información para evitar que los datos se vinculen directamente con personas específicas.

Volver al tema
piedad filial

Fuente: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm


Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Fascinado por la belleza del pueblo de Lo Lo Chai en la temporada de floración del trigo sarraceno
El arroz joven de Me Tri está ardiendo, bullicioso al ritmo del mazo para la nueva cosecha.
Primer plano de un lagarto cocodrilo en Vietnam, presente desde la época de los dinosaurios.
Esta mañana, Quy Nhon se despertó devastado.

Mismo autor

Herencia

Cifra

Negocio

Llevando la medicina tradicional vietnamita a los amigos suecos

Actualidad

Sistema político

Local

Producto