Vietnam.vn - Nền tảng quảng bá Việt Nam

Miles de conversaciones de ChatGPT expuestas en Google, ¿a qué deben prestar atención los usuarios?

A partir del incidente en el que miles de conversaciones de usuarios en ChatGPT quedaron expuestas en Google, los expertos en seguridad advierten: la IA es una herramienta de apoyo útil, pero no una "caja negra segura".

Báo Tuổi TrẻBáo Tuổi Trẻ05/08/2025

ChatGPT - Ảnh 1.

Función para compartir chats mediante un enlace público en ChatGPT - Foto: Techradar

ChatGPT ahora alcanza más de 2.5 mil millones de consultas de usuarios globales todos los días, lo que demuestra la creciente popularidad de este chatbot.

Sin embargo, esta herramienta se está enfrentando a una fuerte reacción por parte de los usuarios, ya que la función de “compartir” ha provocado que miles de conversaciones filtren información confidencial a Google y algunos motores de búsqueda en Internet.

Alto riesgo de seguridad

El Sr. Vu Ngoc Son, jefe del departamento de tecnología de la Asociación Nacional de Seguridad Cibernética (NCA), evaluó que el incidente mencionado muestra un alto nivel de riesgo de seguridad para los usuarios de ChatGPT.

El incidente mencionado no es necesariamente una falla técnica, ya que el usuario actúa con cierta iniciativa al hacer clic en el botón para compartir. Sin embargo, se puede afirmar que el problema radica en el diseño del chatbot de IA, que ha confundido a los usuarios y no cuenta con medidas de advertencia suficientemente contundentes sobre el riesgo de filtración de datos personales si los usuarios comparten información, analizó el Sr. Vu Ngoc Son.

En ChatGPT, esta función se implementa después de que el usuario elige compartir el chat a través de un enlace público, el contenido se almacenará en el servidor de OpenAI como un sitio web público (chatgpt.com/share/...), no se requiere inicio de sesión ni contraseña para acceder.

Los rastreadores de Google escanean e indexan automáticamente estas páginas, haciéndolas aparecer en los resultados de búsqueda, incluso texto confidencial, imágenes o datos de chat.

Muchos usuarios desconocían el riesgo, pensando que compartían el chat con amigos o contactos. Esto provocó la exposición de miles de conversaciones, que en algunos casos contenían información personal confidencial.

Aunque OpenAI eliminó rápidamente esta función a finales de julio de 2025 tras la reacción negativa de la comunidad, aún llevó tiempo coordinarse con Google para eliminar los índices antiguos. Especialmente con el complejo sistema de almacenamiento, que incluye los servidores de caché de Google, esto no es posible rápidamente.

No trate a los chatbots de IA como una "caja negra de seguridad"

Hàng ngàn cuộc trò chuyện với ChatGPT bị lộ trên Google, người dùng lưu ý gì? - Ảnh 3.

El experto en seguridad de datos Vu Ngoc Son, jefe de tecnología de la Asociación Nacional de Seguridad Cibernética (NCA) - Foto: CHI HIEU

La filtración de miles de registros de chat puede suponer riesgos para los usuarios, como revelar secretos personales y comerciales, daños a la reputación, riesgos financieros o incluso riesgos de seguridad debido a la revelación de direcciones particulares.

“Los chatbots habilitados con IA son útiles, pero no son una ‘caja negra’, ya que los datos compartidos pueden existir indefinidamente en la web si no se controlan.

El incidente mencionado es, sin duda, una lección tanto para proveedores como para usuarios. Otros proveedores de servicios de IA pueden aprender de esta experiencia y diseñar funciones con advertencias más claras y transparentes.

"Al mismo tiempo, los usuarios también deben limitar de forma proactiva la publicación incontrolada de información personal o de identificación en las plataformas de IA", recomendó el experto en seguridad Vu Ngoc Son.

Según expertos en seguridad de datos, el incidente mencionado demuestra la necesidad de corredores legales y estándares de ciberseguridad para la IA. Los proveedores y desarrolladores de IA también deben diseñar sistemas que garanticen la seguridad, evitando el riesgo de fuga de datos, como: fugas a través de vulnerabilidades maliciosas; vulnerabilidades de software que provoquen ataques a bases de datos; control deficiente que provoque envenenamiento y abuso para responder preguntas falsas y distorsionadas.

Los usuarios también deben controlar el intercambio de información personal con la IA, evitando compartir información confidencial. En caso de necesidad real, se recomienda usar el modo anónimo o cifrar activamente la información para evitar que se vinculen directamente con personas específicas.

Volver al tema
Piedad filial

Fuente: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm


Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Descubra el único pueblo de Vietnam que figura entre los 50 pueblos más bonitos del mundo.
¿Por qué son populares este año las linternas de bandera roja con estrellas amarillas?
Vietnam gana el concurso musical Intervision 2025
Atasco de tráfico en Mu Cang Chai hasta la noche, los turistas acuden en masa a buscar arroz maduro de temporada.

Mismo autor

Herencia

Cifra

Negocio

No videos available

Actualidad

Sistema político

Local

Producto