Vietnam.vn - Nền tảng quảng bá Việt Nam

Miles de chats de ChatGPT expuestos en Google, ¿a qué deben prestar atención los usuarios?

A raíz del incidente en el que miles de conversaciones de usuarios en ChatGPT quedaron expuestas en Google, los expertos en seguridad advierten: la IA es una herramienta de apoyo útil, pero no una "caja negra segura".

Báo Tuổi TrẻBáo Tuổi Trẻ05/08/2025

ChatGPT - Ảnh 1.

Función para compartir chats mediante un enlace público en ChatGPT - Foto: Techradar

ChatGPT ahora alcanza más de 2.5 mil millones de consultas de usuarios globales todos los días, lo que demuestra la creciente popularidad de este chatbot.

Sin embargo, esta herramienta se está enfrentando a una fuerte reacción por parte de los usuarios, ya que la función de “compartir” ha provocado que miles de conversaciones filtren información confidencial a Google y a varios motores de búsqueda en Internet.

Alto riesgo de seguridad

El Sr. Vu Ngoc Son, jefe de tecnología de la Asociación Nacional de Seguridad Cibernética (NCA), evaluó que el incidente mencionado muestra un alto nivel de riesgo de seguridad para los usuarios de ChatGPT.

El incidente mencionado no es necesariamente una falla técnica, ya que el usuario tiene cierta iniciativa al hacer clic en el botón para compartir. Sin embargo, se puede afirmar que el problema radica en el diseño del chatbot de IA, que ha confundido a los usuarios y no cuenta con medidas de advertencia lo suficientemente contundentes sobre el riesgo de filtración de datos personales si los usuarios comparten información, analizó el Sr. Vu Ngoc Son.

En ChatGPT, esta función se implementa después de que el usuario elige compartir el chat a través de un enlace público, el contenido se almacenará en el servidor de OpenAI como un sitio web público (chatgpt.com/share/...), no se requiere inicio de sesión ni contraseña para acceder.

Los rastreadores de Google escanean e indexan automáticamente estas páginas, haciéndolas aparecer en los resultados de búsqueda, incluidos textos, imágenes o datos de chat confidenciales.

Muchos usuarios desconocían el riesgo, pensando que compartían chats con amigos o contactos. Esto provocó la exposición de miles de conversaciones, algunas de las cuales contenían información personal confidencial.

Aunque OpenAI eliminó rápidamente la función a finales de julio de 2025 tras la reacción negativa de la comunidad, aún llevó tiempo coordinarse con Google para eliminar los índices antiguos. Especialmente con el complejo sistema de almacenamiento, que incluye los servidores de caché de Google, esto no es posible rápidamente.

No trate a los chatbots de IA como una "caja negra de seguridad"

Hàng ngàn cuộc trò chuyện với ChatGPT bị lộ trên Google, người dùng lưu ý gì? - Ảnh 3.

Vu Ngoc Son, experto en seguridad de datos y director de tecnología de la Asociación Nacional de Seguridad Cibernética (NCA) - Foto: CHI HIEU

La filtración de miles de chats puede suponer riesgos para los usuarios, como revelar secretos personales, secretos comerciales, daños a la reputación, riesgos financieros o incluso riesgos de seguridad al revelar direcciones particulares.

“Los chatbots impulsados por IA son útiles, pero no son una ‘caja negra’, ya que los datos compartidos pueden permanecer en la web para siempre si no se controlan.

El incidente es, sin duda, una lección tanto para los proveedores como para los usuarios. Otros proveedores de servicios de IA pueden aprender de esta experiencia y diseñar funciones con advertencias más claras y transparentes.

Al mismo tiempo, los usuarios también deben limitar de forma proactiva la publicación incontrolada de información personal identificable o confidencial en las plataformas de IA", recomendó el experto en seguridad Vu Ngoc Son.

Según expertos en seguridad de datos, el incidente mencionado demuestra la necesidad de corredores legales y estándares de ciberseguridad para la IA. Los proveedores y desarrolladores de IA también deben diseñar sistemas que garanticen la seguridad, evitando el riesgo de fuga de datos, como: fugas a través de vulnerabilidades maliciosas; vulnerabilidades de software que provoquen ataques a bases de datos; control deficiente que provoque envenenamiento y abuso para responder preguntas engañosas y distorsionadas.

Los usuarios también deben controlar el intercambio de información personal con la IA y evitar compartir información confidencial. En casos donde sea realmente necesario, se recomienda usar el modo anónimo o cifrar activamente la información para evitar que los datos se vinculen directamente con personas específicas.

Volver al tema
PIEDAD

Fuente: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm


Kommentar (0)

No data
No data
Belleza salvaje en la colina de hierba de Ha Lang - Cao Bang
Misiles y vehículos de combate 'Made in Vietnam' muestran su potencia en la sesión de entrenamiento conjunta A80
Admira el volcán Chu Dang Ya de un millón de años en Gia Lai
A Vo Ha Tram le tomó seis semanas completar el proyecto musical que alaba a la Patria.
La cafetería de Hanoi se ilumina con banderas rojas y estrellas amarillas para celebrar el 80 aniversario del Día Nacional el 2 de septiembre.
Alas volando en el campo de entrenamiento del A80
Pilotos especiales en formación de desfile para celebrar el Día Nacional el 2 de septiembre
Los soldados marchan bajo el sol abrasador en el campo de entrenamiento.
Vea cómo los helicópteros ensayan en el cielo de Hanoi en preparación para el Día Nacional el 2 de septiembre.
Vietnam Sub-23 trajo a casa con gran brillo el trofeo del Campeonato Sub-23 del Sudeste Asiático.

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto