Las conversaciones privadas se convierten en datos públicos
Según un informe de Fast Company, miles de conversaciones privadas han sido indexadas por Google. Esto podría ser solo la punta del iceberg, con millones de conversaciones más en riesgo de ser expuestas.
Si bien estas conversaciones no incluyeron información de identificación directa, muchos usuarios compartieron detalles personales extremadamente sensibles, desde relaciones hasta experiencias traumáticas, lo que hizo posible la identificación.
Todo comenzó cuando algunos expertos en ciberseguridad descubrieron que con una simple consulta en Google, los usuarios podían acceder fácilmente a chats compartidos públicamente.
El contenido filtrado incluye no sólo párrafos de muestra y preguntas técnicas, sino también información personal, trabajos confidenciales compartidos e incluso confidencias privadas.
Se determinó que la causa fue la función "Compartir chat", una utilidad implementada por OpenAI para que los usuarios compartan contenido de chat. Al seleccionar "Hacer visible este chat", el sistema creará un enlace público que los motores de búsqueda podrán indexar.
Vale la pena mencionar que la interfaz de esta función no es lo suficientemente clara, lo que provoca que muchas personas malinterpreten que solo están compartiendo contenido con amigos o colegas, en lugar de hacerlo público en línea.
En respuesta a la reacción, OpenAI tomó medidas inmediatas: suspendió la función para compartir y trabajó con Google para eliminar los enlaces relevantes.
Según Fast Company, se han descubierto más de 4.500 enlaces de este tipo, una cifra significativa teniendo en cuenta que ChatGPT tiene cientos de millones de usuarios en todo el mundo.
Lo preocupante es que muchas personas han utilizado ChatGPT para escribir correos electrónicos, intercambiar trabajo, explotar información médica o incluso confiar problemas psicológicos personales, creyendo que se trata de un espacio privado.
Suenan las alarmas sobre la privacidad en la era de la IA
El incidente plantea importantes interrogantes sobre la responsabilidad de las empresas de IA con respecto a los datos de los usuarios. ¿Ofrece OpenAI la suficiente transparencia para que los usuarios comprendan su privacidad? ¿El nivel de protección de datos que reciben los usuarios es realmente proporcional a la sensibilidad del contenido?
El director ejecutivo de OpenAI, Sam Altman, advirtió a los usuarios que no compartan datos personales confidenciales con ChatGPT, admitiendo que la empresa podría verse obligada a proporcionar dicha información si un tribunal lo exige legalmente.
Sin embargo, es notable que Altman no haya mencionado en sus declaraciones que las conversaciones que los usuarios comparten voluntariamente podrían indexarse públicamente en los motores de búsqueda.
Además, esta no es la primera vez que ChatGPT ha sido cuestionado por filtraciones de datos. Los investigadores han advertido que los grandes modelos de lenguaje como GPT pueden recrear accidentalmente datos antiguos si los usuarios formulan preguntas de forma astuta.
Es innegable que herramientas como ChatGPT han revolucionado la forma en que las personas buscan información y crean contenido. Sin embargo, además de la comodidad, los usuarios deben ser conscientes de que nada es verdaderamente privado sin fuertes barreras tecnológicas y una manipulación personal cuidadosa.
Fuente: https://baovanhoa.vn/nhip-song-so/hang-nghin-cuoc-tro-chuyen-chatgpt-bi-ro-ri-cong-khai-tren-google-158723.html
Kommentar (0)