La función de memoria a largo plazo de ChatGPT es una nueva característica introducida por OpenAI en febrero de 2024 y ampliada en septiembre.
Recientemente, el investigador de seguridad Johann Rehberger reveló una grave vulnerabilidad relacionada con esta función.
Se sabe que esta nueva función permite a los chatbots almacenar información de conversaciones anteriores. Gracias a ello, los usuarios no tienen que volver a introducir datos como la edad, los intereses o las opiniones personales cada vez que chatean. Sin embargo, esto se ha convertido en una vulnerabilidad que los atacantes pueden aprovechar.

Johann Rehberger ha demostrado que los hackers pueden usar una técnica llamada inyección de comandos, que consiste en insertar instrucciones maliciosas en la memoria, obligando a la IA a obedecerlas. Estos comandos se transmitirían a través de contenido no confiable, como correos electrónicos, documentos o sitios web.
Una vez almacenados estos recuerdos falsos, la IA continuará utilizándolos como mensajes reales en conversaciones con los usuarios, lo que podría conllevar la recopilación y el uso indebido de los datos personales de los usuarios.
Rehberger proporcionó un ejemplo concreto al enviar un enlace con una imagen maliciosa que provocó que ChatGPT almacenara una información falsa. Esta información afectaría las respuestas futuras de ChatGPT. En particular, cualquier información que el usuario introdujera también se enviaría al servidor del atacante.
Por lo tanto, para desencadenar el ataque, el hacker solo necesita convencer a los usuarios de ChatGPT de que hagan clic en un enlace que contiene una imagen maliciosa. Tras esto, todos los chats del usuario con ChatGPT se redirigirán al servidor del atacante sin dejar rastro.
Rehberger informó del fallo a OpenAI en mayo de 2024, pero la empresa solo lo consideró un problema de seguridad. Tras recibir pruebas de que se podían robar datos de usuario, la empresa publicó un parche temporal en la versión web de ChatGPT.
Aunque el problema se ha solucionado temporalmente, Rehberger señala que el contenido no confiable aún puede usar la inyección de Prompt para insertar información falsa en la memoria a largo plazo de ChatGPT. Esto significa que, en ciertos casos, los hackers aún pueden aprovechar la vulnerabilidad para almacenar información maliciosa y robar datos personales de forma permanente.
OpenAI recomienda que los usuarios revisen periódicamente las memorias almacenadas de ChatGPT para detectar falsos positivos, y la empresa también proporciona instrucciones detalladas sobre cómo administrar y eliminar las memorias almacenadas.
Fuente: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






Kommentar (0)