La función de memoria a largo plazo de ChatGPT es una nueva característica introducida por OpenAI en febrero de 2024 y ampliada en septiembre.
Recientemente, el investigador de seguridad Johann Rehberger reveló una grave vulnerabilidad relacionada con esta función.
Se sabe que esta nueva función ayuda a los chatbots a almacenar información de conversaciones anteriores. Gracias a ello, los usuarios no tienen que volver a introducir información como edad, intereses u opiniones personales cada vez que chatean. Sin embargo, esto se ha convertido en una vulnerabilidad que los atacantes pueden explotar.
Johann Rehberger ha demostrado que los hackers pueden usar una técnica llamada inyección de comandos: insertar instrucciones maliciosas en la memoria, obligando a la IA a obedecerlas. Estas órdenes se entregarían a través de contenido no confiable, como correos electrónicos, documentos o sitios web.
Una vez almacenados estos recuerdos falsos, la IA seguirá utilizándolos como mensajes reales en las conversaciones con los usuarios, lo que podría llevar a la recopilación y el uso indebido de los datos personales de los usuarios.
Rehberger ofreció un ejemplo concreto al enviar un enlace con una imagen maliciosa que provocó que ChatGPT almacenara una memoria falsa. Esta información afectaría las futuras respuestas de ChatGPT. En particular, cualquier información introducida por el usuario también se enviaría al servidor del hacker.
Por lo tanto, para desencadenar el ataque, el hacker solo necesita convencer a los usuarios de ChatGPT de que hagan clic en un enlace que contiene una imagen maliciosa. Después, todos los chats del usuario con ChatGPT se redirigirán al servidor del atacante sin dejar rastro.
Rehberger reportó el error a OpenAi en mayo de 2024, pero la compañía solo lo consideró un problema de seguridad. Tras obtener evidencia de que los datos de los usuarios podían ser robados, la compañía lanzó un parche temporal para la versión web de ChatGPT.
Aunque el problema se ha solucionado temporalmente, Rehberger señala que el contenido no confiable aún puede usar la inyección de Prompt para insertar información falsa en la memoria a largo plazo de ChatGPT. Esto significa que, en ciertos casos, los hackers aún pueden explotar la vulnerabilidad para almacenar memorias maliciosas y robar información personal a largo plazo.
OpenAI recomienda que los usuarios revisen periódicamente las memorias almacenadas de ChatGPT para detectar falsos positivos, y la empresa también proporciona instrucciones detalladas sobre cómo administrar y eliminar las memorias almacenadas.
[anuncio_2]
Fuente: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Kommentar (0)