La función de memoria a largo plazo de ChatGPT es una nueva característica introducida por OpenAI en febrero de 2024 y ampliada en septiembre.
Recientemente, el investigador de seguridad Johann Rehberger reveló una grave vulnerabilidad relacionada con esta función.
Se sabe que esta nueva función ayuda a los chatbots a almacenar información de conversaciones anteriores. Gracias a ello, los usuarios no tienen que volver a introducir información como edad, intereses u opiniones personales cada vez que chatean. Sin embargo, esto se ha convertido en una vulnerabilidad que los atacantes pueden explotar.
Johann Rehberger demostró que los hackers podían usar una técnica llamada inyección de avisos: insertar instrucciones maliciosas en la memoria, obligando a la IA a obedecerlas. Estas órdenes se entregaban a través de contenido no confiable, como correos electrónicos, documentos o sitios web.
Una vez que se almacenan estos recuerdos falsos, la IA continuará usándolos como información real en conversaciones con los usuarios, lo que podría conducir a la recopilación y el uso indebido de los datos personales de los usuarios.
Rehberger ofreció un ejemplo específico al enviar un enlace con una imagen maliciosa que provocó que ChatGPT almacenara una memoria falsa. Esta información afectaría las futuras respuestas de ChatGPT. En particular, cualquier información introducida por el usuario también se enviaría al servidor del hacker.
Por lo tanto, para desencadenar el ataque, el hacker solo necesita convencer a los usuarios de ChatGPT de que hagan clic en un enlace que contiene una imagen maliciosa. Después, todos los chats del usuario con ChatGPT se redirigirán al servidor del atacante sin dejar rastro.
Rehberger reportó el error a OpenAi en mayo de 2024, pero la compañía solo lo consideró una falla de seguridad. Tras obtener evidencia de que los datos de los usuarios podían ser robados, la compañía lanzó un parche temporal para la versión web de ChatGPT.
Aunque el problema se ha solucionado temporalmente, Rehberger señala que el contenido no confiable aún puede usar la inyección de Prompt para insertar información falsa en la memoria a largo plazo de ChatGPT. Esto significa que, en ciertos casos, los hackers aún podrían explotar la vulnerabilidad para almacenar memorias maliciosas y robar información personal a largo plazo.
OpenAI recomienda que los usuarios revisen periódicamente las memorias almacenadas de ChatGPT para detectar falsos positivos, y la empresa también proporciona instrucciones detalladas sobre cómo administrar y eliminar las memorias almacenadas en la herramienta.
[anuncio_2]
Fuente: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Kommentar (0)