La función de memoria a largo plazo de ChatGPT es una nueva característica introducida por OpenAI en febrero de 2024 y ampliada en septiembre.
Recientemente, el investigador de seguridad Johann Rehberger reveló una grave vulnerabilidad relacionada con esta función.
Según se informa, esta nueva función permite a los chatbots almacenar información de conversaciones anteriores. Esto elimina la necesidad de que los usuarios vuelvan a introducir información como edad, intereses u opiniones personales cada vez que chatean. Sin embargo, esta misma función se ha convertido en una vulnerabilidad que los atacantes pueden explotar.

Johann Rehberger señaló que los hackers pueden usar técnicas de inyección rápida: implantan instrucciones maliciosas en la memoria de la IA, obligándola a seguir órdenes. Estas órdenes se entregarían a través de contenido no confiable, como correos electrónicos, documentos o sitios web.
Una vez almacenados estos recuerdos falsos, la IA los seguirá utilizando como información real en las conversaciones con el usuario. Esto puede dar lugar a la recopilación y el uso no autorizados de sus datos personales.
Rehberger ofreció un ejemplo específico al enviar un enlace con una imagen maliciosa que provocó que ChatGPT almacenara una memoria falsa. Esta información afectaría las respuestas posteriores de ChatGPT. Cabe destacar que toda la información del usuario también se enviaría al servidor del hacker.
Por lo tanto, para activar el ataque, el hacker solo necesita convencer a los usuarios de ChatGPT de que hagan clic en un enlace con imágenes maliciosas. Todas las conversaciones del usuario con ChatGPT se redirigirán al servidor del atacante sin dejar rastro.
En mayo de 2024, tras descubrir la vulnerabilidad, Rehberger la reportó a OpenAi, pero la compañía la descartó como un fallo de seguridad. Tras obtener evidencia de que se podrían haber robado datos de usuarios, la compañía lanzó un parche temporal en la versión web de ChatGPT.
Aunque el problema se ha resuelto temporalmente, Rehberger enfatizó que el contenido no confiable aún puede usar la inyección de avisos para insertar información falsa en la memoria a largo plazo de ChatGPT. Esto significa que, en ciertos casos, los hackers aún pueden explotar la vulnerabilidad para almacenar memorias maliciosas con el fin de robar información personal de forma permanente.
OpenAI recomienda a los usuarios que revisen periódicamente los datos almacenados en ChatGPT para detectar cualquier información errónea. La empresa también proporciona instrucciones detalladas sobre cómo gestionar y eliminar los datos almacenados en la herramienta.
[anuncio_2]
Fuente: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






Kommentar (0)