Según BGR , un nuevo informe de investigación acaba de publicar una técnica alarmante llamada 'Fun-Tuning', que utiliza la propia IA (inteligencia artificial) para crear automáticamente ataques de inyección de mensajes extremadamente efectivos dirigidos a otros modelos avanzados de IA, incluido Gemini de Google.
Este método hace que "descifrar" la IA sea más rápido, barato y fácil que nunca, lo que supone una nueva escalada en la guerra de ciberseguridad relacionada con la IA.
El peligro cuando los malos usan la IA para vulnerar la IA
La inyección de código malicioso es una técnica en la que un atacante introduce subrepticiamente instrucciones maliciosas en los datos de entrada de un modelo de IA (por ejemplo, mediante comentarios en el código fuente o texto oculto en la web). El objetivo es engañar a la IA, obligándola a eludir las reglas de seguridad preprogramadas, lo que conlleva graves consecuencias como la filtración de datos confidenciales, la difusión de información falsa o la realización de otros comportamientos peligrosos.
Los hackers están utilizando la IA para atacar la IA
FOTO: CAPTURA DE PANTALLA DE LINKEDIN
Anteriormente, realizar con éxito estos ataques, especialmente en modelos "cerrados" como Gemini o GPT-4, a menudo requería muchas pruebas manuales complejas y que consumían mucho tiempo.
Pero Fun-Tuning lo ha cambiado todo. Este método, desarrollado por un equipo de investigadores de varias universidades, aprovecha ingeniosamente la interfaz de programación de aplicaciones (API) de personalización que Google ofrece gratuitamente a los usuarios de Gemini.
Al analizar las sutiles reacciones del modelo Gemini durante el ajuste (por ejemplo, cómo responde a errores en los datos), Fun-Tuning puede determinar automáticamente los «prefijos» y «sufijos» más efectivos para enmascarar una orden maliciosa. Esto aumenta significativamente la probabilidad de que la IA cumpla con las intenciones maliciosas de un atacante.
Los resultados de las pruebas demuestran que Fun-Tuning alcanza una tasa de éxito de hasta el 82% en algunas versiones de Gemini, una cifra que supera el menos del 30% de los métodos de ataque tradicionales.
Lo que hace que Fun-Tuning sea aún más peligroso es su bajo coste. Dado que la API de optimización de Google está disponible gratuitamente, el coste computacional de crear un ataque efectivo puede ser de tan solo 10 dólares. Además, los investigadores descubrieron que un ataque diseñado para una versión de Gemini podría aplicarse fácilmente con éxito a otras versiones, lo que abre la posibilidad de ataques generalizados.
Google ha confirmado que está al tanto de la amenaza que representa Fun-Tuning, pero aún no se ha pronunciado sobre si modificará el funcionamiento de su API de optimización. El equipo también señala el dilema defensivo: eliminar la información que Fun-Tuning explota del proceso de optimización reduciría la utilidad de la API para los desarrolladores legítimos. Por otro lado, dejarla como está seguiría siendo una plataforma para que los ciberdelincuentes la exploten.
La aparición de Fun-Tuning es una clara advertencia de que la confrontación en el ciberespacio ha entrado en una nueva fase, más compleja. La IA ya no es solo un objetivo, sino también una herramienta y un arma en manos de actores maliciosos.
Fuente: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Kommentar (0)