Según BGR , un nuevo informe de investigación acaba de publicar una técnica alarmante llamada 'Fun-Tuning', que utiliza la propia IA (inteligencia artificial) para crear automáticamente ataques de inyección rápida extremadamente efectivos dirigidos a otros modelos de IA avanzados, incluido Gemini de Google.
El método hace que descifrar inteligencia artificial sea más rápido, más barato y más fácil que nunca, lo que marca una nueva escalada en la batalla de la ciberseguridad que involucra a la IA.
El peligro cuando los malos usan la IA para romper la IA
La inyección inmediata es una técnica mediante la cual un adversario introduce instrucciones maliciosas en los datos de entrada de un modelo de IA (por ejemplo, mediante comentarios en el código fuente o texto oculto en la web). El objetivo es engañar a la IA para que eluda las reglas de seguridad preprogramadas, lo que conlleva graves consecuencias, como la filtración de datos confidenciales, el suministro de información falsa o la realización de otras acciones maliciosas.
Los hackers están usando IA para atacar a la IA
FOTO: CAPTURA DE PANTALLA DE LINKEDIN
Anteriormente, ejecutar con éxito estos ataques, especialmente en modelos "cerrados" como Gemini o GPT-4, a menudo requería una gran cantidad de pruebas manuales complejas y que consumían mucho tiempo.
Pero Fun-Tuning ha revolucionado el panorama. Desarrollado por un equipo de investigadores de varias universidades, este método aprovecha inteligentemente la interfaz de programación de aplicaciones (API) de ajuste que Google ofrece gratuitamente a los usuarios de Gemini.
Al analizar las reacciones sutiles del modelo Gemini durante el ajuste (por ejemplo, cómo responde a errores en los datos), Fun-Tuning puede determinar automáticamente los prefijos y sufijos más efectivos para ocultar un comando malicioso. Esto aumenta significativamente la probabilidad de que la IA cumpla con las intenciones maliciosas del atacante.
Los resultados de las pruebas muestran que Fun-Tuning logra una tasa de éxito de hasta el 82% en algunas versiones de Gemini, una cifra que supera el menos del 30% de los métodos de ataque tradicionales.
El bajo costo del Fun-Tuning aumenta el peligro. Dado que la API de Google para tuning está disponible gratuitamente, el costo computacional de crear un ataque efectivo puede ser de tan solo $10. Además, los investigadores descubrieron que un ataque diseñado para una versión de Gemini podría aplicarse fácilmente a otras versiones, lo que abre la posibilidad de ataques generalizados.
Google ha confirmado que es consciente de la amenaza que representa Fun-Tuning, pero aún no ha comentado si cambiará el funcionamiento de la API de ajuste. Los investigadores también señalan el dilema defensivo: eliminar la información que Fun-Tuning explota del proceso de ajuste haría que la API fuera menos útil para los desarrolladores legítimos. Por el contrario, dejarla como está seguiría siendo una plataforma para que actores maliciosos la explotaran.
La aparición del Fun-Tuning es una clara advertencia de que la confrontación en el ciberespacio ha entrado en una nueva fase más compleja. La IA ya no es solo un objetivo, sino también una herramienta y un arma en manos de actores maliciosos.
[anuncio_2]
Fuente: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
Kommentar (0)