Selon BGR , un nouveau rapport de recherche vient de publier une technique alarmante appelée « Fun-Tuning », qui utilise l'IA (intelligence artificielle) elle-même pour créer automatiquement des attaques par injection prompte extrêmement efficaces ciblant d'autres modèles d'IA avancés, notamment Gemini de Google.
Cette méthode rend le « piratage » de l'IA plus rapide, moins coûteux et plus facile que jamais, marquant une nouvelle escalade dans la guerre de la cybersécurité liée à l'IA.
Le danger lorsque des personnes mal intentionnées utilisent l'IA pour détruire l'IA
L'injection de prompts est une technique permettant à un attaquant d'introduire subrepticement des instructions malveillantes dans les données d'entrée d'un modèle d'IA (par exemple, via des commentaires dans le code source ou du texte caché sur le web). L'objectif est de tromper l'IA, la forçant ainsi à contourner les règles de sécurité préprogrammées, ce qui peut entraîner de graves conséquences telles que la fuite de données sensibles, la fourniture de fausses informations ou d'autres comportements dangereux.
Les pirates informatiques utilisent l'IA pour attaquer l'IA
PHOTO : CAPTURE D'ÉCRAN LINKEDIN
Auparavant, la réussite de ces attaques, notamment sur des modèles « fermés » comme Gemini ou GPT-4, nécessitait souvent de nombreux tests manuels complexes et chronophages.
Mais Fun-Tuning a complètement changé la donne. Cette méthode, mise au point par une équipe de chercheurs de plusieurs universités, exploite astucieusement l'interface de programmation (API) de réglage que Google met gratuitement à la disposition des utilisateurs de Gemini.
En analysant les réactions subtiles du modèle Gemini lors de son paramétrage (par exemple, sa réaction aux erreurs dans les données), Fun-Tuning peut déterminer automatiquement les préfixes et suffixes les plus efficaces pour masquer une commande malveillante. Cela augmente considérablement la probabilité que l'IA se plie aux intentions malveillantes d'un attaquant.
Les résultats des tests montrent que Fun-Tuning atteint un taux de réussite allant jusqu'à 82 % sur certaines versions de Gemini, un chiffre qui surpasse les moins de 30 % des méthodes d'attaque traditionnelles.
Ce qui rend Fun-Tuning encore plus dangereux, c'est son faible coût. L'API de réglage de Google étant gratuite, le coût de calcul nécessaire à la création d'une attaque efficace peut être aussi bas que 10 dollars. De plus, les chercheurs ont constaté qu'une attaque conçue pour une version de Gemini pouvait facilement être appliquée avec succès à d'autres versions, ouvrant la voie à des attaques de grande ampleur.
Google a confirmé être conscient de la menace que représente Fun-Tuning, mais n'a pas encore indiqué s'il modifiera le fonctionnement de son API de réglage. L'équipe souligne également le dilemme auquel elle est confrontée : supprimer les informations exploitées par Fun-Tuning lors du réglage rendrait l'API moins utile aux développeurs légitimes. À l'inverse, la laisser en l'état continuerait de servir de tremplin aux personnes mal intentionnées.
L'émergence du Fun-Tuning signale clairement que la confrontation dans le cyberespace est entrée dans une phase nouvelle et plus complexe. L'IA est désormais non seulement une cible, mais aussi un outil et une arme entre les mains d'acteurs malveillants.
Source : https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Comment (0)