Laut BGR hat ein neuer Forschungsbericht eine alarmierende Technik namens „Fun-Tuning“ enthüllt, die KI (künstliche Intelligenz) nutzt, um automatisch hochwirksame Prompt-Injection-Angriffe zu generieren, die auf andere fortgeschrittene KI-Modelle, einschließlich Googles Gemini, abzielen.
Diese Methode macht das „Hacking“ von KI schneller, billiger und einfacher als je zuvor und markiert eine neue Eskalation im Kampf um Cybersicherheit im Zusammenhang mit KI.
Die Gefahr, dass böswillige Akteure KI nutzen, um KI zu knacken.
Prompt-Injection ist eine Technik, bei der Angreifer unbemerkt schädliche Anweisungen in die Eingabedaten eines KI-Modells einschleusen (z. B. durch Kommentare im Quellcode oder versteckten Text im Web). Ziel ist es, die KI zu täuschen und sie dazu zu bringen, vorprogrammierte Sicherheitsregeln zu ignorieren. Dies kann schwerwiegende Folgen haben, wie etwa das Auslesen sensibler Daten, die Verbreitung von Fehlinformationen oder die Ausführung anderer gefährlicher Aktionen.
Hacker nutzen KI, um KI anzugreifen.
FOTO: SCREENSHOT VON LINKEDIN
Bisher erforderte die erfolgreiche Durchführung dieser Angriffe, insbesondere auf „geschlossene“ Modelle wie Gemini oder GPT-4, oft einen großen und zeitaufwändigen manuellen Testaufwand.
Doch Fun-Tuning hat alles verändert. Diese Methode, entwickelt von einem Forscherteam mehrerer Universitäten, nutzt geschickt die ausgefeilte Programmierschnittstelle (API), die Google Gemini-Nutzern kostenlos zur Verfügung stellt.
Durch die Analyse der subtilen Reaktionen des Gemini-Modells während des Optimierungsprozesses (z. B. wie es auf Datenfehler reagiert) kann Fun-Tuning automatisch die effektivsten Präfixe und Suffixe identifizieren, um eine bösartige Aussage zu verschleiern. Dies erhöht die Wahrscheinlichkeit erheblich, dass die KI den böswilligen Absichten des Angreifers nachkommt.
Die Testergebnisse zeigen, dass Fun-Tuning bei einigen Versionen von Gemini eine Erfolgsquote von bis zu 82 % erreichte, ein Wert, der weit über den weniger als 30 % liegt, die mit herkömmlichen Angriffsmethoden erzielt wurden.
Besonders gefährlich an Fun-Tuning ist der extrem niedrige Aufwand. Da Googles Tuning-API kostenlos zur Verfügung gestellt wird, können die Rechenkosten für einen effektiven Angriff nur etwa 10 US-Dollar betragen. Darüber hinaus haben Forscher herausgefunden, dass ein für eine Gemini-Version entwickelter Angriff problemlos auch auf andere Versionen angewendet werden kann, wodurch das Risiko großflächiger Angriffe steigt.
Google hat bestätigt, sich der Bedrohung durch die Fun-Tuning-Technik bewusst zu sein, sich aber noch nicht dazu geäußert, ob die Funktionsweise der Tuning-API geändert wird. Das Forschungsteam wies zudem auf die Schwierigkeit der Abwehr hin: Würden die von Fun-Tuning ausgenutzten Informationen aus dem Tuning-Prozess entfernt, wäre die API für legitime Entwickler weniger nützlich. Bleibt sie hingegen unverändert, bleibe sie ein Einfallstor für Angreifer.
Das Aufkommen von Fun-Tuning ist eine deutliche Warnung und deutet darauf hin, dass die Auseinandersetzung im Cyberspace in eine neue, komplexere Phase eingetreten ist. Künstliche Intelligenz ist nun nicht nur Zielscheibe, sondern auch Werkzeug und Waffe in den Händen von Cyberkriminellen.
Quelle: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Kommentar (0)