Conform BGR , un nou raport de cercetare a publicat o tehnică alarmantă numită „Fun-Tuning”, care folosește însăși inteligența artificială (IA) pentru a crea automat atacuri de tip prompt injection extrem de eficiente care vizează alte modele avansate de IA, inclusiv Gemini de la Google.
Metoda face ca „depistarea” inteligenței artificiale să fie mai rapidă, mai ieftină și mai ușoară ca niciodată, marcând o nouă escaladare în războiul securității cibernetice legate de inteligența artificială.
Pericolul atunci când răufăcătorii folosesc inteligența artificială pentru a o sparge.
Injecția promptă este o tehnică prin care un adversar introduce instrucțiuni malițioase în datele de intrare ale unui model de inteligență artificială (de exemplu, prin comentarii în codul sursă, text ascuns pe web). Scopul este de a „păcăli” inteligența artificială, forțând-o să ocolească regulile de siguranță preprogramate, ceea ce duce la consecințe grave, cum ar fi scurgerea de date sensibile, furnizarea de informații false sau efectuarea altor comportamente periculoase.
Hackerii folosesc inteligența artificială pentru a ataca inteligența artificială
FOTO: CAPTURĂ DE ECRAN LINKEDIN
Anterior, efectuarea cu succes a acestor atacuri, în special pe modele „închise” precum Gemini sau GPT-4, necesita adesea o mulțime de teste manuale complexe și consumatoare de timp.
Însă Fun-Tuning a schimbat complet regulile jocului. Metoda, dezvoltată de o echipă de cercetători de la mai multe universități, exploatează inteligent interfața de programare a aplicațiilor (API) foarte intuitivă pe care Google o oferă gratuit utilizatorilor Gemini.
Prin analizarea reacțiilor subtile ale modelului Gemini în timpul reglajului (de exemplu, modul în care răspunde la erorile din date), Fun-Tuning poate determina automat cele mai eficiente „prefixe” și „sufixe” pentru a masca o comandă rău intenționată. Acest lucru crește semnificativ probabilitatea ca inteligența artificială să respecte intențiile rău intenționate ale unui atacator.
Rezultatele testelor arată că Fun-Tuning atinge o rată de succes de până la 82% pe unele versiuni de Gemini, o cifră care depășește rata de mai puțin de 30% a metodelor tradiționale de atac.
Ceea ce face ca Fun-Tuning să fie și mai periculos este costul său redus. Deoarece API-ul de optimizare Google este disponibil gratuit, costul computațional pentru crearea unui atac eficient poate fi de doar 10 dolari. În plus, cercetătorii au descoperit că un atac conceput pentru o versiune de Gemini ar putea fi aplicat cu ușurință și altor versiuni, deschizând posibilitatea unor atacuri pe scară largă.
Google a confirmat că este conștient de amenințarea reprezentată de Fun-Tuning, dar nu a comentat încă dacă va schimba modul în care funcționează API-ul de optimizare. Echipa subliniază, de asemenea, dilema defensivă: eliminarea informațiilor pe care Fun-Tuning le exploatează din procesul de optimizare ar face API-ul mai puțin util pentru dezvoltatorii legitimi. În schimb, lăsarea lui așa cum este ar continua să fie o rampă de lansare pentru actorii rău intenționați.
Apariția Fun-Tuning este un avertisment clar că confruntarea în spațiul cibernetic a intrat într-o nouă fază, mai complexă. IA nu este acum doar o țintă, ci și un instrument și o armă în mâinile actorilor rău intenționați.
Sursă: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Comentariu (0)