A BGR szerint egy új kutatási jelentés egy riasztó technikát, a „Fun-Tuning”-ot tárt fel, amely mesterséges intelligenciát (MI) használ, hogy automatikusan generáljon rendkívül hatékony, azonnali injekciós támadásokat más fejlett MI-modellek, köztük a Google Gemini-modellje ellen.
Ez a módszer minden eddiginél gyorsabbá, olcsóbbá és könnyebbé teszi a mesterséges intelligencia „feltörését”, ami újabb eszkalációt jelent a mesterséges intelligenciát érintő kiberbiztonsági csatában.
A veszély, hogy rosszindulatú szereplők mesterséges intelligenciát használnak a mesterséges intelligencia feltörésére.
A prompt injektálás egy olyan technika, amelynek során rosszindulatú szereplők észrevétlenül káros utasításokat illesztenek be egy MI-modell bemeneti adataiba (például a forráskódban található megjegyzéseken, a weben található rejtett szövegeken keresztül). A cél a MI „becsapása”, arra kényszerítve, hogy figyelmen kívül hagyja az előre beprogramozott biztonsági szabályokat, ami súlyos következményekkel járhat, például érzékeny adatok kiszivárogtatásával, félretájékoztatással vagy más veszélyes műveletek végrehajtásával.
A hackerek mesterséges intelligenciát használnak a mesterséges intelligencia megtámadására.
FOTÓ: KÉP A LINKEDIN-RŐL
Korábban ezeknek a támadásoknak a sikeres végrehajtása, különösen a „zárt” modelleken, mint például a Gemini vagy a GPT-4, gyakran nagy mennyiségű összetett és időigényes manuális tesztelést igényelt.
A Fun-Tuning azonban teljesen megváltoztatta a helyzetet. A több egyetem kutatóiból álló csapat által kidolgozott módszer okosan kihasználja a kifinomult alkalmazásprogramozási felületet (API), amelyet a Google ingyenesen biztosít a Gemini felhasználóinak.
A Gemini modell finomhangolási folyamat közbeni finom válaszainak elemzésével (például, hogyan reagál az adatokban található hibákra) a Fun-Tuning automatikusan azonosítja a leghatékonyabb „előtagokat” és „utótagokat” a rosszindulatú állítások elfedésére. Ez jelentősen növeli annak valószínűségét, hogy a mesterséges intelligencia eleget tesz a támadó rosszindulatú szándékának.
A teszteredmények azt mutatják, hogy a Fun-Tuning a Gemini egyes verzióin akár 82%-os sikerességi arányt is elért, ami messze meghaladja a hagyományos támadási módszerekkel elért kevesebb mint 30%-os értéket.
A Fun-Tuning veszélyeit tovább növeli a rendkívül alacsony végrehajtási költsége. Mivel a Google tuning API-ja ingyenesen biztosított, egy hatékony támadás létrehozásának számítási költsége akár 10 dollár is lehet. Továbbá a kutatók azt találták, hogy a Gemini egyik verziójához tervezett támadás könnyen sikeresen alkalmazható más verziókra is, ami növeli a széles körű támadások kockázatát.
A Google megerősítette, hogy tisztában van a Fun-Tuning technika jelentette fenyegetéssel, de egyelőre nem kommentálta, hogy megváltoztatja-e a tuning API működését. A kutatócsoport rámutatott arra is, hogy nehéz védekezni ez ellen: ha a Fun-Tuning által kihasznált információkat eltávolítják a tuning folyamatból, az API kevésbé lesz hasznos a legitim fejlesztők számára. Fordítva, ha változatlan marad, továbbra is ugródeszka marad a rosszindulatú szereplők számára.
A Fun-Tuning megjelenése egyértelmű figyelmeztetés, amely azt jelzi, hogy a kibertérben zajló konfrontáció egy új, összetettebb szakaszba lépett. A mesterséges intelligencia mára nemcsak célpont, hanem eszköz és fegyver is a rosszindulatú szereplők kezében.
[hirdetés_2]
Forrás: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm







Hozzászólás (0)