A BGR szerint egy új kutatási jelentésben megjelent egy riasztó technika, az úgynevezett „Fun-Tuning”, amely során magát a mesterséges intelligenciát (MI) használják fel arra, hogy automatikusan rendkívül hatékony, azonnali injekciós támadásokat hozzanak létre más fejlett MI-modellek, köztük a Google Gemini-modellje ellen.
A módszer minden eddiginél gyorsabbá, olcsóbbá és könnyebbé teszi a mesterséges intelligencia „feltörését”, ami újabb eszkalációt jelent a mesterséges intelligenciát érintő kiberbiztonsági csatában.
A veszély, amikor a rosszfiúk mesterséges intelligenciát használnak a mesterséges intelligencia feltörésére
A prompt injektálás egy olyan technika, amelynek során egy támadó rosszindulatú utasításokat csempész be egy MI-modell bemeneti adataiba (például a forráskódban található megjegyzéseken, a weben található rejtett szövegeken keresztül). A cél az, hogy „rávegye” a MI-t az előre beprogramozott biztonsági szabályok megkerülésére, ami súlyos következményekkel járhat, például érzékeny adatok kiszivárogtatásával, hamis információk megadásával vagy más rosszindulatú műveletek végrehajtásával.
A hackerek mesterséges intelligenciát használnak a mesterséges intelligencia megtámadására
FOTÓ: LINKEDIN KÉPERNYŐKÉP
Korábban ezeknek a támadásoknak a sikeres végrehajtása, különösen a „zárt” modelleken, mint például a Gemini vagy a GPT-4, gyakran sok összetett és időigényes manuális tesztelést igényelt.
A Fun-Tuning azonban gyökeresen megváltoztatta a játékszabályokat. A több egyetem kutatóiból álló csapat által kidolgozott módszer okosan kihasználja azt a finomhangoló alkalmazásprogramozási felületet (API), amelyet a Google ingyenesen biztosít a Gemini felhasználóinak.
A Gemini modell finomhangolás közbeni finom reakcióinak elemzésével (pl. hogyan reagál az adatokban található hibákra) a Fun-Tuning automatikusan képes meghatározni a leghatékonyabb „előtagokat” és „utótagokat” egy rosszindulatú parancs elrejtésére. Ez jelentősen növeli annak valószínűségét, hogy a mesterséges intelligencia eleget tesz a támadó rosszindulatú szándékainak.
A teszteredmények azt mutatják, hogy a Fun-Tuning akár 82%-os sikerességi arányt is elér a Gemini egyes verzióin, ami meghaladja a hagyományos támadási módszerek kevesebb mint 30%-os sikerrátáját.
A Fun-Tuning veszélyeit tovább növeli az alacsony költsége. Mivel a Google tuning API-ja ingyenesen elérhető, egy hatékony támadás létrehozásának számítási költsége akár 10 dollár is lehet. Továbbá a kutatók azt találták, hogy a Gemini egyik verziójához tervezett támadás könnyen sikeresen alkalmazható más verziókra is, megnyitva a széles körű támadások lehetőségét.
A Google megerősítette, hogy tisztában van a Fun-Tuning jelentette fenyegetéssel, de egyelőre nem kommentálta, hogy megváltoztatja-e a tuning API működését. A kutatók rámutatnak a védekező dilemmára is: a Fun-Tuning által kihasznált információk eltávolítása a tuning folyamatból kevésbé tenné hasznossá az API-t a legitim fejlesztők számára. Ezzel szemben, ha változatlanul hagynák, az továbbra is ugródeszka lenne a rosszindulatú szereplők számára a kihasználásukhoz.
A Fun-Tuning megjelenése egyértelmű figyelmeztetés arra, hogy a kibertérben zajló konfrontáció egy új, összetettebb szakaszba lépett. A mesterséges intelligencia mára nemcsak célpont, hanem eszköz és fegyver is a rosszindulatú szereplők kezében.
[hirdetés_2]
Forrás: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
Hozzászólás (0)