A BGR szerint egy új kutatási jelentés nemrég publikált egy riasztó technikát, a „Fun-Tuning”-ot, amely magát a mesterséges intelligenciát (MI) használja fel arra, hogy automatikusan rendkívül hatékony, azonnali injekciós támadásokat hozzon létre más fejlett MI-modellek, köztük a Google Gemini-modellje ellen.
A módszer minden eddiginél gyorsabbá, olcsóbbá és könnyebbé teszi a mesterséges intelligencia „feltörését”, ami újabb eszkalációt jelent a mesterséges intelligenciával kapcsolatos kiberbiztonsági háborúban.
A veszély, amikor a rosszfiúk mesterséges intelligenciát használnak a mesterséges intelligencia feltörésére
A prompt injektálás egy olyan technika, amelynek során egy támadó rosszindulatú utasításokat csempész be egy MI-modell bemeneti adataiba (például a forráskódban található megjegyzéseken, a weben található rejtett szövegeken keresztül). A cél a MI „becsapása”, arra kényszerítve, hogy megkerülje az előre beprogramozott biztonsági szabályokat, ami súlyos következményekkel járhat, például érzékeny adatok kiszivárogtatásával, hamis információk megadásával vagy más veszélyes viselkedéssel.
A hackerek mesterséges intelligenciát használnak a mesterséges intelligencia megtámadására
FOTÓ: LINKEDIN KÉPERNYŐKÉP
Korábban ezeknek a támadásoknak a sikeres végrehajtása, különösen a Geminihez vagy a GPT-4-hez hasonló „zárt” modelleken, gyakran sok összetett és időigényes manuális tesztelést igényelt.
A Fun-Tuning azonban gyökeresen megváltoztatta a játékszabályokat. A több egyetem kutatóiból álló csapat által kidolgozott módszer okosan kihasználja azt a rendkívül finomhangolható alkalmazásprogramozási felületet (API), amelyet a Google ingyenesen biztosít a Gemini felhasználók számára.
A Gemini modell finomhangolás közbeni finom reakcióinak elemzésével (pl. hogyan reagál az adathibákra) a Fun-Tuning automatikusan képes meghatározni a leghatékonyabb „előtagokat” és „utótagokat” egy rosszindulatú parancs elrejtésére. Ez jelentősen növeli annak valószínűségét, hogy a mesterséges intelligencia eleget tesz a támadó rosszindulatú szándékainak.
A teszteredmények azt mutatják, hogy a Fun-Tuning akár 82%-os sikerességi arányt is elér a Gemini egyes verzióin, ami meghaladja a hagyományos támadási módszerek kevesebb mint 30%-os sikerrátáját.
A Fun-Tuningot még veszélyesebbé teszi az alacsony költsége. Mivel a Google tuning API-ja ingyenesen elérhető, egy hatékony támadás létrehozásának számítási költsége akár 10 dollár is lehet. Továbbá a kutatók azt találták, hogy a Gemini egyik verziójához tervezett támadás könnyen sikeresen alkalmazható más verziókra is, megnyitva a széles körű támadások lehetőségét.
A Google megerősítette, hogy tisztában van a Fun-Tuning jelentette fenyegetéssel, de egyelőre nem kommentálta, hogy megváltoztatja-e a tuning API működését. A csapat rámutat a védekező dilemmára is: a Fun-Tuning által kihasznált információk eltávolítása a tuning folyamatból kevésbé tenné hasznossá az API-t a legitim fejlesztők számára. Ezzel szemben, ha változatlanul hagynák, az továbbra is kiindulópontot jelentene a rosszindulatú szereplők számára a kihasználáshoz.
A Fun-Tuning megjelenése egyértelmű figyelmeztetés arra, hogy a kibertérben zajló konfrontáció egy új, összetettebb szakaszba lépett. A mesterséges intelligencia mára nemcsak célpont, hanem eszköz és fegyver is a rosszindulatú szereplők kezében.
[hirdetés_2]
Forrás: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Hozzászólás (0)