Podle serveru BGR nová výzkumná zpráva odhalila alarmující techniku zvanou „Fun-Tuning“, která využívá umělou inteligenci (AI) k automatickému generování vysoce efektivních útoků prompt injection zaměřených na další pokročilé modely umělé inteligence, včetně Gemini od Googlu.
Tato metoda umožňuje „hackování“ umělé inteligence rychlejší, levnější a snazší než kdykoli předtím, což představuje novou eskalaci v bitvě o kybernetickou bezpečnost zahrnující umělou inteligenci.
Nebezpečí, že zlomyslní aktéři použijí umělou inteligenci k jejímu prolomení.
Prompt injection je technika, při které útočníci nenápadně vkládají škodlivé instrukce do vstupních dat modelu umělé inteligence (např. prostřednictvím komentářů ve zdrojovém kódu, skrytého textu na webu). Cílem je „oklamat“ umělou inteligenci a donutit ji ignorovat předem naprogramovaná bezpečnostní pravidla, což vede k vážným následkům, jako je únik citlivých dat, poskytování dezinformací nebo provádění jiných nebezpečných akcí.
Hackeři používají umělou inteligenci k útoku na umělou inteligenci.
FOTO: SNÍMEK OBRAZOVKY Z LINKEDINU
Dříve úspěšné provedení těchto útoků, zejména na „uzavřených“ modelech, jako jsou Gemini nebo GPT-4, často vyžadovalo velké množství složitého a časově náročného manuálního testování.
Ale Fun-Tuning zcela změnil situaci. Tato metoda, vyvinutá týmem výzkumníků z několika univerzit, chytře využívá propracované rozhraní pro programování aplikací (API), které Google poskytuje uživatelům Gemini zdarma.
Analýzou jemných reakcí modelu Gemini během procesu ladění (například toho, jak reaguje na chyby v datech), dokáže Fun-Tuning automaticky identifikovat nejúčinnější „předpony“ a „přípony“ k maskování škodlivého prohlášení. To výrazně zvyšuje pravděpodobnost, že umělá inteligence bude vyhovovat škodlivému záměru útočníka.
Výsledky testů ukazují, že Fun-Tuning dosáhl u některých verzí Gemini úspěšnosti až 82 %, což je číslo mnohem vyšší než méně než 30 % dosažených tradičními metodami útoku.
Nebezpečí Fun-Tuningu zvyšuje jeho extrémně nízké náklady na provedení. Protože je tuningové API od Googlu poskytováno zdarma, výpočetní náklady na vytvoření efektivního útoku mohou být pouhých 10 dolarů. Vědci navíc zjistili, že útok navržený pro jednu verzi Gemini lze snadno úspěšně aplikovat i na jiné verze, což zvyšuje riziko rozsáhlých útoků.
Společnost Google potvrdila, že si je vědoma hrozby, kterou představuje technika Fun-Tuning, ale zatím se nevyjádřila k tomu, zda změní fungování ladicího API. Výzkumný tým také poukázal na obtížnost obrany proti této hrozbě: pokud budou informace využívané technologií Fun-Tuning z procesu ladění odstraněny, API se stane méně užitečným pro legitimní vývojáře. Naopak, pokud zůstane nezměněno, bude i nadále odrazovým můstkem pro zneužívání ze strany škodlivých aktérů.
Vznik Fun-Tuningu je jasným varováním, které naznačuje, že konfrontace v kyberprostoru vstoupila do nové, složitější fáze. Umělá inteligence nyní není jen cílem, ale také nástrojem a zbraní v rukou zlomyslných aktérů.
Zdroj: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Komentář (0)