
Ez a sebezhetőség lehetővé teszi a támadók számára, hogy rosszindulatú parancsokat juttassanak közvetlenül a mesterséges intelligencia memóriájába, így egy hasznos funkciót állandó fegyverré alakítva tetszőleges kód végrehajtására (szemléltető ábra: ST).
A LayerX Security jelentése szerint ez a támadás egy Cross-Site Request Forgery (CSRF) sebezhetőséget kihasználva rosszindulatú parancsokat juttatott a ChatGPT perzisztens memóriájába.
A „Memória” funkció, amelyet eredetileg a mesterséges intelligencia számára terveztek, hogy megjegyezze a hasznos adatokat, például a felhasználóneveket és a személyre szabott válaszok beállításait, mostantól „feltörhető”.
Miután a memóriát kártevő megfertőzi, ezek a parancsok véglegesen megmaradnak – kivéve, ha a felhasználó manuálisan törli őket a beállításokon keresztül –, és több eszközön és munkamenetben is aktiválhatók.
„Ami különösen veszélyessé teszi ezt a sebezhetőséget, az az, hogy a mesterséges intelligencia perzisztens memóriáját célozza meg, nem csak a böngésző munkamenetét” – mondta Michelle Levy, a LayerX Security biztonsági kutatási igazgatója.
Levy elmagyarázta: „Egyszerűen fogalmazva, a támadó egy trükköt használ a mesterséges intelligencia „becsapására”, arra kényszerítve azt, hogy egy rosszindulatú parancsot írjon a memóriájába. A legveszélyesebb az egészben, hogy ez a parancs véglegesen a mesterséges intelligenciában marad – még akkor is, ha a felhasználó számítógépet vált, kijelentkezik, majd újra bejelentkezik, vagy akár egy másik böngészőt használ.”
Később, amikor egy felhasználó egy teljesen normális kérést indít, véletlenül aktiválhatja a rosszindulatú programot. Ennek eredményeként a hackerek titkos kódot futtathatnak, adatokat lophatnak, vagy nagyobb irányítást szerezhetnek a rendszer felett.”
A leírt támadási forgatókönyv meglehetősen egyszerű: Először a felhasználó bejelentkezik a ChatGPT Atlasba. Becsapják, hogy rákattintson egy rosszindulatú linkre, majd a rosszindulatú webhely titokban elindít egy CSRF kérést, csendben rosszindulatú utasításokat illesztve be az áldozat ChatGPT memóriájába.
Végül, amikor egy felhasználó egy teljesen jogos lekérdezést tesz, például arra kéri a mesterséges intelligenciát, hogy írjon kódot, a fertőzött „memóriák” aktiválódnak.
A LayerX rámutat, hogy a problémát súlyosbítja, hogy a ChatGPT Atlas nem rendelkezik robusztus adathalászat elleni védelemmel.
Több mint 100 sebezhetőséget és adathalász oldalt felölelő tesztek során az Atlasnak csak a rosszindulatú webhelyek 5,8%-át sikerült blokkolnia.
Ez a szám messze túl szerény a Google Chrome-hoz (47%) vagy a Microsoft Edge-hez (53%) képest, így az Atlas felhasználói "akár 90%-kal sebezhetőbbek" a támadásokkal szemben a hagyományos böngészőkhöz képest.
Ez a felfedezés egy másik, a NeuralTrust által korábban bemutatott gyors kártevő-injekciós sebezhetőséget követ, amely azt mutatja, hogy a mesterséges intelligencia által támogatott böngészők új támadási fronttá válnak.
Az OpenAI a múlt hét elején indította el a ChatGPT Atlas webböngészőt. Nem meglepő módon az OpenAI integrálta a ChatGPT mesterséges intelligencia motorját ebbe a böngészőbe, így jobb támogatást nyújtva a felhasználóknak a webböngészés során.
Amikor egy felhasználó rákattint egy keresési eredményre a ChatGPT Atlasban, egy ChatGPT párbeszédpanel jelenik meg közvetlenül a weboldal ablaka mellett, amely lehetővé teszi, hogy kérdéseket tegyen fel a megtekintett tartalommal kapcsolatban, így olvasási időt takaríthat meg.
A ChatGPT képes összefoglalni a weboldal tartalmát, szerkeszteni a szöveget e-mailek írásakor, vagy javaslatokat tenni a szöveg átírására, hogy jobban illeszkedjen a kontextushoz.
Forrás: https://dantri.com.vn/cong-nghe/nguoi-dung-chatgpt-atlas-co-the-bi-danh-cap-du-lieu-voi-ma-doc-vinh-vien-20251028111706750.htm






Hozzászólás (0)