Mi a véleményed arról a trendről, hogy a hackerek „fegyverként” használják a mesterséges intelligenciát kibertámadások és csalások végrehajtására?
Dr. Nguyen Tuan Khang: Az IBM 2024-es X-Force Threat Intelligence Indexe szerint az ázsiai -csendes-óceáni térség , beleértve Vietnamot is, az a régió, amely a legtöbb kibertámadást fogja elszenvedni a világon 2023-ban. Ezek közül a gyártás az, amelyet a kibertámadások leginkább érintenek.
A rosszfiúk fő módszere továbbra is az adathalász támadások, amelyek sebezhető embereket céloznak meg, és a sebezhetőségeket kihasználva rosszindulatú programokat telepítenek. Emellett 2024-ben egyre népszerűbb trend a mesterséges intelligenciát (MI) alkalmazó kibertámadások.
A Wired jelentése rámutat, hogy sok rosszfiú generatív mesterséges intelligenciát használ a hackelések irányításához, csaló chatbotok létrehozásához, vagy olyan deepfake képek és videók készítéséhez, amelyek mások arcát és hangját utánozzák.
Ezzel a trenddel párhuzamosan azonban az információbiztonsági rendszerek is elkezdték integrálni a mesterséges intelligencia funkcióit, például a watsonx-ot. A mesterséges intelligencia kiaknázható, de helyettesítheti az embereket az elemzésben, a monitorozásban, a számok azonosításában, a támadási forgatókönyvek előrejelzésében, ezáltal javítva a védelmi képességeket és minimalizálva az információbiztonsági kockázatokat.
A deepfake átverések egyre gyakoribbak. A mesterséges intelligencia gyors fejlődésével mennyire lesznek veszélyesek ezek a támadások a jövőben?
Dr. Nguyen Tuan Khang: A Deepfake alapvetően egy olyan technológia, amely segít a hackereknek hamis digitális személyazonosságokat létrehozni, ezáltal másokat megszemélyesítve. A Deepfake veszélyes probléma lesz, mivel ez a technológia egyre kifinomultabbá válik.
A Deepfake elleni küzdelemhez először is meg kell állapítani, hogy egy személy képe vagy hangja mesterséges intelligencia által generált-e. Jelenleg nincs univerzális eszköz, amely azonnal képes lenne felismerni a Deepfake-eket, mivel a támadók folyamatosan új modelleket fejlesztenek.
A deepfake-észlelés mellett létezik egy másik technika is a kezelésére, mégpedig a viselkedéselemzés technológia segítségével. Szervezeti és üzleti szempontból is szükséges egy olyan rendszer kidolgozása, amely mindkét technikát ötvözi.
Az utóbbi időben olyan kibertámadások történtek, ahol hackerek titokban rosszindulatú programokat telepítettek a vállalat rendszerébe. A rosszindulatú program lesben áll, és elemzi az összes tevékenységet, ezáltal hamis személyazonosságot hozva létre rosszindulatú szándékai megvalósításához. A Deepfake technológia fejlődésével, valamint a mesterséges intelligencia által létrehozott videók létrehozásának lehetőségével az ilyen típusú támadások a jövőben sokkal veszélyesebbek lesznek.
A Deepfake kibertámadások eszkalációjával hogyan védhetjük meg az időseket, a gyermekeket és más kiszolgáltatott csoportokat a csalóktól?
Dr. Nguyen Tuan Khang: Az időseket és a gyermekeket gyakran támadják meg a csalók egy úgynevezett társadalmi manipuláció technikáját alkalmazva. Ez egy olyan kifejezés, amely az emberi viselkedés manipulálásával elkövetett támadásokat ír le.
A hackerek most már a mesterséges intelligenciát az adatgyűjtéssel, -bányászattal és -elemzéssel kombinálva használhatják, hogy azonosítsák a valószínűleg átverésre kerülő embereket, majd megtalálják a támadás módjait. A közösségi tudatosság növelése mellett el kell fogadnunk azt is, hogy olyan helyzetek is előfordulhatnak, amikor a felhasználókat átverik, és technológiát kell használnunk ezek felderítésére és megelőzésére.
Nemrégiben történt egy eset, amikor egy banki alkalmazott csalásra utaló jeleket gyanított egy idős hölgyön. A személy ezután azonnal leállította a tranzakciót, és jelentette a hatóságoknak. A bankok informatikai rendszerei ma már olyan technológiával rendelkeznek, amely helyettesítheti az embereket az ilyen feladatokban.
A technológia szerepe az, hogy még ha a feladóról ismert is, hogy valódi személy, a rendszer akkor is leállítja az átutalást, ha gyanú merül fel arra, hogy a tranzakciót valaki más manipulálja. Az ilyen eszközöket csalásmegelőző rendszereknek nevezik.
Itt az ideje, hogy Vietnam szankciókat vezessen be a mesterséges intelligencia kezelésére, és keretrendszerbe foglalja a mesterséges intelligencia kutatását, fejlesztését és felhasználását?
Dr. Nguyen Tuan Khang: A mesterséges intelligencia alapú menedzsment kérdését már régóta vitatják, azonban még mindig sok vita van. Például a környékemen lévő parkolóban van egy mesterséges intelligencia által vezérelt rendszámfelismerő rendszer, de továbbra is történtek lopások. Ekkor kezdődött a vita arról, hogy kinek a hibája volt. A lakástulajdonosnak, a biztonsági őrnek vagy a mesterséges intelligencia által vezérelt rendszer fejlesztőjének kell-e felelősnek lennie?
Azóta az épület megváltoztatta a szabályait, kimondva, hogy a lakók választhatják a mesterséges intelligencia használatát a rendszámok felismeréséhez a kényelem érdekében, de el kell fogadniuk a kockázatokat. Akik beleegyeznek, azok használhatják az automata ajtókat, akik nem, azoknak a régi módon kell parkolniuk. Ilyen szankciókra van szükségünk.
Hasonlóképpen, az IBM kifejlesztett egy mesterséges intelligencia rendszert a rák megelőzésére. Amikor a rendszer felírt egy gyógyszert, de a beteg bevette, de még mindig nem sikerült megmenteni, az az orvos vagy a mesterséges intelligencia hibája?
Úgy gondolom, hogy a mesterséges intelligencia szabályozásának konkrétnak kell lennie, világosan meg kell határoznia, hogy mit lehet és mit nem lehet tenni a mesterséges intelligencia alkalmazások fejlesztése során. A világ biztonságosabbá tétele érdekében a legalapvetőbb szabályozás, amit tehetünk, az a nagy összegű pénzátutalások biometrikus felismerésének előírása. Ilyen helyzetben azok az emberek, akik elveszítik személyazonosító adataikat, teljesen elkerülhetik a pénzveszteséget.
Köszönöm.
[hirdetés_2]
Forrás






Hozzászólás (0)