Mi a véleményed arról a trendről, hogy a hackerek „felfegyverzik” a mesterséges intelligenciát kibertámadások és csalások végrehajtására?
Dr. Nguyen Tuan Khang: Az IBM 2024-es X-Force Threat Intelligence Index jelentése szerint az ázsiai- csendes-óceáni térség, beleértve Vietnamot is, a világ három legveszélyesebb régiója közé tartozott 2023-ban a kibertámadások tekintetében. A gyártás volt a leginkább érintett ágazat ezekben a kibertámadási incidensekben.
A rosszindulatú szereplők által alkalmazott fő taktika továbbra is az adathalász támadások, amelyek sebezhető egyéneket céloznak meg, és a sebezhetőségeket kihasználva rosszindulatú programokat telepítenek. Emellett egy új trend, amely 2024-ben megjelent, a mesterséges intelligenciát (MI) alkalmazó kibertámadások.
A Wired jelentése szerint számos rosszindulatú szereplő mesterséges intelligencia által generált tartalmakat használ fel hackertámadások irányítására, csalárd chatbotok létrehozására, vagy hamis képek és videók készítésére, amelyek mások arcát és hangját utánozzák a Deepfake technológia segítségével.
Ezzel a trenddel párhuzamosan azonban az információbiztonsági rendszerek is elkezdték integrálni a mesterséges intelligencia funkcióit, például a WatsonX-et. A mesterséges intelligencia kiaknázható, de helyettesítheti az embereket az elemzésben, a monitorozásban, a digitális azonosításban és a támadási forgatókönyvek előrejelzésében, ezáltal javítva a védelmi képességeket és minimalizálva az információbiztonsági kockázatokat.
A deepfake átverések egyre gyakoribbak. A mesterséges intelligencia gyors fejlődésével mennyire lesznek veszélyesek ezek a támadások a jövőben?
Dr. Nguyen Tuan Khang: A Deepfake alapvetően egy olyan technológia, amely lehetővé teszi a hackerek számára, hogy hamis digitális személyazonosságokat hozzanak létre, ezáltal mások adataival kiadva magukat. A Deepfake veszélyes probléma lesz, mivel ez a technológia egyre kifinomultabbá válik.
A Deepfake elleni küzdelem első lépése annak megállapítása, hogy valakinek a képét vagy hangját mesterséges intelligencia hozta-e létre. Jelenleg nincs univerzális eszköz a Deepfake azonnali felismerésére, mivel a támadók folyamatosan új modelleket fejlesztenek.
A deepfake-ek azonosítása mellett egy másik módszer a viselkedéselemzésre a technológia használata. Szervezeti vagy üzleti szempontból olyan rendszert kell kidolgozni, amely mindkét technikát ötvözi.
Az utóbbi időben olyan kibertámadások történtek, ahol a hackerek titokban rosszindulatú programokat telepítenek egy vállalat rendszerébe. A rosszindulatú program szunnyad, elemzi az összes tevékenységet, és hamis személyazonosságot hoz létre rosszindulatú szándékai megvalósításához. A Deepfake technológia fejlődésével, párosulva a mesterséges intelligencia által vezérelt videókészítési képességekkel, az ilyen típusú támadások a jövőben még veszélyesebbé válnak.
Az egyre súlyosbodó Deepfake kibertámadások közepette hogyan védhetjük meg az időseket, a gyermekeket és más kiszolgáltatott csoportokat a csalóktól?
Dr. Nguyen Tuan Khang: Az időseket és a gyermekeket gyakran célozzák meg a csalók egy úgynevezett társadalmi manipuláció technikáját alkalmazva. Ez a kifejezés olyan támadásokra utal, amelyek manipulálják az emberi viselkedést.
A hackerek most már a mesterséges intelligenciát az adatgyűjtéssel, -kihasználással és -elemzéssel együtt használhatják, hogy azonosítsák a csalásoknak különösen kitett személyeket, majd célba vegyék őket. A közvélemény tudatosságának növelése mellett el kell fogadnunk azt is, hogy előfordulhatnak olyan helyzetek, amikor a felhasználókat átverik, és a technológiát kell használnunk az ilyen incidensek felderítésére és megelőzésére.
Nemrégiben történt egy eset, amikor egy banki alkalmazott gyanította, hogy egy idős nőt átutalás közben átvernek. Az alkalmazott azonnal közbelépett, és jelentette az esetet a hatóságoknak. A bankok informatikai rendszereinek ma már technológiára van szükségük ahhoz, hogy az ilyen ügyekben az emberi beavatkozást helyettesítsék.
A technológia szerepe az, hogy még ha a feladóról ismert is, hogy a jogos tulajdonos, a rendszer akkor is lépéseket tesz a tranzakció blokkolására, ha gyanítja, hogy valaki más manipulálta. Az ilyen eszközöket csalásmegelőző rendszereknek nevezik.
Itt az ideje, hogy Vietnam szabályozásokat vezessen be a mesterséges intelligencia kezelésére, strukturált keretrendszerbe foglalva a mesterséges intelligencia kutatását, fejlesztését és felhasználását?
Dr. Nguyen Tuan Khang: A mesterséges intelligencia szabályozásának kérdése már régóta vita tárgya, de még mindig sok a vitatott pont. Például a környékemen lévő parkolóban van egy mesterséges intelligencia által vezérelt rendszámfelismerő rendszer, mégis előfordulnak lopások. Ekkor kezdődött a vita arról, hogy ki a hibás. Az épület tulajdonosát, a biztonsági őrt vagy a mesterséges intelligencia által vezérelt rendszer fejlesztőjét kell-e felelősségre vonni?
Ettől kezdve az épület megváltoztatta a szabályzatát, kimondva, hogy a lakók választhatják a mesterséges intelligencia alapú rendszámfelismerést a kényelem érdekében, de el kellett fogadniuk a kockázatokat. Akik beleegyeztek, használhatták az automata kapukat, míg azoknak, akik nem, a régi módon kellett parkolniuk. Szükségünk van egy ilyen rendszerre.
Hasonlóképpen, az IBM kifejlesztett egy mesterséges intelligencia rendszert a rák megelőzésére. Amikor a rendszer gyógyszert írt fel, és a beteg bevette, de még mindig nem lehetett megmenteni, az orvos vagy a mesterséges intelligencia hibája volt?
Úgy gondolom, hogy a mesterséges intelligenciára vonatkozó szabályozásoknak konkrétnak kell lenniük, világosan meg kell határozniuk, hogy mi megengedett és mi nem megengedett a mesterséges intelligencia alkalmazások fejlesztése során. A világ biztonságosabbá tétele érdekében a legalapvetőbb szabályozás, amit bevezethetünk, az a nagy összegű pénzátutalások biometrikus ellenőrzésének előírása. Ilyen helyzetben azok az emberek, akiknek a személyazonossága veszélybe került, teljesen elkerülhetik a pénzveszteséget.
Köszönöm, uram.
[hirdetés_2]
Forrás






Hozzászólás (0)