Onlinebedragare utger sig inte bara för att vara släktingar, poliser etc., utan manipulerar också verktyg för artificiell intelligens (AI) för att skapa hundratals bedrägeriscenarier för att attackera användare.
Cybersäkerhetsexperten Ngo Minh Hieu sa att bedragare manipulerar AI och skapar hundratals bedrägeriscenarier på några minuter - Foto: VU TUAN
Enligt det sociala företaget Chongluadao.vn har bedragare använt AI för att generera skadlig kod, skriva bluffskript och omvandla ljud och bilder genom djupförfalskning.
Enligt cybersäkerhetsexperten Ngo Minh Hieu (Hieu PC) – representant för Chongluadao.vn – är ett farligt knep att "lura AI" att ladda skadlig kod. "De skapar falska ljud- eller bildfiler och bäddar in skadlig kod som AI:n inte känner igen. När AI-systemet bearbetar den aktiveras skadliga koden och tar kontroll", sa Hieu PC.
Till exempel använde han AI för att förfalska röster och bilder av släktingar via FaceTime för att lura folk att överföra pengar.
På senare tid har bedrägerifrekvensen ökat avsevärt tack vare stödet från AI-verktyg. Genom att kontrollera AI och använda AI för att begå bedrägerier övervinner bedragare alla språkliga och geografiska barriärer. Formerna av bedrägeri blir alltmer sofistikerade och farliga.
PC-experten Hieu analyserade att oavsett vilket verktyg som används för att begå bedrägerier, har cyberbrottslingar alltid ett scenario. Det är den information hans team av kollegor har hämtat från när de mottagit och bearbetat hundratals bedrägerirapporter online.
Vanliga former av bedrägeri är att utge sig för att vara släktingar, anställda vid statliga myndigheter, polis, elbolag... Mer sofistikerade är scenarier som lockar offer in i investeringsfällor, utför arbetsuppgifter eller dejtar...
Cybersäkerhetsexperter säger att det första man bör göra för att undvika att ens bild förfalskas är att inte dela sin personliga bild på sociala nätverk offentligt. Samtal och meddelanden som ber om pengaöverföringar, klickar på länkar eller anger engångskoder är till 99 % bedrägerier.
Hackares knep för att attackera AI
Enligt cybersäkerhetsexperter är en "adversarial attack" ett knep som hackare använder för att "lura" AI. Detta är en form av falsk information som gör att AI missförstår eller utnyttjas. Som ett resultat injicerar AI skadlig kod i systemet eller utför kommandon som ges av bedragaren.
Bedragare utnyttjar denna svaghet för att kringgå AI, särskilt AI-skyddssystem (som antivirusprogram, röstigenkänning eller banktransaktionscheckar).
[annons_2]
Källa: https://tuoitre.vn/lua-dao-mang-lua-ca-ai-tao-kich-ban-thao-tung-tam-ly-20250228163856719.htm






Kommentar (0)