Aanval vanuit elke hoek
Google heeft een nieuw product voor kunstmatige intelligentie (AI) gelanceerd met de naam "Gemini Nano Banana". Het is geen grootschalige AI (LLM) met de mogelijkheid om te schrijven en te redeneren, maar een AI die gespecialiseerd is in fotobewerking. Veel gebruikers zijn enthousiast over deze tool, maar deze brengt ook veel schadelijke effecten met zich mee.

"Het is als een 'regressie' van technologie en AI-ethiek", aldus Nguyen Hong Phuc, directeur wetenschap bij Conductify AI. "Gemini Nano Banana kan foto's effectief bewerken. Maar doordat Google de censuur van Gemini Nano Banana heeft opgeheven, waardoor de barrières en beperkende mechanismen zijn versoepeld, kan deze AI afbeeldingen maken die enorm lijken op beroemdheden, sexy afbeeldingen, gevoelige afbeeldingen...", aldus Phuc.
Volgens de heer Nguyen Hong Phuc is Gemini Nano Banana dankzij deze mogelijkheid een hulpmiddel om nepfoto's te creëren die zo realistisch zijn dat zelfs AI-experts ze niet kunnen onderscheiden. Dit leidt tot nieuwe fraude- en cyberbeveiligingsrisico's. Zo kunnen er bijvoorbeeld foto's met politici en beroemde politici worden gemaakt om nepnieuws te verspreiden. Ook kunnen foto's van individuen door AI worden bewerkt en op sociale netwerken worden belasterd.
Bovendien lijkt er met tientallen andere AI-tools voor fotobewerking die online furore maken, geen einde te komen aan deepfakefraude. Statistieken van beveiligingsorganisaties tonen aan dat deepfake-technologie fraudecampagnes creëert die gericht zijn op hooggeplaatste personen, met name bedrijfsleiders. In 2024 waren er wereldwijd 140.000-150.000 gevallen, waarvan 75% gericht was op CEO's en senior managers... Deepfake zou de wereldwijde economische verliezen met 32% kunnen verhogen, wat neerkomt op ongeveer 40 miljard dollar per jaar in 2027.
Onlangs heeft AI Anthropic Company een cyberaanvalcampagne van buitenlandse hackers gedetecteerd en voorkomen. Voor het eerst werd het gebruik van AI vastgelegd om geautomatiseerde aanvalsactiviteiten te coördineren. Hackers gebruikten AI-systemen om inbraakactiviteiten te plannen, aan te sturen en uit te voeren - een "zorgwekkende" ontwikkeling, met het risico dat de omvang en snelheid van cyberaanvalscampagnes toeneemt...
De heer Ngo Minh Hieu, directeur van de Anti-Fraud Organization van de National Cyber Security Association, deelde mee dat de AI-geïntegreerde tool een fraudesnelheid heeft die ongeveer 20 keer hoger ligt dan bij gebruik van echte mensen. De proefpersonen geven het fraudescenario aan AI ter analyse, en het systeem zal onmiddellijk automatisch chatten met de slachtoffers. Op basis van de initiële gegevens kan AI achterhalen wat het slachtoffer wil en in realtime met hem chatten. De meest geavanceerde truc is de "Man-in-the-Middle"-aanval, wat betekent dat wanneer de gebruiker video-authenticatie uitvoert, zoals het draaien van het gezicht of het voorlezen van commando's, de hacker in het midden gaat staan om de verzonden gegevens te verstoren. Op dat moment voegen cybercriminelen voorbereide deepfake-video's toe, waarbij ze de echte datastroom van de gebruiker vervangen om de authenticatie te omzeilen... Met de bovenstaande methode lopen ook de beveiligingssystemen van banken en financiële instellingen het risico op oplichting.
Beter gegevensbeheer
Naarmate AI steeds populairder wordt, nemen ook de beveiligings- en privacyrisico's aanzienlijk toe. Gegevens die op externe servers worden opgeslagen en verwerkt, worden een aantrekkelijk doelwit voor hackers en cybercriminele organisaties. Volgens gegevens van de National Cyber Security Association is het aantal cyberaanvallen met AI alleen al in het tweede kwartaal van 2025 met 62% gestegen, met wereldwijde verliezen tot wel 18 miljard dollar tot gevolg.
Deskundigen zeggen dat gegevensbescherming essentieel is. Toch vinden gegevensverzameling en -verkoop nog steeds openlijk plaats op veel 'dark market'-platforms, voor slechts $ 20 per maand. Cybercriminelen kunnen tools gebruiken die vergelijkbaar werken met taalmodellen, maar die zijn aangepast voor criminele doeleinden. Deze tools kunnen schadelijke code creëren en zelfs antivirussoftware omzeilen.
In Vietnam reguleert decreet nr. 13/2023/ND-CP (van kracht vanaf 17 april 2023) de bescherming van persoonsgegevens. Daarnaast zal de wet op de bescherming van persoonsgegevens naar verwachting op 1 januari 2026 in werking treden, waardoor een sterker juridisch mechanisme ontstaat om het risico van lekken en misbruik van persoonsgegevens aan te pakken. Volgens de National Cyber Security Association moet de effectiviteit van de handhaving echter nog worden versterkt op alle drie de pijlers: het vergroten van het bewustzijn van burgers, het vergroten van de verantwoordelijkheid van bedrijven en het verbeteren van de verwerkingscapaciteit van beheersinstanties. Naast technische maatregelen moet iedereen de mogelijkheid ontwikkelen om ongebruikelijke en verdachte signalen te herkennen en zichzelf proactief te beschermen tegen gevaarlijke digitale interacties...
Beveiligingsbedrijf Kaspersky waarschuwt voor misbruik van Dark AI (een term die wordt gebruikt om de inzet van grote taalmodellen (LLM's) te beschrijven die buiten de standaardbeveiligingscontroles vallen en vaak acties zoals fraude, manipulatie, cyberaanvallen of datamisbruik mogelijk maken). Organisaties en individuen moeten zich voorbereiden op steeds geavanceerdere en moeilijker te detecteren cyberaanvallen als gevolg van de opkomst van Dark AI in de regio Azië-Pacific.
Sergey Lozhkin, hoofd van het Global Research and Analysis Team (GReAT) en verantwoordelijk voor de regio Midden-Oosten, Turkije, Afrika en Azië-Pacific bij Kaspersky, vertelde dat een van de manifestaties van AI-misbruik vandaag de dag de opkomst is van Black Hat GPT-modellen. Dit zijn AI-modellen die speciaal zijn ontwikkeld of aangepast om onethische en illegale doeleinden te dienen, zoals het creëren van malware, het opstellen van vloeiende en zeer overtuigende phishingmails voor grootschalige aanvallen, het creëren van stemmen en deepfake-video's, en zelfs het ondersteunen van gesimuleerde aanvalsoperaties...
Experts van Kaspersky raden particulieren en bedrijven aan om next-generation beveiligingsoplossingen te gebruiken om door AI gegenereerde malware te detecteren en gegevensbescherming als een belangrijk doel te beschouwen. Voor bedrijven is het noodzakelijk om realtime monitoringtools te gebruiken om AI-gedreven exploits te monitoren; de toegangscontrole en personeelstraining te versterken om het fenomeen van AI in the dark en het risico op datalekken te beperken; en een cybersecurity operations center op te zetten om dreigingen te monitoren en snel te reageren op incidenten...
Bron: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html






Reactie (0)