Vietnam.vn - Nền tảng quảng bá Việt Nam

Gegevensbeveiliging in het AI-tijdperk.

Deepfakes, phishingaanvallen en digitale identiteitsdiefstal worden steeds geavanceerder en kunnen op elk moment toeslaan, met als doelwit iedereen die niet over de nodige digitale verdedigingsvaardigheden beschikt.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Val vanuit alle hoeken aan.

Google heeft een nieuw product voor kunstmatige intelligentie (AI) gelanceerd, genaamd "Gemini Nano Banana". Dit is geen grootschalige taalkundige AI (LLM) die kan schrijven en redeneren, maar een AI die gespecialiseerd is in fotobewerking. Veel gebruikers zijn enthousiast over deze tool, maar er kleven ook een aantal nadelen aan.

S4c.jpg
Basisschool Tran Hung Dao in de wijk Cau Ong Lanh, Ho Chi Minh-stad, gebruikt een gezichtsherkenningssysteem om de aanwezigheid te registreren en ouders via een app op de hoogte te stellen. Foto: HOANG HUNG

"Het is als een stap terug in de ontwikkeling van AI-technologie en ethische beperkingen", aldus Nguyen Hong Phuc, Chief Scientific Officer van Conductify AI, die zijn persoonlijke mening gaf. "Gemini Nano Banana beschikt over effectieve mogelijkheden voor beeldbewerking. Maar doordat Google de censuur op Gemini Nano Banana heeft opgeheven en de barrières en beperkende mechanismen heeft versoepeld, kan deze AI afbeeldingen creëren die ongelooflijk veel lijken op beroemdheden, suggestieve afbeeldingen, gevoelige afbeeldingen, enzovoort", aldus Phuc.

Volgens de heer Nguyen Hong Phuc maakt deze mogelijkheid de Gemini Nano Banana tot een instrument voor het creëren van realistische nepafbeeldingen, zo realistisch dat zelfs AI-experts ze niet van elkaar kunnen onderscheiden. Dit leidt tot nieuwe risico's op het gebied van fraude en cyberbeveiliging, zoals het maken van nepfoto's van bekende politici om valse informatie te verspreiden, en zelfs het slachtoffer worden van door AI gegenereerde fotomanipulatie en laster op sociale media.

Bovendien, nu tientallen andere AI-fotobewerkingsprogramma's het internet overspoelen, lijken deepfake-fraudes niet te stoppen. Statistieken van beveiligingsorganisaties tonen aan dat deepfake-technologie wordt gebruikt voor phishingcampagnes gericht op waardevolle personen, met name bedrijfsleiders. In 2024 waren er wereldwijd 140.000 tot 150.000 gevallen, waarvan 75% gericht was op CEO's en senior managers. Deepfakes zouden de wereldwijde economische verliezen met 32% kunnen verhogen, tot ongeveer 40 miljard dollar per jaar in 2027.

Het AI-bedrijf Anthropic heeft onlangs een cyberaanval van buitenlandse hackers gedetecteerd en verijdeld. Deze aanval maakte voor het eerst gebruik van AI om geautomatiseerde aanvalsactiviteiten te coördineren. De hackers gebruikten AI-systemen om inbraakoperaties te plannen, aan te sturen en uit te voeren – een zorgwekkende ontwikkeling die het risico met zich meebrengt dat cyberaanvallen op grotere schaal en met een hogere snelheid plaatsvinden.

De heer Ngo Minh Hieu, directeur van de antifraudeorganisatie van de Nationale Vereniging voor Cyberbeveiliging, vertelde dat AI-tools de snelheid van fraude met ongeveer twintig keer verhogen in vergelijking met het gebruik van echte mensen. Oplichters geven de AI een fraudescenario ter analyse, waarna het systeem direct automatisch met de slachtoffers chat. Op basis van deze initiële gegevens kan de AI begrijpen wat het slachtoffer wil en in realtime met hem of haar communiceren. De meest geavanceerde tactiek is de 'man-in-the-middle'-aanval, waarbij een hacker ingrijpt wanneer een gebruiker video-authenticatie uitvoert (zoals het opnemen van zijn of haar gezicht of het geven van commando's) en de verzonden gegevens manipuleert. Cybercriminelen voegen vervolgens vooraf gemaakte deepfake-video's in, die de echte gegevensstroom van de gebruiker vervangen om het authenticatieproces te omzeilen. Met deze methode lopen ook de beveiligingssystemen van banken en financiële instellingen het risico te worden misleid.

Beter gegevensbeheer

Naarmate AI steeds vaker wordt gebruikt, nemen ook de veiligheids- en privacyrisico's aanzienlijk toe. Gegevens die op externe servers worden opgeslagen en verwerkt, worden een aantrekkelijk doelwit voor hackers en cybercriminelen. Volgens gegevens van de National Cyber ​​Security Association is het aantal cyberaanvallen met behulp van AI alleen al in het tweede kwartaal van 2025 met 62% gestegen, met wereldwijde verliezen tot wel 18 miljard dollar.

Experts zijn van mening dat gegevensbescherming cruciaal is. Desondanks gaat het verzamelen en verkopen van gegevens openlijk door op veel platforms op de zwarte markt, voor bedragen soms slechts $20 per maand. Cybercriminelen kunnen tools gebruiken die taalmodellen nabootsen, maar aangepast zijn voor criminele doeleinden. Deze tools kunnen malware genereren en zelfs antivirussoftware omzeilen.

In Vietnam regelt decreet nr. 13/2023/ND-CP (van kracht sinds 17 april 2023) de bescherming van persoonsgegevens. Daarnaast zal de wet op de bescherming van persoonsgegevens, die naar verwachting op 1 januari 2026 in werking treedt, een sterker juridisch mechanisme bieden om het risico van datalekken en misbruik van persoonsgegevens aan te pakken. Volgens de Nationale Vereniging voor Cyberbeveiliging moet de handhaving echter nog worden versterkt op drie pijlers: het vergroten van het publieke bewustzijn, het stimuleren van de maatschappelijke verantwoordelijkheid van bedrijven en het verbeteren van de verwerkingscapaciteit van de regelgevende instanties. Naast technische maatregelen moet ieder individu het vermogen ontwikkelen om ongebruikelijke en verdachte signalen te herkennen en zichzelf proactief te beschermen tegen gevaarlijke digitale interacties.

Kaspersky heeft gewaarschuwd voor de exploitatie van Dark AI (een term die verwijst naar de inzet van grote taalmodellen (LLM's) die buiten de standaard beveiligingsmaatregelen opereren en vaak acties mogelijk maken zoals phishing, manipulatie, cyberaanvallen of misbruik van gegevens). Organisaties en individuen moeten zich voorbereiden op steeds geavanceerdere en moeilijk te detecteren cyberaanvallen als gevolg van de opkomst van Dark AI in de Aziatisch-Pacifische regio.

Sergey Lozhkin, hoofd van het Global Research and Analysis Team (GReAT) voor het Midden-Oosten, Turkije, Afrika en Azië-Pacific bij Kaspersky, gaf aan dat een van de uitingen van huidig ​​AI-misbruik de opkomst van Black Hat GPT-modellen is. Dit zijn AI-modellen die specifiek zijn ontwikkeld of aangepast voor onethische en illegale doeleinden, zoals het creëren van malware, het opstellen van vloeiende en overtuigende phishing-e-mails voor grootschalige aanvallen, het maken van deepfake-stemmen en -video's, en zelfs het ondersteunen van gesimuleerde aanvallen.

Experts van Kaspersky adviseren particulieren en bedrijven om geavanceerde beveiligingsoplossingen te gebruiken om door AI gegenereerde malware te detecteren, terwijl tegelijkertijd prioriteit wordt gegeven aan gegevensbescherming. Bedrijven zouden realtime monitoringtools moeten implementeren om misbruik van door AI aangedreven kwetsbaarheden te volgen; de toegangscontrole en de training van medewerkers moeten versterken om AI in de dark zone en het risico op datalekken te beperken; en een cybersecurity-operatiecentrum moeten opzetten om bedreigingen te monitoren en snel op incidenten te reageren.

Bron: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Reactie (0)

Laat een reactie achter om je gevoelens te delen!

In hetzelfde onderwerp

In dezelfde categorie

Van dezelfde auteur

Erfenis

Figuur

Bedrijven

Actualiteiten

Politiek systeem

Lokaal

Product

Happy Vietnam
Song Hau 1 thermische energiecentrale - Can Tho

Song Hau 1 thermische energiecentrale - Can Tho

Prachtig Nha Trang

Prachtig Nha Trang

Mensen gingen de straat op om de overwinning van het Vietnamese nationale team te vieren.

Mensen gingen de straat op om de overwinning van het Vietnamese nationale team te vieren.