owa9jl4othzdfxl13gzphyn13jiax1j7.jpg
Er wordt verwacht dat nieuwe technologie de sleutel is tot een effectieve oplossing van het deepfake-probleem.

Deepfake is een term die is ontstaan ​​door de combinatie van 'Deep Learning' en 'Fake'. Simpel gezegd is dit de technologie om neppe audio-, beeld- of zelfs videoproducten te simuleren en te creëren.

Sinds de explosieve ontwikkeling van kunstmatige intelligentie (AI) is het probleem van deepfake steeds populairder geworden, wat heeft geleid tot golven van valse informatie die zich in de pers verspreiden. Het proactief verifiëren van de herkomst van afbeeldingen en video's is daarom een ​​urgent probleem voor 's werelds toonaangevende camerafabrikanten.

Sony, Canon en Nikon zullen naar verwachting digitale camera's lanceren die digitale handtekeningen rechtstreeks op hun spiegelloze camera's (of digitale spiegelreflexcamera's) ondersteunen. De implementatie van digitale handtekeningen op camera's is een uiterst belangrijke maatregel, die bewijs levert van de herkomst en integriteit van beelden.

Deze digitale handtekeningen bevatten informatie over de datum, tijd, locatie en fotograaf en zijn fraudebestendig. Dit is vooral belangrijk voor fotojournalisten en andere professionals die authenticatie nodig hebben voor hun werk.

Drie giganten in de camera-industrie hebben overeenstemming bereikt over een wereldwijde standaard voor digitale handtekeningen die compatibel zijn met de online verificatietool Verify. Deze tool, gelanceerd door een coalitie van wereldwijde nieuwsorganisaties, technologiebedrijven en camerafabrikanten, maakt gratis verificatie van de authenticiteit van elke afbeelding mogelijk. Als afbeeldingen met behulp van AI zijn gemaakt of bewerkt, markeert Verify ze als 'Geen inhoudsverificatie'.

Het belang van anti-deepfaketechnologieën komt voort uit de snelle opkomst van deepfakes van bekende figuren, zoals voormalig Amerikaans president Donald Trump en de Japanse premier Fumio Kishida.

Daarnaast hebben onderzoekers van de Tsinghua Universiteit in China een nieuw generatief AI-model ontwikkeld dat ongeveer 700.000 afbeeldingen per dag kan genereren.

deepfake 01.jpg
Nieuwe technologie helpt het vertrouwen te herstellen en onze kijk op de wereld vorm te geven.

Naast cameramakers mengen ook andere techbedrijven zich in de strijd tegen deepfakes. Google heeft een tool uitgebracht om door AI gegenereerde afbeeldingen digitaal van een watermerk te voorzien, terwijl Intel technologie heeft ontwikkeld die veranderingen in huidskleur in foto's analyseert om de authenticiteit ervan te bepalen. Hitachi werkt ook aan technologie om online identiteitsfraude te voorkomen.

De nieuwe technologie zal naar verwachting begin 2024 beschikbaar zijn. Sony is van plan de technologie in de media te promoten en heeft in oktober 2023 al veldproeven uitgevoerd. Canon werkt samen met Thomson Reuters en het Starling Data Preservation Lab (een onderzoeksinstituut opgericht door Stanford University en de University of Southern California) om de technologie verder te verfijnen.

Cameramakers hopen dat de nieuwe technologie het vertrouwen van het publiek in beelden zal herstellen, omdat beelden op hun beurt onze kijk op de wereld vormgeven.

(volgens OL)

Betaalde $ 5.000 aan Facebook om deepfake-video over beleggingsfraude te verspreiden

Betaalde $ 5.000 aan Facebook om deepfake-video over beleggingsfraude te verspreiden

Een oplichter betaalde Facebook meer dan $ 5.000 om een ​​deepfakevideo naar 100.000 mensen in Australië te sturen. De video was een vervalste versie van een interview en riep mensen op om te investeren voor enorme winsten.
Nieuwe malware neemt de controle over smartphones over, deepfake-video's worden steeds geavanceerder

Nieuwe malware neemt de controle over smartphones over, deepfake-video's worden steeds geavanceerder

Nieuwe malware kan beveiligingsbarrières omzeilen en de controle over smartphones overnemen; Deepfake-video's worden steeds geavanceerder en realistischer;... zijn het belangrijkste technologienieuws van de afgelopen week.
Deepfake-video's worden steeds geavanceerder en realistischer

Deepfake-video's worden steeds geavanceerder en realistischer

Nu de technologie zich steeds verder ontwikkelt, zijn er tools beschikbaar waarmee je deepfake-video's kunt maken die voor 70-80% echt zijn en die je met het blote oog gemakkelijk kunt verwarren.
Wat je niet moet doen

Wat kunt u doen om te voorkomen dat u in de val trapt van Deepfake-videogesprekken die geld overmaken?

Als u een telefoontje krijgt met de vraag om met spoed geld over te maken, blijf dan kalm en controleer eerst de gegevens. Waarschijnlijk wordt u namelijk opgelicht via een Deepfake-videogesprek.
Deepfake wordt uitgebuit om de gezichten van slachtoffers in pornofilmpjes te stoppen

Deepfake wordt uitgebuit om de gezichten van slachtoffers in pornofilmpjes te stoppen

Cybercriminelen misbruiken kunstmatige intelligentie (AI) en deepfake steeds vaker voor kwaadaardige doeleinden. Ze gebruiken ze als hulpmiddel om anderen op te lichten en zelfs te vernederen.