Deepfake is een term die is ontstaan door de combinatie van 'Deep Learning' en 'Fake'. Simpel gezegd is dit de technologie om neppe audio-, beeld- of zelfs videoproducten te simuleren en te creëren.
Sinds de explosieve ontwikkeling van kunstmatige intelligentie (AI) is het probleem van deepfake steeds populairder geworden, wat heeft geleid tot golven van valse informatie die zich in de pers verspreiden. Het proactief verifiëren van de herkomst van afbeeldingen en video's is daarom een urgent probleem voor 's werelds toonaangevende camerafabrikanten.
Sony, Canon en Nikon zullen naar verwachting digitale camera's lanceren die digitale handtekeningen rechtstreeks op hun spiegelloze camera's (of digitale spiegelreflexcamera's) ondersteunen. De implementatie van digitale handtekeningen op camera's is een uiterst belangrijke maatregel, die bewijs levert van de herkomst en integriteit van beelden.
Deze digitale handtekeningen bevatten informatie over de datum, tijd, locatie en fotograaf en zijn fraudebestendig. Dit is vooral belangrijk voor fotojournalisten en andere professionals die authenticatie nodig hebben voor hun werk.
Drie giganten in de camera-industrie hebben overeenstemming bereikt over een wereldwijde standaard voor digitale handtekeningen die compatibel zijn met de online verificatietool Verify. Deze tool, gelanceerd door een coalitie van wereldwijde nieuwsorganisaties, technologiebedrijven en camerafabrikanten, maakt gratis verificatie van de authenticiteit van elke afbeelding mogelijk. Als afbeeldingen met behulp van AI zijn gemaakt of bewerkt, markeert Verify ze als 'Geen inhoudsverificatie'.
Het belang van anti-deepfaketechnologieën komt voort uit de snelle opkomst van deepfakes van bekende figuren, zoals voormalig Amerikaans president Donald Trump en de Japanse premier Fumio Kishida.
Daarnaast hebben onderzoekers van de Tsinghua Universiteit in China een nieuw generatief AI-model ontwikkeld dat ongeveer 700.000 afbeeldingen per dag kan genereren.
Naast cameramakers mengen ook andere techbedrijven zich in de strijd tegen deepfakes. Google heeft een tool uitgebracht om door AI gegenereerde afbeeldingen digitaal van een watermerk te voorzien, terwijl Intel technologie heeft ontwikkeld die veranderingen in huidskleur in foto's analyseert om de authenticiteit ervan te bepalen. Hitachi werkt ook aan technologie om online identiteitsfraude te voorkomen.
De nieuwe technologie zal naar verwachting begin 2024 beschikbaar zijn. Sony is van plan de technologie in de media te promoten en heeft in oktober 2023 al veldproeven uitgevoerd. Canon werkt samen met Thomson Reuters en het Starling Data Preservation Lab (een onderzoeksinstituut opgericht door Stanford University en de University of Southern California) om de technologie verder te verfijnen.
Cameramakers hopen dat de nieuwe technologie het vertrouwen van het publiek in beelden zal herstellen, omdat beelden op hun beurt onze kijk op de wereld vormgeven.
(volgens OL)
Betaalde $ 5.000 aan Facebook om deepfake-video over beleggingsfraude te verspreiden
Nieuwe malware neemt de controle over smartphones over, deepfake-video's worden steeds geavanceerder
Deepfake-video's worden steeds geavanceerder en realistischer
Wat kunt u doen om te voorkomen dat u in de val trapt van Deepfake-videogesprekken die geld overmaken?
Deepfake wordt uitgebuit om de gezichten van slachtoffers in pornofilmpjes te stoppen
Bron






Reactie (0)