Google heeft onlangs plannen aangekondigd om pornografische content te verwijderen die misbruik maakt van deepfake-technologie. Deze stap komt omdat de technologie wordt gebruikt voor kwaadwillige doeleinden of om desinformatie te verspreiden. Bij deepfake wordt het gezicht of lichaam van een persoon digitaal bewerkt en in een afbeelding of video geplaatst.

Hoewel gebruikers al kunnen verzoeken om afbeeldingen uit Google Search te verwijderen, worden er nu nieuwe systemen ontwikkeld om dit proces te vereenvoudigen. Concreet filtert het systeem van Google relevante resultaten op vergelijkbare zoekpagina's wanneer een gebruiker verzoekt om ongeautoriseerde, nepcontent met zijn of haar afbeelding te verwijderen. Kopieën van de afbeelding kunnen gelijktijdig worden verwerkt, wat helpt om deepfakes te voorkomen.
De oplossing van Google is getest en effectief gebleken bij het aanpakken van andere soorten controversiële afbeeldingen.
Daarom maakt het bedrijf het moeilijker voor websites met deepfake-afbeeldingen om in zoekresultaten te verschijnen vanwege deze nepcontent. Google zal naar verluidt updates doorvoeren om de ranking van websites met nepcontent te verlagen.
Deze nieuwe functie markeert een nieuwe stap in het vinden van nog meer oplossingen voor het deepfake-probleem.
Bron: https://kinhtedothi.vn/google-tran-ap-deepfake.html






Reactie (0)