Deepfake är en term som skapats genom att kombinera "Deep Learning" och "Fake". Enkelt uttryckt är detta tekniken för att simulera och skapa falska ljud-, bild- eller till och med videoprodukter .
Sedan den explosionsartade utvecklingen av artificiell intelligens (AI) har problemet med deepfakes blivit alltmer populärt, vilket skapar vågor av falsk information som sprids i pressen. Därför är det en angelägen fråga för världens ledande kameraföretag att proaktivt autentisera ursprunget för bilder och videor.
Sony, Canon och Nikon förväntas lansera digitalkameror som stöder digitala signaturer direkt på deras spegellösa kameror (eller DSLR-digitalkameror). Arbetet med att implementera digitala signaturer på kameror är en oerhört viktig åtgärd som skapar bevis på bildernas ursprung och integritet.
Dessa digitala signaturer kommer att innehålla information om datum, tid, plats och fotograf, och de kommer att vara manipuleringssäkra. Detta är särskilt viktigt för fotojournalister och andra yrkesverksamma vars arbete kräver autentisering.
Tre jättar inom kameraindustrin har kommit överens om en global standard för digitala signaturer som är kompatibla med onlineverifieringsverktyget Verify. Verktyget, som lanserades av en koalition av globala nyhetsorganisationer, teknikföretag och kameratillverkare, kommer att möjliggöra kostnadsfri verifiering av äktheten hos alla bilder. Om bilder skapas eller modifieras med hjälp av AI kommer Verify att flagga dem som "Ingen innehållsverifiering".
Betydelsen av anti-deepfakes-tekniker härrör från den snabba ökningen av deepfakes av kända personer som den tidigare amerikanske presidenten Donald Trump och den japanske premiärministern Fumio Kishida.
Dessutom har forskare från Tsinghuauniversitetet i Kina utvecklat en ny generativ AI-modell som kan generera cirka 700 000 bilder per dag.
Förutom kameratillverkare ansluter sig även andra teknikföretag till kampen mot deepfakes. Google har släppt ett verktyg för att digitalt vattenmärka AI-genererade bilder, medan Intel har utvecklat teknik som analyserar hudtonsförändringar i foton för att fastställa deras äkthet. Hitachi arbetar också med teknik för att förhindra identitetsbedrägerier online.
Den nya tekniken förväntas vara tillgänglig i början av 2024. Sony planerar att marknadsföra tekniken till media och har redan genomfört fälttester i oktober 2023. Canon samarbetar med Thomson Reuters och Starling Data Preservation Lab (ett forskningsinstitut grundat av Stanford University och University of Southern California) för att ytterligare förfina tekniken.
Kameratillverkare hoppas att den nya tekniken ska bidra till att återställa allmänhetens förtroende för bilder, vilket i sin tur formar vår uppfattning av världen.
(enligt OL)
Betalade 5 000 dollar för att Facebook skulle sprida djupförfalskade investeringsbedrägerivideo
Ny skadlig kod tar kontroll över smartphones, djupförfalskade videor blir mer sofistikerade
Deepfake-videor blir mer sofistikerade och realistiska
Vad ska man göra för att undvika att falla i fällan med Deepfake-videosamtal som bedräger pengaöverföringar?
Deepfake utnyttjas för att lägga offers ansikten i porrvideor
[annons_2]
Källa






Kommentar (0)