owa9jl4othzdfxl13gzphyn13jiax1j7.jpg
Ny teknik förväntas vara nyckeln till att effektivt lösa deepfake-problemet.

Deepfake är en term som skapats genom att kombinera "Deep Learning" och "Fake". Enkelt uttryckt är detta tekniken för att simulera och skapa falska ljud-, bild- eller till och med videoprodukter .

Sedan den explosionsartade utvecklingen av artificiell intelligens (AI) har problemet med deepfakes blivit alltmer populärt, vilket skapar vågor av falsk information som sprids i pressen. Därför är det en angelägen fråga för världens ledande kameraföretag att proaktivt autentisera ursprunget för bilder och videor.

Sony, Canon och Nikon förväntas lansera digitalkameror som stöder digitala signaturer direkt på deras spegellösa kameror (eller DSLR-digitalkameror). Arbetet med att implementera digitala signaturer på kameror är en oerhört viktig åtgärd som skapar bevis på bildernas ursprung och integritet.

Dessa digitala signaturer kommer att innehålla information om datum, tid, plats och fotograf, och de kommer att vara manipuleringssäkra. Detta är särskilt viktigt för fotojournalister och andra yrkesverksamma vars arbete kräver autentisering.

Tre jättar inom kameraindustrin har kommit överens om en global standard för digitala signaturer som är kompatibla med onlineverifieringsverktyget Verify. Verktyget, som lanserades av en koalition av globala nyhetsorganisationer, teknikföretag och kameratillverkare, kommer att möjliggöra kostnadsfri verifiering av äktheten hos alla bilder. Om bilder skapas eller modifieras med hjälp av AI kommer Verify att flagga dem som "Ingen innehållsverifiering".

Betydelsen av anti-deepfakes-tekniker härrör från den snabba ökningen av deepfakes av kända personer som den tidigare amerikanske presidenten Donald Trump och den japanske premiärministern Fumio Kishida.

Dessutom har forskare från Tsinghuauniversitetet i Kina utvecklat en ny generativ AI-modell som kan generera cirka 700 000 bilder per dag.

djupförfalskning 01.jpg
Ny teknik kommer att bidra till att återställa förtroendet och forma vår uppfattning om världen.

Förutom kameratillverkare ansluter sig även andra teknikföretag till kampen mot deepfakes. Google har släppt ett verktyg för att digitalt vattenmärka AI-genererade bilder, medan Intel har utvecklat teknik som analyserar hudtonsförändringar i foton för att fastställa deras äkthet. Hitachi arbetar också med teknik för att förhindra identitetsbedrägerier online.

Den nya tekniken förväntas vara tillgänglig i början av 2024. Sony planerar att marknadsföra tekniken till media och har redan genomfört fälttester i oktober 2023. Canon samarbetar med Thomson Reuters och Starling Data Preservation Lab (ett forskningsinstitut grundat av Stanford University och University of Southern California) för att ytterligare förfina tekniken.

Kameratillverkare hoppas att den nya tekniken ska bidra till att återställa allmänhetens förtroende för bilder, vilket i sin tur formar vår uppfattning av världen.

(enligt OL)

Betalade 5 000 dollar för att Facebook skulle sprida djupförfalskade investeringsbedrägerivideo

Betalade 5 000 dollar för att Facebook skulle sprida djupförfalskade investeringsbedrägerivideo

En bedragare betalade Facebook mer än 5 000 dollar för att skicka en djupförfalskningsvideo till 100 000 personer i Australien. Videon förfalskade en intervju och uppmanade folk att investera för stora vinster.
Ny skadlig kod tar kontroll över smartphones, djupförfalskade videor blir mer sofistikerade

Ny skadlig kod tar kontroll över smartphones, djupförfalskade videor blir mer sofistikerade

Ny skadlig kod kan kringgå säkerhetsbarriärer och ta kontroll över smartphones; Deepfake-videor blir alltmer sofistikerade och realistiska;... är de mest framstående tekniknyheterna den senaste veckan.
Deepfake-videor blir mer sofistikerade och realistiska

Deepfake-videor blir mer sofistikerade och realistiska

I samband med alltmer utvecklande teknik finns det verktyg som gör det möjligt att skapa deepfake-videor som är 70–80 % verkliga och lätt förväxlas med blotta ögat.
Vad man inte ska göra

Vad ska man göra för att undvika att falla i fällan med Deepfake-videosamtal som bedräger pengaöverföringar?

Om du får ett samtal som ber om en brådskande pengaöverföring, behåll lugnet och verifiera informationen först, eftersom du troligtvis blir lurad av ett Deepfake-videosamtal.
Deepfake utnyttjas för att lägga offers ansikten i porrvideor

Deepfake utnyttjas för att lägga offers ansikten i porrvideor

Artificiell intelligens (AI) och djupförfalskning utnyttjas gradvis av cyberbrottslingar för onda syften och blir verktyg för att lura och till och med förödmjuka andra.