Nedan följer åsikter från två experter från RMIT University om de skadliga effekterna av deepfakes och förslag på lösningar på detta problem:
| Dr. Jonathan Crellin (vänster) och Dr. Nguyen Van Thang Long (höger). (Källa: RMIT University) |
Cyberbrottslingar utnyttjar ny teknik på oförutsedda sätt.
Dr. Jonathan Crellin, chef för avdelningen för informationssäkerhet, fakulteten för naturvetenskap , teknik och teknik, RMIT University :
Deepfakes är maskingenererade bilder som kan kombinera bilder eller videor från olika källor för att skapa mycket realistiska bilder, videor eller till och med ljud.
Deepfakes är baserade på en teknik inom AI som kallas maskininlärning, som kan ersätta och integrera element som en persons ansikte i andra bilder eller videor.
Ett exempel på användning av deepfakes är kombinationen av pornografiskt innehåll med foton av Taylor Swift för att skapa falska bilder.
För att uppnå detta behövde hjärnan bakom det flera bilder så att programvaran kunde lära sig om sångarens ansiktsuttryck och sedan kombinera dem med pornografiskt innehåll för att skapa obscena bilder och därmed fläcka ner sångarens image.
Det går faktiskt rykten om att dessa bilder släpptes av en grupp på Telegram och skapades med hjälp av Microsoft Designer, ett verktyg med integrerat AI-stöd.
Vem som helst kan bli offer, eftersom gärningsmannen bara behöver bilder, videor eller ljudinspelningar av den person som utges för.
Bedrägerier i olika former kommer sannolikt att användas för att skapa felinformation, och man kan lugnt säga att det kommande amerikanska presidentvalet kommer att vara fullt av sådana falska nyheter.
För närvarande försöker lagstiftare runt om i världen stifta lagar mot den här typen av bilder.
Flera tillvägagångssätt börjar antas i USA inom lagstiftning, såsom att förlita sig på civilrättsliga stämningar eller lagar för att ta itu med "spridning av AI-genererade pornografiska bilder av en person utan den personens samtycke".
Kina har också infört nya regler som möjliggör åtal av individer som sprider bilder skapade med AI.
Storbritannien anser att det är olagligt att dela deepfake-innehåll enligt sin lagstiftning om onlinesäkerhet.
Hur kan vi upptäcka eller förebygga detta?
Det första tillvägagångssättet är att minska antalet bilder, videor eller ljudinspelningar du delar online. Se till att du bara delar dem med personer du känner och inte publicerar dem i stor skala online. När innehåll väl har laddats upp på internet är det nästan omöjligt att radera det.
Ett andra alternativ är att komma överens om en hemlig kod med familjemedlemmar för att autentisera samtal, vilket minskar risken att bli offer för samtalsförfalskning.
Bilder, särskilt videor, kan ha konstiga brister (de ser iscensatta ut), och om du upptäcker dessa brister är det mycket troligt att bilden eller ljudet har förfalskats.
En annan teknik som kan användas är att söka efter "omvända bilder" på Google eller andra sökmotorer för att identifiera källan till originalbilden.
Den sista lärdomen är: lita inte blint på vad du ser; kameror (eller AI) kan ljuga!
Deepfakes utgör ett betydande hot mot kändisar och politiker.
Dr. Nguyen Van Thang Long, universitetslektor, institutionen för kommunikation och design, RMIT-universitetet :
Med spridningen av falska nyheter från deepfakes behöver medieteamen bestående av kändisar och politiker ha resurser för att övervaka och reagera snabbt på falska nyheter eller kontinuerligt korrigera felinformation.
Om deepfakes systematiskt kombineras med organiserade former av "smutsig PR" blir denna uppgift ännu svårare på grund av spridningen av motstridig information, och falska nyheter och negativa nyheter kommer alltid att delas mer än positiva nyheter.
Vanligtvis, när individer ser nyheter delade på sociala medier, tenderar de att verifiera informationen via officiella nyhetskanaler.
Med djupförfalskt innehåll som översvämmar sociala medier blir det allt svårare och tidskrävande att verifiera riktigheten i etablerade nyheter, vilket kräver djupgående forskning och verifieringstekniker.
Ju längre förseningen med att verifiera nyheter och källor är, desto mer utbredd blir felinformation, påhitt eller vilseledande information på grund av den svindlande hastigheten i delning och kommentarer på sociala medier.
Detta förvärrar grundproblemet och kan potentiellt leda till social oro, särskilt om innehållet relaterar till politiska uttalanden, religion, kön, affärsstrategi eller makroekonomiska frågor.
I samband med utbredd deepfakes-aktivitet är den mest effektiva riskhanteringsstrategin fortfarande att upprätthålla konsekventa kommunikationskanaler, via populära sociala medieplattformar, webbplatser eller personliga möten, mellan företag, kändisar, politiker och viktiga intressenter som fans, press, samhället och anställda.
Den ökande användningen av AI medför både fördelar och oväntade nya problem. (Illustrativ bild. Källa: Freepik) |
Genom att upprätthålla dessa kommunikationskanaler tas information relaterad till deepfakes emot snabbare, vilket möjliggör snabb och effektiv korrigering av rykten och avslöjar felinformation från början.
Företag, kändisar och politiker behöver dock utveckla krishanteringsplaner specifikt för deepfakes. De behöver till exempel fastställa vem som ska tillkännage händelsen, genom vilka mediekanaler, kriterierna för att verifiera informationen med hjälp av bevis och trovärdiga källor, fastställa en tidslinje för att hantera ryktet och beskriva en strategi för att återställa trovärdigheten.
Med en välplanerad och förberedd strategi blir det mer genomförbart att hantera en deepfake-kris, vilket minimerar potentiella negativa konsekvenser.
[annons_2]
Källa






Kommentar (0)