SGGP 20. 10. 2023 19:13
Deepfakey se již nepoužívají k zábavním účelům, ale stále častěji je zneužívají kyberzločinci jako nástroj k podvodům… a deepfake podvody budou narůstat a budou rozmanitější a sofistikovanější.
| Společnost Kaspersky předpovídá, že počet deepfake podvodů se bude zvyšovat a že se stanou rozmanitějšími a sofistikovanějšími. |
Po prozkoumání fór na darknetu, kde kyberzločinci často působí, Kaspersky dospěl k závěru, že mnoho zločinců používá deepfakes k podvodům, a to do té míry, že poptávka daleko převyšuje nabídku deepfake softwaru, který je v současné době na trhu k dispozici.
Odborníci ze společnosti Kaspersky předpovídají, že počet podvodů s deepfake se bude zvyšovat a tyto podvody se stanou rozmanitějšími a sofistikovanějšími. Patří mezi ně poskytování vysoce kvalitních, profesionálně produkovaných videí s vydáváním se za nějakou osobu, používání obrázků celebrit ve falešných živých streamech na sociálních sítích a slibování zdvojnásobení množství, které oběti zaslaly.
Přestože je umělá inteligence zneužívána zločinci ke zlým účelům, jednotlivci i firmy ji stále mohou využít k identifikaci deepfakeů a minimalizaci šancí na úspěšné podvody. Kaspersky sdílí řešení pro uživatele, jak se chránit před deepfake podvody:
Nástroje pro detekci obsahu s využitím umělé inteligence: Tyto softwarové programy pro detekci obsahu generované umělou inteligencí používají pokročilé algoritmy umělé inteligence k analýze a určení rozsahu úprav obrazových, video a audio souborů.
Obsah s umělou inteligencí je opatřen vodoznakem: Vodoznaky slouží jako identifikační znaky v obrázcích, videích atd. a pomáhají autorům chránit autorská práva k jejich dílům s umělou inteligencí. Tento nástroj se však může stát zbraní proti deepfakes, protože může pomoci vysledovat původ platformy, která umělou inteligenci vytvořila.
Sledovatelnost obsahu: Protože umělá inteligence shromažďuje obrovské množství dat z různých zdrojů za účelem vytváření nového obsahu, cílem této metody je sledovat původ tohoto obsahu.
Ověření videa: Jedná se o proces ověření, zda obsah videa nebyl oproti původnímu stavu změněn. Tento proces je pro tvůrce videí nejdůležitější.
„Deepfake se stal noční můrou pro ženy a společnost. Kyberzločinci.“ „V současné době využívají umělou inteligenci (AI) k vkládání tváří obětí do pornografických obrázků a videí, a také v propagandistických kampaních. Tyto metody se zaměřují na manipulaci s veřejným míněním šířením dezinformací nebo dokonce poškozováním pověsti organizací či jednotlivců. Vyzýváme veřejnost, aby byla vůči této hrozbě ostražitá,“ uvedla paní Vo Duong Tu Diem, regionální ředitelka společnosti Kaspersky Vietnam.
Zdroj






Komentář (0)