SGGPO 20. října 2023 19:13
Deepfake, který se již nepoužívá k zábavním účelům, je postupně zneužíván kyberzločinci k tomu, aby se stal nástrojem podvodů... a deepfake podvody se budou rozrůstat v rozmanitějších a sofistikovanějších formách.
Společnost Kaspersky se domnívá, že deepfake podvody budou narůstat a budou mít rozmanitější a sofistikovanější formy. |
Po prozkoumání fór na darknetu, kde kyberzločinci často působí, společnost Kaspersky zjistila, že mnoho zločinců používá deepfake k podvodům, a to do té míry, že poptávka po deepfake softwaru, který je v současné době na trhu, daleko převyšuje nabídku.
Odborníci ze společnosti Kaspersky předpovídají, že deepfake podvody budou stále rozmanitější a sofistikovanější, od nabízení vysoce kvalitního videa s vydáváním se za oběť s kompletními produkčními službami až po používání obrázků celebrit ve falešných živých streamech na sociálních sítích a slibování dvojnásobné částky, kterou oběť zaslala.
Přestože je umělá inteligence zneužívána zločinci ke zlým účelům, jednotlivci i firmy ji stále mohou využít k identifikaci deepfakeů a snížit tak pravděpodobnost úspěchu podvodů. Kaspersky sdílí řešení, která uživatelům umožňují chránit se před deepfake podvody:
Nástroje pro detekci obsahu s využitím umělé inteligence: Software pro detekci obsahu s využitím umělé inteligence využívá pokročilé algoritmy umělé inteligence k analýze a určení úrovně manipulace s obrazovými, video a audio soubory.
Obsah s umělou inteligencí s vodoznakem: Vodoznaky fungují jako identifikační znaky v obrázcích, videích atd., které pomáhají autorům chránit autorská práva k dílům s umělou inteligencí. Tento nástroj se však může stát zbraní proti deepfakes, protože tato forma může pomoci vysledovat původ platformy, která umělou inteligenci vytvořila.
Původ obsahu: Vzhledem k tomu, že umělá inteligence shromažďuje velké množství dat z různých zdrojů za účelem vytváření nového obsahu, cílem tohoto přístupu je vysledovat původ tohoto obsahu.
Ověřování videa: je proces ověření, zda obsah videa nebyl od jeho vytvoření změněn. Toto je proces, o který se tvůrci videí nejvíce zajímají.
„Deepfake se stal noční můrou pro ženy a společnost. Kyberkriminalita.“ „v současné době využívají umělou inteligenci (AI) k vkládání tváří obětí do pornografických fotografií a videí a také v propagandistických kampaních. Tyto formy si kladou za cíl manipulovat s veřejným míněním šířením falešných informací nebo dokonce poškozováním pověsti organizací či jednotlivců. Vyzýváme veřejnost, aby byla vůči této hrozbě ostražitější,“ uvedla paní Vo Duong Tu Diem, ředitelka společnosti Kaspersky Vietnam.
Zdroj
Komentář (0)