З початковою вартістю лише близько 1,3 мільйона донгів, такі фальшиві інструменти, як трансплантація обличчя та імітація голосу, викликають попередження щодо ризику шахрайства, підроблених особистих зображень та наслідків для кібербезпеки.
(Ілюстрація)
Дешеві ціни в даркнеті, прихована велика небезпека
Глобальна дослідницька та аналітична команда Kaspersky (GReAT) щойно опублікувала результати, які свідчать про те, що на ринках даркнету з'явилося багато рекламних оголошень, що пропонують послуги зі створення дипфейкових відео та аудіо в режимі реального часу. Початкові ціни зафіксовані на рівні близько 50 доларів США (близько 1,3 мільйона донгів) та 30 доларів США (близько 800 000 донгів) за підроблені голосові повідомлення, залежно від складності та тривалості контенту.
Раніше «легітимні» послуги з діпфейків коштували від 300 до 20 000 доларів за хвилину.
Різке падіння ціни – у 400 разів нижче попереднього популярного рівня – ще більше підвищує ризик експлуатації для недобросовісних дій.
Рекламні функції та «приманка» для поганих хлопців
Тепер реклама виходить за рамки простих фальшивих відео та включає заміну облич у реальному часі під час відеодзвінків, підробку камер пристроїв або «заміну» облич для обходу автентифікації. Вони також рекламують можливість синхронізації виразів обличчя з озвучуванням і навіть підтримку кількох мов.
Крім того, продаються також послуги «клонування голосу», що дозволяють імітувати голос з можливістю налаштування висоти та тону для вираження різних емоцій. Однак багато експертів підозрюють, що насправді це реклама для «заманювання клієнтів» – покупців можуть обманом змусити переказати гроші наперед, але вони не отримають обіцяного якісного продукту.
«Потреба у використанні цього інструменту також зростає»
«Ми не лише бачили рекламу, яка пропонує діпфейк як послугу, але й помітили зростання попиту на ці інструменти», – сказав Дмитро Галов , керівник команди GReAT Касперського (Росія та СНД) .
Кіберзлочинці експериментують зі штучним інтелектом та інтегрують його у свої стратегії атак, сказав він, а деякі платформи навіть розробляють власні «шкідливі» LLM, окремі від публічних моделей та здатні працювати безпосередньо на пристроях зловмисників.
Хоча діпфейки ще не можна вважати абсолютно новою кіберзагрозою, ця технологія може зробити атаки більш витонченими та складнішими для виявлення.
Рекомендації та як розпізнати діпфейк
«Касперський» рекомендує підприємствам та організаціям впроваджувати комплексні заходи кібербезпеки, не лише встановлюючи програмне забезпечення для захисту, але й формуючи команду ІТ-експертів з навичками виявлення та реагування.
Крім того, персонал організації має бути навчений розпізнавати незвичайні ознаки у відео чи аудіо, які можуть бути продуктом технології діпфейків. Ці відео часто мають уривчасті та неприродні рухи, нерівномірне освітлення або тони шкіри між кадрами, персонажі з'являються з незвичною частотою моргання очима або майже не моргають, а обличчя можуть бути спотвореними або трохи деформованими.
Крім того, якість зображення часто низька, а кадри нестабільні, особливо за слабкого освітлення, що робить відео менш реалістичним. Пильність щодо загроз діпфейків та підвищення обізнаності розглядаються як важливий перший крок до мінімізації збитків від складних шахрайств в епоху штучного інтелекту.
Джерело: https://doanhnghiepvn.vn/chuyen-doi-so/rui-ro-tu-deepfake-gia-re-tu-quang-cao-darknet-den-loi-keu-goi-canh-giac/20251016105304840
Коментар (0)