GReAT (Глобальна команда досліджень та аналізу) заявила, що ці послуги з розповсюдження дипфейків (технологія імітації зображень людських облич) мають початкові ціни лише близько 50 доларів США (еквівалентно 1,3 мільйона донгів) за підроблені відео та 30 доларів США (близько 800 000 донгів) за підроблені голосові повідомлення, що значно нижче за ціни від 300 до 20 000 доларів США за хвилину, які Касперський фіксував раніше. Ця велика різниця показує, що технологія дипфейків стала доступнішою, ніж будь-коли, відкриваючи шлях для багатьох ризиків використання з метою шахрайства, підробки особистих даних або кібератак.

У рекламі даркнету детально описуються різноманітні тривожні функції, зокрема зміна облич у реальному часі під час відеодзвінків, використання фальшивих облич для обходу автентифікації та підробка камер на онлайн-платформах.
Деякі сайти також продають інструменти для клонування голосу, які можуть регулювати висоту голосу, тон, емоції та навіть синхронізувати рухи губ із діалогами багатьма різними мовами. Однак експерти попереджають, що багато з цих оголошень є просто шахрайством, спрямованим на крадіжку грошей людей.
Кіберзлочинці активно експериментують зі штучним інтелектом та інтегрують його у свої операції, заявив Дмитро Галов, керівник команди GReAT Kaspersky у Росії та СНД. Деякі платформи навіть розробляють власні шкідливі моделі великих мов програмування (LLM), які можуть працювати безпосередньо на пристрої, що дозволяє злочинцям розширювати свої можливості атак, не покладаючись на загальнодоступні моделі.
Хоча ці технології не створили абсолютно нової кіберзагрози, вони зробили хакерів більш небезпечними та непередбачуваними. У цьому контексті Kaspersky рекомендує експертам з кібербезпеки використовувати переваги самого штучного інтелекту для підвищення продуктивності та покращення захисту від нової хвилі атак, спричинених діпфейками та шкідливими технологіями штучного інтелекту.
Щоб захиститися від загроз дипфейків, Касперський рекомендує:
- Підприємства повністю впроваджують заходи кібербезпеки: не лише встановлюють захисні рішення, але й потребують команди висококваліфікованих ІТ-фахівців.
- Забезпечте розуміння співробітниками принципів діпфейків та небезпек цієї технології, а також регулярно організовуйте навчальні курси, щоб допомогти співробітникам навчитися їх розпізнавати.
- Надайте персоналу навичкам розпізнавання типових ознак діпфейку: уривчастий, неплавний рух, нерівномірне освітлення між кадрами, неприродні тони шкіри, незвичне або рідкісне моргання, спотворені зображення, відео, навмисно зняті в низькій якості або з поганим освітленням.
Джерело: https://nld.com.vn/dich-vu-deepfake-duoc-rao-ban-re-hon-400-lan-lam-gi-de-tu-bao-ve-196251009170834853.htm
Коментар (0)