| Президент Росії Володимир Путін. (Джерело: Reuters) |
5 червня Кремль опублікував термінову заяву, в якій стверджується, що відеокліп президента Росії Володимира Путіна, який транслювався на багатьох радіо- та телевізійних станціях у районах, що межують з Україною, є діпфейком, створеним хакерами.
Фальшиве відео, реальний вплив
У промові голос президента Росії Володимира Путіна, створений за допомогою технології діпфейків, повідомив, що в Бєлгородській, Воронезькій та Ростовській областях Росії оголошено надзвичайний стан через майбутні атаки українських військ. Фальшивий Путін також закликав мешканців регіонів евакуюватися з дому та шукати притулку в глибині Росії.
| Діпфейк – це технологія, яка використовує штучний інтелект (ШІ) для зйомки зображення та голосу людини та вставки їх у відео іншої людини. Технологія Діпфейк збирає зображення обличчя об'єкта зйомки, а потім замінює це обличчя обличчям іншої людини у відео. Для аудіофайлів діпфейк використовує запис голосу реальної людини, щоб навчити комп'ютер говорити точно як ця людина. |
«Радіо Мир» , одна зі станцій, що постраждали від нападу, повідомила, що інцидент тривав близько 40 хвилин. Тим часом у соціальних мережах також почали поширюватися телевізійні кадри фальшивого відео з Путіним. Жодна особа чи організація поки що не взяла на себе відповідальність за інцидент.
Після того, як відео стало вірусним, речник Кремля Дмитро Пєсков заявив, що оголошення воєнного стану було роботою хакерів.
«(Оголошення воєнного стану) точно немає. У деяких районах справді був хакерський інцидент. Мені сказали, що стався хакерський інцидент на радіо «Мир» та на деяких інших каналах. Зараз усіх хакерів ліквідовано, а інформаційні канали знову під контролем», – заявив Дмитро Пєсков російському інформаційному агентству ТАСС.
Видання Kyiv Post також повідомило, що адміністративний центр Бєлгородської області назвав відеозвернення діпфейком, спрямованим на «поширення страху серед мирних мешканців Бєлгорода».
Ганна Любакова, білоруська журналістка та позаштатний науковий співробітник Атлантичної ради, поділилася телевізійним роликом, на якому показано фальшиве зображення пана Путіна.
Оцінюючи інцидент, спеціаліст з обробки даних Арсеній Хахалін, експерт зі штучного інтелекту (ШІ), заявив, що цей злом може бути типовим прикладом використання діпфейків для перетворення їх на зброю в російсько-українському конфлікті.
Однак, це не перший випадок використання технології діпфейків у цьому конфлікті. У перші тижні російської спецвійськової операції в лютому 2022 року було опубліковано діпфейкове відео президента України Володимира Зеленського. У цьому діпфейковому відео пан Зеленський, здавалося, закликав своїх солдатів скласти зброю та здатися. Відео було швидко видалено, але воно вже широко поширилося в соціальних мережах.
| У пропаганді технологія діпфейків має переконливий військовий чи політичний ефект, це зброя, яка може мати величезний вплив. (Джерело: socialmediasafety) |
Нова популярна зброя
Полковник Філіп Інграм, колишній офіцер британської військової розвідки та політик Організації Північноатлантичного договору (НАТО), розповів журналу Politico Europe про імітацію Путіна, що дипфейкові пости, нібито створені на основі реальних даних, становлять зростаючий ризик у світі, на який впливає штучний інтелект.
За словами цієї людини, у пропаганді технологія діпфейків приносить переконливі військові чи політичні ефекти, це зброя, яка може мати величезний вплив.
«Я підозрюю, що це нова зброя масового знищення», – додав полковник Філіп Інграм. Він згадав випадок, коли кілька тижнів тому в Твіттері стало вірусним фальшиве фото бомбардування Пентагону, що призвело до падіння фондового ринку на 500 мільярдів доларів, перш ніж він відновився.
Професор Хані Фарід з Каліфорнійського університету в Берклі (США), експерт з цифрових медіа, застеріг, що людей не варто дивувати таким речам у нинішньому контексті, коли люди створюють та впроваджують інструменти для маніпулювання реальністю в поєднанні з такими медіаканалами, як телебачення, радіо, інтернет..., що може негайно вплинути на мільярди доларів. Багато агентів з різними цілями зловживатимуть цими технологіями.
«Це особливо актуально, коли наші регулятори не прагнули забезпечити належний захист для технологічного сектору, тоді як Кремнієва долина продовжує швидко зростати та руйнувати світ», – наголосив професор Хані Фарід.
Джерело






Коментар (0)