Vietnam.vn - Nền tảng quảng bá Việt Nam

Дело о выдаче себя за Путина

Báo Quốc TếBáo Quốc Tế07/06/2023

Недавний инцидент с фальсификацией изображения и голоса президента России Владимира Путина с использованием технологии deepfake вызвал тревогу по поводу нового типа «оружия» в конфликте на Украине.
Chuy
Президент России Владимир Путин. (Источник: Reuters)

5 июня Кремль выступил со срочным заявлением, в котором заявил, что видеоролик с президентом России Владимиром Путиным, транслировавшийся на многих радио- и телестанциях в районах, граничащих с Украиной, является фейком, созданным хакерами.

Поддельное видео, реальный эффект

В своей речи голос президента России Владимира Путина, созданный с помощью технологии deepfake, сообщил о введении чрезвычайного положения в Белгородской, Воронежской и Ростовской областях России в связи с предстоящими атаками украинских силовиков. Фейковый Путин также призвал жителей регионов покинуть свои дома и искать убежища в глубине России.

Deepfake — это технология, которая использует искусственный интеллект (ИИ) для вставки изображения и голоса человека в видео другого человека. Технология Deepfake собирает изображение лица объекта и затем заменяет его лицом другого человека в видео. Для аудиофайлов Deepfake использует запись голоса настоящего человека, чтобы обучить компьютер говорить точно так же, как этот человек.

Радио «Мир» , одна из радиостанций, пострадавших от атаки, сообщило, что инцидент длился около 40 минут. Тем временем в социальных сетях начали распространяться фрагменты фейкового видеоролика с Путиным. Ни одно лицо или организация пока не взяли на себя ответственность за инцидент.

После того, как ролик стал вирусным, пресс-секретарь Кремля Дмитрий Песков заявил, что объявление военного положения — дело рук хакеров.

«Никакого (введения военного положения) точно нет. Хакерские атаки действительно были в некоторых районах. Мне сообщили, что был инцидент с хакерскими атаками на «Радио Мир» и на некоторых других каналах. Сейчас все хакеры ликвидированы, и информационные каналы восстановлены», — заявил Дмитрий Песков российскому информационному агентству ТАСС.

Издание Kyiv Post также сообщило, что в административнoм центре Белгородской области видеообращение назвали дипфейком, направленным на «посеяние страха среди мирных жителей Белгорода».

Анна Любакова, белорусская журналистка и внештатный научный сотрудник Атлантического совета, поделилась телевизионным роликом, демонстрирующим фейковое изображение г-на Путина.

Оценивая инцидент, специалист по анализу данных Арсений Хахалин, эксперт в области искусственного интеллекта (ИИ), заявил, что этот взлом может быть типичным примером использования дипфейков в качестве оружия в российско-украинском конфликте.

Однако это не первый случай использования технологии deepfake в этом конфликте. В первые недели российской спецоперации в феврале 2022 года было опубликовано фейковое видео с президентом Украины Владимиром Зеленским. В этом видео Зеленский, по всей видимости, призывал своих солдат сложить оружие и сдаться. Видео было быстро удалено, но уже успело широко распространиться в социальных сетях.

Chuy
В пропаганде технология дипфейков имеет убедительный военный или политический эффект, это оружие, способное оказать огромное влияние. (Источник: socialmediasafety)

Новое популярное оружие

Полковник Филип Ингрэм, бывший офицер британской военной разведки и политик Организации Североатлантического договора (НАТО), рассказал журналу Politico Europe о подделке Путина и отметил, что фейковые посты, якобы созданные на основе реальных лиц, представляют собой растущий риск в мире, находящемся под влиянием искусственного интеллекта.

По словам этого человека, в пропаганде технология дипфейков приносит убедительные военные или политические эффекты, это оружие, которое может иметь огромное влияние.

«Я подозреваю, что это новое оружие массового поражения», — добавил полковник Филип Ингрэм. Он напомнил, что несколько недель назад в Твиттере распространилась фейковая фотография бомбардировки Пентагона, из-за чего фондовый рынок обвалился на 500 миллиардов долларов, прежде чем восстановиться.

Профессор Хани Фарид из Калифорнийского университета в Беркли (США), эксперт по цифровым медиа, предупредил, что подобные вещи не должны удивлять людей в современных условиях, когда люди создают и внедряют инструменты для манипулирования реальностью, в сочетании с такими медиаканалами, как телевидение, радио, интернет... которые могут мгновенно принести миллиарды долларов. Многие агенты, преследующие различные цели, будут злоупотреблять этими технологиями.

«Это особенно актуально, поскольку наши регулирующие органы не стремятся обеспечить адекватную защиту технологического сектора, в то время как Кремниевая долина продолжает быстро расти и вносить перемены», — подчеркнул профессор Хани Фарид.



Источник

Комментарий (0)

No data
No data

Та же тема

Та же категория

Завораживающая красота Сапы в сезон «охоты за облаками»
Каждая река — путешествие
Хошимин привлекает инвестиции от предприятий с прямыми иностранными инвестициями через новые возможности
Историческое наводнение в Хойане, вид с военного самолета Министерства национальной обороны

Тот же автор

Наследство

Фигура

Бизнес

Пагода на одном столбе Хоа Лу

Текущие события

Политическая система

Местный

Продукт