Vietnam.vn - Nền tảng quảng bá Việt Nam

Дело о выдаче себя за Путина

Báo Quốc TếBáo Quốc Tế07/06/2023

Недавний инцидент с фальсификацией изображения и голоса президента России Владимира Путина с использованием технологии deepfake вызвал тревогу по поводу нового типа «оружия» в конфликте на Украине.
Chuy
Президент России Владимир Путин. (Источник: Reuters)

5 июня Кремль выступил со экстренным заявлением, в котором заявил, что видеоролик с президентом России Владимиром Путиным, транслировавшийся на многих радио- и телестанциях в регионах, граничащих с Украиной, является фейком, созданным хакерами.

Поддельное видео, реальный эффект

В своей речи голос президента России Владимира Путина, созданный с помощью технологии deepfake, сообщил о введении чрезвычайного положения в Белгородской, Воронежской и Ростовской областях России в связи с надвигающимися атаками украинских силовиков. Лже-Путин также призвал жителей регионов покинуть свои дома и искать убежища в глубине России.

Deepfake — это технология, которая использует искусственный интеллект (ИИ) для вставки изображения и голоса человека в видео другого человека. Технология Deepfake собирает изображение лица объекта и затем заменяет его лицом другого человека из видео. Для аудиофайлов Deepfake использует запись голоса настоящего человека, чтобы обучить компьютер говорить точно так же, как этот человек.

Радио «Мир» , одна из радиостанций, пострадавших от атаки, сообщило, что инцидент длился около 40 минут. Тем временем в социальных сетях начали распространяться фрагменты фейкового видеоролика с Путиным. Ни одно лицо или организация пока не взяли на себя ответственность за инцидент.

После того, как ролик стал вирусным, пресс-секретарь Кремля Дмитрий Песков заявил, что объявление военного положения — дело рук хакеров.

«Никакого (введения военного положения) точно нет. В некоторых регионах действительно были хакерские атаки. Мне сообщили, что был инцидент с хакерскими атаками на «Радио Мир» и на некоторых других каналах. Сейчас все хакеры ликвидированы, и информационные каналы снова под контролем», — заявил Дмитрий Песков российскому информационному агентству ТАСС.

Издание Kyiv Post также сообщило, что в административнoм центре Белгородской области видеообращение назвали дипфейком, направленным на «посеяние страха у мирных жителей Белгорода».

Анна Любакова, белорусская журналистка и внештатный научный сотрудник Атлантического совета, поделилась телевизионным роликом, демонстрирующим фейковое изображение г-на Путина.

Оценивая инцидент, специалист по анализу данных Арсений Хахалин, эксперт в области искусственного интеллекта (ИИ), заявил, что этот взлом может быть типичным примером использования дипфейков для превращения российско-украинского конфликта в оружие.

Однако это не первый случай использования технологии deepfake в этом конфликте. В первые недели российской спецоперации в феврале 2022 года было опубликовано фейковое видео с президентом Украины Владимиром Зеленским. В этом видео Зеленский, по всей видимости, призывает своих солдат сложить оружие и сдаться. Видео было быстро удалено, но уже стало вирусным в социальных сетях.

Chuy
В пропаганде технология дипфейков имеет убедительный военный или политический эффект, это оружие, которое может иметь огромное влияние. (Источник: socialmediasafety)

Новое популярное оружие

Полковник Филип Ингрэм, бывший офицер британской военной разведки и политик Организации Североатлантического договора (НАТО), рассказал Politico Europe о самозванстве Путина и отметил, что фейковые посты, якобы созданные на основе реальных данных, представляют собой растущий риск в мире, находящемся под влиянием искусственного интеллекта.

По словам этого человека, в пропаганде технология дипфейков приносит убедительные военные или политические эффекты, это оружие, которое может иметь огромное влияние.

«Подозреваю, это новое оружие массового производства», — добавил полковник Филип Ингрэм. Он сослался на фейковую фотографию бомбардировки Пентагона, которая несколько недель назад стала вирусной в Твиттере и привела к падению фондового рынка на 500 миллиардов долларов, после чего он восстановился.

Профессор Хани Фарид из Калифорнийского университета в Беркли (США), эксперт по цифровым медиа, предупредил, что подобные вещи не должны удивлять людей в современных условиях, когда люди создают и внедряют инструменты для манипулирования реальностью, в сочетании с такими медиаканалами, как телевидение, радио, интернет... которые могут мгновенно принести миллиарды долларов. Многие агенты, преследующие различные цели, будут злоупотреблять этими технологиями.

«Это особенно актуально, поскольку наши регулирующие органы не стремятся обеспечить адекватную защиту технологического сектора, в то время как Кремниевая долина продолжает быстро расти и вносить перемены», — подчеркнул профессор Хани Фарид.



Источник

Комментарий (0)

No data
No data
Затерянный в дикой природе сад птиц в Ниньбине
Террасные поля Пу Лыонг в сезон обильных поливов невероятно красивы.
Асфальтовое покрытие «спринт» на шоссе Север-Юг через Джиа Лай
PIECES of HUE - Pieces of Hue
Волшебное зрелище на холме с перевернутыми чашами чая в Пху Тхо
Три острова в Центральном регионе сравнивают с Мальдивами, привлекая туристов летом.
Полюбуйтесь сверкающим прибрежным городом Куинён в Гиалай ночью.
Изображение террасных полей в Пху Тхо, пологих, ярких и прекрасных, как зеркала перед началом посевной.
Фабрика Z121 готова к финалу Международного фестиваля фейерверков
Известный журнал о путешествиях назвал пещеру Шондонг «самой великолепной на планете»

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт