Vietnam.vn - Nền tảng quảng bá Việt Nam

Дело о выдаче себя за Путина

Báo Quốc TếBáo Quốc Tế07/06/2023

Недавний инцидент с подделкой изображения и голоса президента России Владимира Путина с использованием технологии дипфейк вызвал тревогу по поводу нового типа «оружия» в конфликте на Украине.
Chuy
Президент России Владимир Путин. (Источник: Reuters)

5 июня Кремль выступил с экстренным заявлением, в котором говорилось, что видеоролик с участием президента России Владимира Путина, показанный на многочисленных радио- и телестанциях в регионах, граничащих с Украиной, является дипфейком, созданным хакерами.

Фейковое видео, реальный эффект.

В речи, созданной с помощью технологии дипфейк, голос президента России Владимира Путина заявил о введении чрезвычайного положения в Белгородской, Воронежской и Ростовской областях России в связи с готовящимися атаками украинских сил. Фальшивый Путин также призвал жителей этих районов эвакуироваться и искать убежище в глубине России.

Дипфейк — это технология, использующая искусственный интеллект (ИИ) для наложения изображений и голосов одного человека на видео другого. Технология дипфейк собирает изображения лица объекта, а затем заменяет это лицо лицом другого человека в видео. Для аудиофайлов дипфейк использует записи голоса реального человека, чтобы обучить компьютер говорить точно так же, как этот человек.

Радио «Мир» , одна из станций, ставших целью хакеров, сообщило, что инцидент длился около 40 минут. Тем временем в социальных сетях начали распространяться фрагменты фейкового видео Путина, показанного по телевидению. Пока ни одно лицо или организация не взяли на себя ответственность за атаку.

После того, как видеоролик стал вирусным, пресс-секретарь Кремля Дмитрий Песков заявил, что объявление военного положения — дело рук хакеров.

В интервью российскому информационному агентству ТАСС Дмитрий Песков заявил: «Введения военного положения, безусловно, не было. Правда, в некоторых районах имели место хакерские атаки. Я понимаю, что произошел хакерский инцидент на «Радио Мир» и на нескольких других каналах. Все хакеры сейчас нейтрализованы, а информационные каналы взяты под контроль».

Издание Kyiv Post также сообщило, что административный центр Белгородской области назвал видеообращение дипфейком, направленным на «сеяние страха среди мирных жителей Белгорода».

Белорусская журналистка Анна Любакова, внештатный научный сотрудник Атлантического совета, поделилась видеороликом, демонстрирующим фейковое изображение Путина.

Комментируя инцидент, специалист по анализу данных Арсений Хахалин, эксперт в области искусственного интеллекта (ИИ), предположил, что эта хакерская атака может быть ярким примером использования дипфейков для превращения конфликтов между Россией и Украиной в оружие.

Однако это не первый случай использования технологии дипфейков в этом конфликте. В первые недели российской военной операции в феврале 2022 года появилось видео, снятое с использованием технологии дипфейк, на котором президент Украины Владимир Зеленский призывал своих солдат сложить оружие и сдаться. Видео было быстро удалено, но до этого оно уже широко распространилось в социальных сетях.

Chuy
В пропаганде технология дипфейков демонстрирует убедительную военную или политическую эффективность, что делает её оружием с потенциально огромным воздействием. (Источник: socialmediasafety)

Новое широко распространенное оружие

Полковник Филип Ингрэм, бывший офицер британской военной разведки и стратег НАТО, заявил журналу Politico Europe, говоря об имитации Путина, что преднамеренно созданные с помощью дипфейков посты, основанные на реальных данных, представляют собой растущую опасность в мире, находящемся под влиянием искусственного интеллекта.

По словам этого человека, в пропаганде технология дипфейков обеспечивает убедительные военные или политические результаты, что делает её оружием с потенциально огромным воздействием.

Полковник Филип Ингрэм добавил: «Я подозреваю, что это новое оружие распространения». Он привел пример событий нескольких недель назад, когда фейковая фотография взрыва в Пентагоне, распространившаяся в Твиттере , привела к падению фондового рынка на 500 миллиардов долларов, после чего он восстановился.

Профессор Хани Фарид из Калифорнийского университета в Беркли (США), эксперт по цифровым медиа, предупреждает, что подобные вещи не должны удивлять людей в нынешних условиях, когда люди создают и используют инструменты для манипулирования реальностью в сочетании с такими медиаканалами, как телевидение, радио и интернет, что может немедленно повлиять на миллиарды долларов. Многие субъекты с различными целями будут злоупотреблять этими технологиями.

«Это особенно актуально, когда наши регулирующие органы не нашли способа обеспечить адекватную защиту технологического сектора, в то время как Кремниевая долина продолжает стремительно расти и разрушать все вокруг», — подчеркнул профессор Хани Фарид.



Источник

Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же тема

Та же категория

Тот же автор

Наследство

Фигура

Предприятия

Актуальные события

Политическая система

Местный

Продукт

Happy Vietnam
Счастье Вьетнам

Счастье Вьетнам

Народные силы общественной безопасности сопровождают развитие Даклака.

Народные силы общественной безопасности сопровождают развитие Даклака.

Счастье индокитайского серебристого лангура

Счастье индокитайского серебристого лангура