Vietnam.vn - Nền tảng quảng bá Việt Nam

Политические дипфейки возглавляют список злонамеренных пользователей ИИ.

Công LuậnCông Luận27/06/2024


Исследование Google DeepMind показывает, что создание поддельных изображений, видео и аудиозаписей людей происходит почти вдвое чаще, чем распространение дезинформации с помощью таких инструментов, как чат-боты на основе искусственного интеллекта.

Анализ показывает, что наиболее распространенной целью злоумышленников, использующих искусственный интеллект в своих целях, является формирование или влияние на общественное мнение. На это приходится 27% случаев использования, что вызывает опасения по поводу того, как дипфейки могут повлиять на выборы во всем мире в этом году.

Исследования в области создания политических дипфейков возглавляют список вредоносных программ, использующих искусственный интеллект (рис. 1).

В преддверии всеобщих выборов в TikTok и Instagram появилось поддельное изображение премьер-министра Великобритании Риши Сунака. Фото: AFP

В последние месяцы в TikTok, X и Instagram появились дипфейки с изображением премьер-министра Великобритании Риши Сунака, а также других мировых лидеров. На следующей неделе британские избиратели пойдут на избирательные участки на всеобщих выборах.

Существуют опасения, что, несмотря на усилия платформ социальных сетей по маркировке или удалению подобного контента, аудитория может не распознать его как фейковый, и его распространение может повлиять на избирателей.

Арди Джанева, научный сотрудник Института Алана Тьюринга, назвала выводы статьи «особенно актуальными», предположив, что общедоступная информация, генерируемая искусственным интеллектом, может «искажать наше общепринятое понимание социально -политической реальности».

«Даже если мы не уверены в влиянии дипфейков на поведение избирателей, это искажение может быть трудно обнаружить в краткосрочной перспективе и представляет долгосрочную угрозу для демократии», — добавила Джаньева.

«Существует множество опасений по поводу довольно изощренных кибератак, которые могут совершать эти инструменты», — сказала исследовательница Нахема Маршаль, ведущий автор исследования из Google DeepMind.

Исследователи из Google DeepMind и Jigsaw проанализировали около 200 случаев злоупотребления ИИ в период с января 2023 года по март 2024 года, полученные с платформ социальных сетей X и Reddit, а также из онлайн-блогов и сообщений СМИ о злоупотреблениях.

Вторая по распространенности мотивация злоупотреблений — зарабатывание денег, включая создание обнаженных изображений реальных людей или использование ИИ для генерации различных типов контента, таких как фейковые новости. В большинстве случаев используются легкодоступные инструменты, «требующие минимальных технических знаний», а это значит, что многие злоумышленники могут творчески использовать ИИ в своих целях.

Нгок Ань (по данным Financial Times)



Источник: https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-list-su-dung-ai-doc-hai-post300851.html

Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же тема

Та же категория

Насладитесь захватывающими ночными экскурсиями по Хошимину.
Крупный план мастерской по изготовлению светодиодной звезды для собора Нотр-Дам.
Особенно впечатляет восьмиметровая рождественская звезда, освещающая собор Нотр-Дам в Хошимине.
Хуинь Нху вошла в историю Игр Юго-Восточной Азии: рекорд, который будет очень трудно побить.

Тот же автор

Наследство

Фигура

Предприятия

Путешествие для осмотра маяка Лонгчау.

Текущие события

Политическая система

Местный

Продукт