Исследование Google DeepMind показывает, что создание поддельных изображений, видео и аудиозаписей людей происходит почти вдвое чаще, чем распространение дезинформации с помощью таких инструментов, как чат-боты на основе искусственного интеллекта.
Анализ показывает, что наиболее распространенной целью злоумышленников, использующих искусственный интеллект в своих целях, является формирование или влияние на общественное мнение. На это приходится 27% случаев использования, что вызывает опасения по поводу того, как дипфейки могут повлиять на выборы во всем мире в этом году.
В преддверии всеобщих выборов в TikTok и Instagram появилось поддельное изображение премьер-министра Великобритании Риши Сунака. Фото: AFP
В последние месяцы в TikTok, X и Instagram появились дипфейки с изображением премьер-министра Великобритании Риши Сунака, а также других мировых лидеров. На следующей неделе британские избиратели пойдут на избирательные участки на всеобщих выборах.
Существуют опасения, что, несмотря на усилия платформ социальных сетей по маркировке или удалению подобного контента, аудитория может не распознать его как фейковый, и его распространение может повлиять на избирателей.
Арди Джанева, научный сотрудник Института Алана Тьюринга, назвала выводы статьи «особенно актуальными», предположив, что общедоступная информация, генерируемая искусственным интеллектом, может «искажать наше общепринятое понимание социально -политической реальности».
«Даже если мы не уверены в влиянии дипфейков на поведение избирателей, это искажение может быть трудно обнаружить в краткосрочной перспективе и представляет долгосрочную угрозу для демократии», — добавила Джаньева.
«Существует множество опасений по поводу довольно изощренных кибератак, которые могут совершать эти инструменты», — сказала исследовательница Нахема Маршаль, ведущий автор исследования из Google DeepMind.
Исследователи из Google DeepMind и Jigsaw проанализировали около 200 случаев злоупотребления ИИ в период с января 2023 года по март 2024 года, полученные с платформ социальных сетей X и Reddit, а также из онлайн-блогов и сообщений СМИ о злоупотреблениях.
Вторая по распространенности мотивация злоупотреблений — зарабатывание денег, включая создание обнаженных изображений реальных людей или использование ИИ для генерации различных типов контента, таких как фейковые новости. В большинстве случаев используются легкодоступные инструменты, «требующие минимальных технических знаний», а это значит, что многие злоумышленники могут творчески использовать ИИ в своих целях.
Нгок Ань (по данным Financial Times)
Источник: https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-list-su-dung-ai-doc-hai-post300851.html






Комментарий (0)