Исследование Google DeepMind показывает, что создание изображений, видео и аудио, имитирующих людей, встречается почти в два раза чаще, чем распространение дезинформации с использованием таких инструментов, как чат-боты на основе искусственного интеллекта.
Анализ показал, что наиболее распространенной целью злоумышленников, использующих искусственный интеллект, было формирование или влияние на общественное мнение (на это приходится 27% случаев использования), что вызывает обеспокоенность относительно того, как дипфейки могут повлиять на выборы по всему миру в этом году.
Поддельное изображение премьер-министра Великобритании Риши Сунака появилось в TikTok и Instagram в преддверии всеобщих выборов. Фото: AFP
В последние месяцы в TikTok, X и Instagram появились Deepfakes премьер-министра Великобритании Риши Сунака и других мировых лидеров. На следующей неделе британские избиратели пойдут на выборы на всеобщих выборах.
Существуют опасения, что, несмотря на усилия социальных сетей по маркировке или удалению такого контента, аудитория может не распознать его как фейковый и что его распространение может повлиять на избирателей.
Арди Джанджева, научный сотрудник Института Алана Тьюринга, назвала выводы статьи «особенно актуальными», поскольку общедоступная информация, генерируемая ИИ, может «искажать наше общее понимание социально-политической реальности».
«Даже если мы не уверены в влиянии дипфейков на поведение избирателей, это искажение может быть трудно обнаружить в краткосрочной перспективе и представляет долгосрочные риски для демократии», — добавила Джанджева.
«Существует много опасений относительно довольно сложных кибератак, которые создаются с использованием этих инструментов», — говорит исследователь Нахема Маршал, ведущий автор исследования в Google DeepMind.
Исследователи из Google DeepMind и Jigsaw проанализировали около 200 случаев неправомерного использования ИИ в период с января 2023 года по март 2024 года, взятых из социальных сетей X и Reddit, а также из онлайн-блогов и сообщений СМИ о неправомерном использовании.
Вторая наиболее распространенная мотивация злоупотреблений — монетизация, включая создание обнаженных фотографий реальных людей или использование ИИ для создания разнообразного контента, например, фейковых новостных статей. Большинство сценариев включают доступные инструменты, которые «требуют минимальных технических знаний», что означает, что многие злоумышленники могут творчески злоупотреблять ИИ.
Нгок Ань (по данным FT)
Источник: https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-sach-su-dung-ai-doc-hai-post300851.html
Комментарий (0)