В понедельник Генеральная прокуратура Нью-Гэмпшира объявила о начале расследования возможной манипуляции избирателями. Это произошло после жалоб на фальшивый голос, звучащий идентично голосу президента США Джо Байдена, который призвал избирателей не голосовать на праймериз в штате.
Исследователи также предупредили об использовании поддельных аудиозаписей для имитации политиков и лидеров, причем наиболее заметные случаи имели место в 2023 году в Великобритании, Индии, Нигерии, Судане, Эфиопии и Словакии.
Человек голосует на предварительных выборах в Нью-Гэмпшире, США. Фото: Гетти
Эксперты утверждают, что дипфейк-аудио стало популярной формой дезинформации из-за появления целого ряда дешевых и эффективных инструментов искусственного интеллекта от стартапов. Microsoft также разработала новую модель искусственного интеллекта, которая может воспроизводить голос всего по трем секундам записи.
«Когда дело касается визуальной манипуляции, все знакомы с Photoshop или, по крайней мере, знают, что он существует», — говорит Генри Айдер, эксперт по искусственному интеллекту и дипфейку, а также консультант Adobe, Meta и EY. «Очень мало кто осознает, как можно манипулировать звуком, поэтому, по моему мнению, это действительно делает нас уязвимыми».
В сентябре NewsGuard, система, оценивающая качество и надежность новостных сайтов, обнаружила сеть аккаунтов TikTok, выдававших себя за настоящие новостные сайты и использовавших созданный искусственным интеллектом контент для распространения теорий заговора и политической дезинформации. Поддельные аудиозаписи, в том числе бывшего президента США Барака Обамы, собрали сотни миллионов просмотров.
По данным NewsGuard, поддельные озвучки, по всей видимости, были созданы с помощью инструмента, предоставленного компанией ElevenLabs, поддерживаемой Andreessen Horowitz, а сами клипы собрали сотни миллионов просмотров.
«Более 99% пользователей нашей платформы создают интересный, креативный и полезный контент, но мы признаем, что существуют случаи неправомерного использования, и мы постоянно разрабатываем и внедряем меры защиты, чтобы ограничить их», — заявили в ElevenLabs.
Компания ElevenLabs, основанная два года назад бывшими сотрудниками Google и Palantir Петром Дабковски и Мати Станишевски, предлагает элементарные инструменты для генерации звука на базе искусственного интеллекта бесплатно всего одним щелчком мыши. Тарифные планы варьируются от 1 до 330 долларов в месяц и выше для тех, кто ищет более сложные услуги.
В прошлом году разведывательные службы США в своем отчете предупредили, что «число случаев мошенничества с использованием персонализированного ИИ значительно возросло из-за появления сложных и хорошо обученных моделей клонирования голоса на основе ИИ».
Помимо мошенничества с финансовой целью, политические эксперты теперь бьют тревогу по поводу вирусных аудиоклипов с дипфейками, а также использования дипфейков для автоматических звонков или кампаний. «Вы можете создать мощную, широкомасштабную кампанию по дезинформации, нацелившись на телефоны», — сказал Эй Джей Нэш, вице-президент и выдающийся научный сотрудник группы по кибербезопасности ZeroFox.
Некоторые из этих компаний активно искали другие способы борьбы с дезинформацией. Компания Microsoft опубликовала этическое заявление, призывающее пользователей сообщать о любых случаях неправомерного использования ее аудиодвижка с искусственным интеллектом. Компания ElevenLabs разработала собственные инструменты обнаружения для идентификации записей, создаваемых ее системой.
По данным правозащитной организации Freedom House, во время выборов в Нигерии 2023 года в социальных сетях стал вирусным видеоролик, обработанный с помощью искусственного интеллекта, «якобы предполагающий, что кандидат от оппозиции планирует фальсифицировать результаты голосования».
В Словакии поддельная аудиозапись кандидата от оппозиции Михала Шимечки, предположительно замышляющего фальсификацию выборов, стала вирусной всего за несколько дней до президентских выборов в стране в сентябре.
«Нью-Гэмпширский дипфейк — это напоминание о многочисленных способах, которыми дипфейки могут сбивать с толку и обманывать», — сказал Роберт Вайсман, президент некоммерческой организации по защите прав потребителей Public Citizen. «Настал момент политического дипфейка. Политики должны действовать быстро, чтобы принять меры безопасности, иначе нас ждет избирательный хаос».
Май Ань (по данным FT)
Источник
Комментарий (0)