Генеральна прокуратура Нью-Гемпшира оголосила в понеділок, що розслідує можливі маніпуляції виборцями після скарг на фальшивий голос, який звучав точнісінько як голос президента США Джо Байдена, що закликав виборців не голосувати на праймеріз штату.
Дослідники також попереджали про використання дипфейкового аудіо для імітації політиків та лідерів, причому помітні випадки сталися у 2023 році у Великій Британії, Індії, Нігерії, Судані, Ефіопії та Словаччині.
Людина голосує на первинних виборах у Нью-Гемпширі, США. Фото: Getty
За словами експертів, дипфейкове аудіо стало популярною формою дезінформації завдяки появі низки дешевих та ефективних інструментів штучного інтелекту від стартапів. Microsoft також розробила нову модель штучного інтелекту, яка може копіювати голоси лише з трьох секунд запису.
«Коли йдеться про візуальні маніпуляції, кожен знайомий з Photoshop або принаймні знає про його існування», — сказав Генрі Аждер, експерт зі штучного інтелекту та діпфейків і консультант Adobe, Meta та EY. «Дуже мало хто знає про те, як можна маніпулювати аудіо, тому, на мою думку, це робить нас справді вразливими».
У вересні NewsGuard, система, яка оцінює якість та надійність новинних сайтів, виявила мережу акаунтів TikTok, що маскуються під легітимні новинні сайти та використовують контент, створений штучним інтелектом, для поширення теорій змови та політичної дезінформації. Записи Deepfake, включаючи голос колишнього президента США Барака Обами, зібрали сотні мільйонів переглядів.
За даними NewsGuard, фальшиві закадрові голоси, ймовірно, були згенеровані інструментом, наданим ElevenLabs, що підтримується Андреессоном Горовіцем, а самі кліпи зібрали сотні мільйонів переглядів.
«Понад 99% користувачів нашої платформи створюють цікавий, креативний та корисний контент, але ми визнаємо, що трапляються випадки неправильного використання, і ми постійно розробляємо та впроваджуємо засоби захисту, щоб обмежити їх», – заявили в ElevenLabs.
Компанія ElevenLabs, заснована два роки тому колишніми співробітниками Google та Palantir Пйотром Дабковським та Маті Станішевським, пропонує безкоштовні рудиментарні інструменти для генерації аудіо на основі штучного інтелекту, доступні лише за один клік. Вартість підписки варіюється від 1 долара на місяць до 330 доларів на місяць і вище для тих, хто шукає складніші послуги.
Минулого року розвідувальні служби США у звіті попередили, що «персоналізовані шахрайства зі штучним інтелектом значно зросли через випуск складних та добре навчених моделей клонування голосу за допомогою штучного інтелекту».
Окрім фінансово мотивованих шахрайств, політичні експерти зараз б'ють на сполох щодо вірусних аудіокліпів із діпфейками, а також використання діпфейків для автоматичних дзвінків або кампаній. «Ви можете створити потужну, широко розповсюджену дезінформаційну кампанію, орієнтуючись на телефони», – сказав Ей Джей Неш, віцепрезидент і видатний науковий співробітник групи кібербезпеки ZeroFox.
Деякі з цих компаній проактивно шукають інші способи боротьби з дезінформацією. Microsoft опублікувала заяву з етики, закликаючи користувачів повідомляти про будь-які зловживання її аудіоінструментом на основі штучного інтелекту. ElevenLabs створила власні інструменти виявлення для ідентифікації аудіозаписів, створених її системою.
За даними правозахисної групи Freedom House, під час виборів у Нігерії 2023 року в соціальних мережах поширився відеоролик, створений за допомогою штучного інтелекту, який нібито натякав на те, що кандидат від опозиції планував сфальсифікувати голосування.
У Словаччині за кілька днів до президентських виборів у вересні став вірусним фальшивий аудіозапис кандидата від опозиції Міхала Шимечки, який, ймовірно, планував фальсифікацію виборів.
«Діпфейк у Нью-Гемпширі нагадує нам про численні способи, якими діпфейки можуть заплутати та обдурити», — сказав Роберт Вайсман, президент некомерційної групи захисту прав споживачів Public Citizen. «Настав момент політичного діпфейку. Політики повинні швидко діяти, щоб запровадити запобіжні заходи, інакше ми зіткнемося з виборчим хаосом».
Май Ань (за даними FT)
Джерело






Коментар (0)