Дослідження Google DeepMind показує, що створення підроблених зображень, відео та аудіо з людьми майже вдвічі частіше, ніж створення дезінформації за допомогою таких інструментів, як чат-боти зі штучним інтелектом.
Аналіз показує, що найпоширенішою метою суб'єктів, які зловживають синтетичним ШІ, є формування або вплив на громадську думку. На це припадає 27% використання, що викликає занепокоєння щодо того, як діпфейки можуть вплинути на вибори в усьому світі цього року.
Підроблений витвір мистецтва із зображенням прем'єр-міністра Великої Британії Ріші Сунака з'явився в TikTok та Instagram напередодні загальних виборів. Фото: AFP
Протягом останніх місяців у TikTok, X та Instagram з'являлися діпфейки прем'єр-міністра Великої Британії Ріші Сунака, а також інших світових лідерів. Британські виборці наступного тижня підуть на виборчі дільниці на загальних виборах.
Існують побоювання, що, попри зусилля платформ соціальних мереж щодо маркування або видалення такого контенту, аудиторія може не розпізнати його як фейк, а його поширення може вплинути на виборців.
Арді Янжева, науковий співробітник Інституту Алана Тюрінга, назвала висновки статті «особливо актуальними», припустивши, що публічна інформація, згенерована штучним інтелектом, може «спотворити наше спільне розуміння соціально -політичної реальності».
«Навіть якщо ми не впевнені щодо впливу діпфейків на поведінку виборців, це спотворення може бути важко виявити в короткостроковій перспективі, і воно становить довгостроковий ризик для демократії», – додала Янжева.
«Існує багато побоювань щодо досить складних кібератак, які можуть створювати ці інструменти», – сказала дослідниця Нахема Маршал, провідний автор дослідження в Google DeepMind.
Дослідники з Google DeepMind та Jigsaw проаналізували приблизно 200 випадків неправильного використання штучного інтелекту з січня 2023 року по березень 2024 року, отриманих із соціальних мереж X та Reddit, а також з онлайн-блогів та повідомлень у ЗМІ про неправильне використання.
Другою найпоширенішою мотивацією для зловживань є заробляння грошей, зокрема створення зображень оголених реальних людей або використання штучного інтелекту для створення різних типів контенту, таких як фейкові новини. У більшості випадків використовуються легкодоступні інструменти, які «вимагають мінімальних технічних знань», а це означає, що багато зловмисників можуть творчо використовувати штучний інтелект.
Нгок Ань (за даними FT)
Джерело: https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-list-su-dung-ai-doc-hai-post300851.html






Коментар (0)