Vietnam.vn - Nền tảng quảng bá Việt Nam

Політичні діпфейки очолюють список зловмисних користувачів штучного інтелекту.

Công LuậnCông Luận27/06/2024


Дослідження Google DeepMind показує, що створення підроблених зображень, відео та аудіо з людьми майже вдвічі частіше, ніж створення дезінформації за допомогою таких інструментів, як чат-боти зі штучним інтелектом.

Аналіз показує, що найпоширенішою метою суб'єктів, які зловживають синтетичним ШІ, є формування або вплив на громадську думку. На це припадає 27% використання, що викликає занепокоєння щодо того, як діпфейки можуть вплинути на вибори в усьому світі цього року.

Політичні дослідження діпфейків очолюють список шкідливих програм на базі штучного інтелекту (Рисунок 1).

Підроблений витвір мистецтва із зображенням прем'єр-міністра Великої Британії Ріші Сунака з'явився в TikTok та Instagram напередодні загальних виборів. Фото: AFP

Протягом останніх місяців у TikTok, X та Instagram з'являлися діпфейки прем'єр-міністра Великої Британії Ріші Сунака, а також інших світових лідерів. Британські виборці наступного тижня підуть на виборчі дільниці на загальних виборах.

Існують побоювання, що, попри зусилля платформ соціальних мереж щодо маркування або видалення такого контенту, аудиторія може не розпізнати його як фейк, а його поширення може вплинути на виборців.

Арді Янжева, науковий співробітник Інституту Алана Тюрінга, назвала висновки статті «особливо актуальними», припустивши, що публічна інформація, згенерована штучним інтелектом, може «спотворити наше спільне розуміння соціально -політичної реальності».

«Навіть якщо ми не впевнені щодо впливу діпфейків на поведінку виборців, це спотворення може бути важко виявити в короткостроковій перспективі, і воно становить довгостроковий ризик для демократії», – додала Янжева.

«Існує багато побоювань щодо досить складних кібератак, які можуть створювати ці інструменти», – сказала дослідниця Нахема Маршал, провідний автор дослідження в Google DeepMind.

Дослідники з Google DeepMind та Jigsaw проаналізували приблизно 200 випадків неправильного використання штучного інтелекту з січня 2023 року по березень 2024 року, отриманих із соціальних мереж X та Reddit, а також з онлайн-блогів та повідомлень у ЗМІ про неправильне використання.

Другою найпоширенішою мотивацією для зловживань є заробляння грошей, зокрема створення зображень оголених реальних людей або використання штучного інтелекту для створення різних типів контенту, таких як фейкові новини. У більшості випадків використовуються легкодоступні інструменти, які «вимагають мінімальних технічних знань», а це означає, що багато зловмисників можуть творчо використовувати штучний інтелект.

Нгок Ань (за даними FT)



Джерело: https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-list-su-dung-ai-doc-hai-post300851.html

Коментар (0)

Залиште коментар, щоб поділитися своїми почуттями!

У тій самій темі

У тій самій категорії

На вулицях Ханоя панує різдвяна атмосфера.
Насолоджуйтесь захопливими нічними екскурсіями по Хошиміну.
Крупний план майстерні, де виготовляють світлодіодну зірку для собору Нотр-Дам.
Особливо вражає 8-метрова Різдвяна зірка, що освітлює собор Нотр-Дам у Хошиміні.

Того ж автора

Спадщина

Фігура

Бізнес

Момент, коли Нгуєн Тхі Оань прибіг до фінішу, не мав аналогів у 5 іграх SEA.

Поточні події

Політична система

Місцевий

Продукт