Фейкові новини стають дедалі витонченішими завдяки маніпуляціям за допомогою штучного інтелекту
Нещодавно на зустрічі між Асоціацією журналістів В'єтнаму та Асоціацією журналістів Таїланду, що відбулася в Ханої, лідери двох асоціацій більшу частину часу приділили згадуванню проблеми «фейкових новин» та заявили, що це вже не національна проблема, а велика проблема, яка має непередбачувані наслідки в регіоні та світі.
Згідно з дослідженням Google DeepMind, створення зображень, відео та аудіо, що видають себе за людей, майже вдвічі частіше трапляється, ніж створення дезінформації за допомогою таких інструментів, як чат-боти зі штучним інтелектом.
В останні місяці в TikTok, X та Instagram з'являлися діпфейки прем'єр-міністра Великої Британії Ріші Сунака та інших світових лідерів, що викликало побоювання, що, незважаючи на зусилля соціальних мереж щодо позначення або видалення контенту, аудиторія може не розпізнати його як фейковий, а його поширення може вплинути на виборців.
Фейки прем'єр-міністра Великої Британії Ріші Сунака з'явилися в TikTok та Instagram напередодні загальних виборів. (Фото: AFP)
Оцінюючи вплив фейкових новин в епоху технологій, магістр наук Луонг Донг Сон, викладач Інституту журналістики та комунікацій Академії журналістики та пропаганди, зазначив, що продукт поєднання штучного інтелекту та дезінформації, також відомий як сюрреалістичні фейкові новини, може спотворювати сприйняття громадськістю подій та соціальних проблем, тим самим впливаючи на те, як вони оцінюють ситуацію та приймають рішення. Це може спричинити серйозні наслідки, від незначних особистих рішень до важливих рішень, які впливають на громаду та країну.
Гіперфейкові новини можуть бути використані як інструмент для маніпулювання громадською думкою, підбурювання до насильства, сіяння розколу та підриву соціальної стабільності. У політичній арені гіперфейкові новини можуть підривати довіру до демократичних інституцій, впливати на результати виборів і навіть провокувати конфлікти.
Щодо викликів, з якими стикаються журналісти та прес-організації, магістр наук Луонг Донг Сон зазначив, що витонченість сюрреалістичних фейкових новин, особливо діпфейків, дедалі більше ускладнює розрізнення реальних та фейкових новин навіть для досвідчених журналістів.
«В епоху інформаційного вибуху громадськість дедалі більше вимагає від журналістів та новинних організацій швидкого та точного надання інформації. Однак цей тиск може призвести до того, що журналісти поспішно публікуватимуть інформацію без ретельної перевірки, створюючи можливості для поширення сюрреалістичних фейкових новин. Крім того, журналісти та новинні організації стикаються з юридичними та етичними ризиками, якщо вони не будуть обережними у перевірці та публікації інформації», – сказав пан Сон.
Залучіть штучний інтелект для перевірки інформації
За словами магістра Луонг Донг Сона, для боротьби з цим типом фейкових новин вкрай необхідне застосування сучасних технологічних рішень.
«Ці рішення не лише зосереджені на виявленні та усуненні фейкових новин, але й на запобіганні їх поширенню на ранніх стадіях», – сказав магістр наук Донг Сон.
По-перше, однією з найважливіших технологій сьогодення, за словами пана Сона, є використання систем штучного інтелекту для виявлення фейкових новин. Сучасні системи штучного інтелекту здатні аналізувати контекст, порівнювати інформацію з кількох джерел та виявляти аномалії в інформаційному контенті. Типовим прикладом є використання штучного інтелекту для аналізу відео та зображень з метою виявлення ознак редагування або виробництва за допомогою технології діпфейків.
Далі, платформи соціальних мереж та пошукові системи також активно використовують алгоритми машинного навчання для автоматичної класифікації та фільтрації фейкових новин, перш ніж вони стануть вірусними. Ці алгоритми розроблені для розпізнавання аномалій у моделях поширення, швидкості поширення або навіть тоні публікацій, тим самим оцінюючи ймовірність того, що інформація є фейковою.
Крім того, потенційним рішенням також є використання технології блокчейн для управління походженням інформації. Блокчейн має здатність створювати прозору та незмінну систему автентифікації, тим самим допомагаючи відстежувати походження та історію всієї інформації, забезпечуючи точність та надійність.
Штучний інтелект може створювати фальшивий контент або оманливу інформацію та зображення, які важко розрізнити, завдаючи значної шкоди репутації окремих осіб та організацій, і навіть шкодячи національним та етнічним інтересам.
Поділяючи думку магістра наук Луонг Донг Сона, пан Фан Ван Ту, завідувач кафедри журналістики факультету журналістики та комунікацій Університету соціальних та гуманітарних наук у Хошиміні, наголосив, що, окрім надання навичок для використання сильних сторін штучного інтелекту в журналістиці, нам також потрібно використовувати інструменти штучного інтелекту для перевірки інформації.
Перевірка джерел, яка по суті є оцінкою достовірності джерела, є важливою навичкою, що включає перевірку джерела інформації, порівняння його з іншими джерелами та використання інструментів перевірки фактів для перевірки достовірності.
Цікаво, що наразі існує багато інструментів, інтегрованих зі штучним інтелектом, які підтримують журналістів у процесі перевірки, окрім традиційних інструментів, що підтримують перевірки фактів, таких як Google Image, зворотний пошук зображень Tineye, Whopostedwhat.com, Waybackmachine, Webarchive.org, InVID, WeVerify, ExifTool, Metapicz...
Пан Фан Ван Ту зазначив, що навчання професійних навичок журналістів у сучасний період вимагає приділяти увагу забезпеченню можливостей перевірки інформації проти атак фейкових новин, маніпульованих штучним інтелектом. «Використання інструментів штучного інтелекту для обробки помилок, пов’язаних зі штучним інтелектом, – це найшвидший спосіб допомогти журналістам та прес-агентствам не лише добре виконувати свої обов’язки, але й сприяти покращенню якості інформації та захисту громадськості від неправдивої інформації та негативного впливу ЗМІ», – сказав пан Ту.
Однак пан Ту також зазначив, що здатність журналістів оцінювати інформацію не може покладатися виключно на інструменти. Слід одразу сказати, що ШІ може підтримувати аналіз новинного контенту, але не може виявляти всі типи фейкових новин та маніпульованої інформації. Програмне забезпечення ШІ все ще може бути обдурене методами ШІ, які воно використовує для виявлення.
«Жоден інструмент не є чарівною паличкою, але інструменти штучного інтелекту, які виявляють підроблені фотографії/відео, все ще є цінним ресурсом як частина процесу перевірки або методу належної перевірки», – сказав Фан Ван Ту.
Хоа Зіанг
Джерело: https://www.congluan.vn/tin-gia-trong-thoi-ky-tri-tue-nhan-tao-dung-cac-cong-cu-ai-de-tri-cac-san-pham-loi-tu-ai-post308981.html






Коментар (0)