
Все більше зображень і відео , відредагованих і доданих штучним інтелектом, публікуються в соціальних мережах, щоб залучити перегляди - Фото: DUC THIEN
Якщо раніше, щоб створити підроблене фото, звичайним користувачам доводилося наймати експертів з Photoshop, то сьогодні завдяки штучному інтелекту, менш ніж за 5 хвилин і з деякими базовими навичками, набір підроблених фотографій може з'явитися будь-де.
Коли ШІ створює зображення, відео, пісні... настільки реальні, що важко повірити
Пані Хоан Мі (Гошимін), співробітник відділу комунікацій, щодня регулярно переглядає Facebook, зазначила, що користувачі публікують дедалі більше контенту з використанням інструментів штучного інтелекту.
«Є багато фотографій, опублікованих друзями чи учасниками груп, які настільки реалістичні, що я б не змогла сказати, чи використовувався штучний інтелект, якби вони про це не сказали. Все більше відео, від анімації, вигадок до короткометражних фільмів або відео, пов’язаних із подією, що відбувається в реальному житті, створюються за допомогою інструментів штучного інтелекту, але я б не змогла цього знати», – поділилася пані Май.
Не лише зображення та відео, навіть у соціальній мережі YouTube є багато пісень, виконаних або написаних «співаками зі штучним інтелектом». Багато користувачів у захваті від нового досвіду та змагаються, щоб поділитися ним у соціальних мережах зі своїми друзями.
«Я не можу сказати, чи це співак зі штучним інтелектом, якщо про це не оголосять. Контент зі штучним інтелектом стає все більш поширеним у кіберпросторі В'єтнаму. Звичайні користувачі, такі як я, ймовірно, незабаром перестануть знати, який контент належать реальним людям, який — від штучного інтелекту, а який — за участю штучного інтелекту», — сказав Хань Ха (Гошміні-Гошміні).
Нещодавно багато соціальних мереж у В'єтнамі опублікували відео та прямі трансляції, що продають товари від людей з інвалідністю, що зробило онлайн-спільноту більш чуйною та схильною до обміну інформацією.
Однак пізніше онлайн-спільнота викрила багато випадків використання штучного інтелекту для перетворення звичайних людей на людей з інвалідністю. Мета цього трюку — скористатися співчуттям глядачів для продажу товарів або здійснення шахрайських дій.
Багато експертів з технологій стверджують, що останнім часом у соціальних мережах спостерігається зростання кількості акаунтів, які публікують рекламні відео із зображеннями людей з інвалідністю, хворих або знедолених людей, щоб закликати до співчуття. Однак реальність показує, що значна частина цього контенту створюється або редагується за допомогою інструментів штучного інтелекту, перетворюючи звичайних людей на людей з інвалідністю з метою отримання прибутку або шахрайства.
Поділившись з Туой Тре, пан Мілко Радотич, віцепрезидент iProov, провідного світового постачальника технологій біометричної автентифікації, відповідальний за Азійсько- Тихоокеанський регіон, попередив: «Наше дослідження показує, що 99,9% учасників не можуть розпізнати діпфейки. Навіть сучасні передові засоби виявлення стикаються з багатьма труднощами».
Підвищити стійкість цифрових користувачів
Пан Данг Хуу Сон – заступник директора Інституту прикладних досліджень та розвитку людських ресурсів AIOV, засновник і генеральний директор компанії LovinBot AI – зазначив, що з моменту запуску Google технології штучного інтелекту Nano Banana, Veo 3, ByteDance Seedream 4, а до цього OpenAI запустила GPT Image, ринок штучного інтелекту був надзвичайно активним і також призвів до багатьох наслідків.
«Технології ще ніколи не були такими доступними, як сьогодні. Це все надзвичайно потужні моделі штучного інтелекту, які можуть «копіювати обличчя» майже на 90%, навіть на 99% порівняно з оригінальною фотографією», – прокоментував пан Сон.
Якщо раніше, щоб створити підроблене фото, звичайним користувачам доводилося наймати експертів з Photoshop, то сьогодні завдяки штучному інтелекту, менш ніж за 5 хвилин, маючи базові навички, набір підроблених фотографій, вирізане та вставлене підроблене відео з доданими новинними ефектами може поширюватися з запаморочливою швидкістю.
«Фейкові новини повторюються багато разів, мають високу щільність та легкий доступ, тому велика кількість людей, які щодня з ними стикаються, повірять, що це правда. Тому потрібні рішення для обмеження вищезазначених проблем», – зазначив пан Сон.
За словами пана Чрінь Нгуєн Тхієн Фуока, технологічного директора компанії Gianty Vietnam, для того, щоб мати змогу розрізняти контент, створений штучним інтелектом, необхідні три рівні: (1) навички верифікації користувачів (разом із золотими правилами); (2) технічні інструменти, такі як дані облікових даних контенту (C2PA), ідентифікаційні знаки водяних знаків (SynthID, AudioSeal) та детектор дипфейків; (3) процес координації між пов’язаними сторонами, такими як: платформи, мережеві оператори, банки...
Зокрема, золоте правило має бути виконане дуже швидко, протягом 30-60 секунд, зокрема: не натискайте на дивні посилання та переходьте до офіційного застосунку/вебсайту для перевірки; негайно зупиняйтеся, якщо зустрічаєте ключові слова, що вимагають дії (OTP/грошовий переказ/терміново).
Водночас, користувачам слід перевірити інформацію з двох незалежних джерел, перш ніж вірити; перевірити дату, час та контекст (старі новини під маскою нових); передзвонити за офіційним номером, який ви знайшли самі, не використовувати номер, наданий іншими; за допомогою зображень та відео користувачі можуть шукати пов’язані результати...
Багато експертів вважають, що найфундаментальнішим рішенням для боротьби з хвилею фейкового контенту, створеного штучним інтелектом, є підвищення обізнаності громадськості. Замість того, щоб зосереджуватися лише на технічних заходах, необхідно створювати навчальні програми, змагання або моделювати реальні життєві ситуації, щоб допомогти людям змінити свої звички споживання інформації.
Для молоді, особливо студентів, поєднання онлайн-конкурсів, медіа-кампаній за участю знаменитостей або відомих людей у коледжі може створити природну привабливість, допомагаючи їм навчатися та отримувати досвід, водночас опановуючи навички розпізнавання фейкових новин та фейкових відео. Тим часом, людям похилого віку, особливо у сільській місцевості, потрібні більш звичні та інтуїтивно зрозумілі форми, такі як ілюстровані листівки, навчальні відео або покази в будинках культури та на громадських заходах.
«Підхід, що підходить для кожної групи людей, допоможе створити міцну, довгострокову основу для підвищення обізнаності, замість того, щоб обмежуватися лише короткостроковими заходами. Наприклад, деякі підрозділи розробили розширення, які можна встановити в браузер Chrome, щоб допомогти користувачам перевіряти новини під час перегляду веб-сторінок або соціальних мереж...», – поділився пан Данг Хю Сон.
Використання штучного інтелекту для виявлення підробленого штучного інтелекту
Нещодавно телефонна компанія Honor інтегрувала функцію штучного інтелекту Deepfake Detection у свою нещодавно випущену лінійку телефонів. Ця функція може аналізувати зображення та голоси за 3 секунди, щоб попереджати про підробки прямо в таких додатках, як Messenger, Zalo, Viber або Google Meet, стаючи «цифровим щитом» для захисту користувачів від високотехнологічного шахрайства.
Раніше, у вересні 2025 року, MoMo оголосила про співпрацю з iProov щодо впровадження технології Dynamic Liveness, яка допоможе перевірити справжність користувачів, їхню особу та присутність під час транзакції, запобігаючи шахрайству з використанням діпфейків, підроблених відео чи зображень.
У секторах з високим рівнем ризику, таких як фінанси, цей рівень безпеки має вирішальне значення для запобігання шахрайству, запобігання несанкціонованому доступу та підтримки довіри користувачів до платформи.
Джерело: https://tuoitre.vn/tu-hinh-anh-video-den-ca-khuc-ai-can-trong-con-loc-noi-dung-ai-tren-mang-xa-hoi-20251109232702736.htm






Коментар (0)