Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Діпфейки набирають обертів – ніхто не застрахований від трюків, що видають себе за когось за допомогою штучного інтелекту

Імітація голосу, імітація обличчя, синхронізація губ... Штучний інтелект тепер використовується не лише для роботи та розваг, а й стає небезпечним інструментом комерційного шахрайства. Зображення знаменитостей, лікарів і навіть ченців імітуються ШІ для продажу товарів у соціальних мережах. Реальні люди не знають, і покупці втрачають довіру.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng10/07/2025

Бути «позиченим обличчям» для продажу товарів

«Незалежно від початкового стану коліна, просто застосуйте наш метод. Ми гарантуємо, що протягом 7 днів він значно покращиться. Якщо він буде повністю неефективним, я готова компенсувати 1 мільярд донгів як щирі вибачення. Якщо ви дійсно не побачите жодного ефекту, ми зобов’язуємося повернути 100% коштів, і я сама готова компенсувати 1 мільярд донгів. Не кожен наважиться на таке», – так поділилася відома співачка, яка рекламує крем для масажу суглобів, але варто зазначити, що ця реклама була повністю створена штучним інтелектом.

Вищезазначений рекламний кліп був використаний обліковим записом TikTok під назвою LShop, де зображення, голос та мова тіла співака були використані реалістичним чином, який неможливо розпізнати без ретельного спостереження. Цей обліковий запис має майже 9000 підписників, 67 000 лайків, а кожен кліп – тисячі переглядів. Тільки сам «рекламний» ролик із зображенням співака зібрав понад 1000 лайків та майже 100 коментарів щодо покупки.

З тим самим масажним кремом канали збуту також «випустили» ще одну дипфейкову версію, цього разу лікаря. У кліпі персонаж твердо пообіцяв: «Я найпрестижніший лікар-ортопед у Ханої , і я гарантую, що навіть найсерйозніший розрив меніска можна повністю вилікувати всього за 3 дні. Цей гель сертифікований найпрестижнішою ортопедичною асоціацією В'єтнаму». Цей рядок був відтворений штучним інтелектом для низки інших «лікарів», що дозволяє глядачам легко сплутати його зі справжнім.

Кліп зібрав майже 4000 лайків і понад 120 коментарів, але коли ми надіслали текстове повідомлення з проханням купити, обліковий запис не відповів і не взаємодіяв з глядачами в розділі коментарів, просто залишивши товар у кошику для безпосередньої покупки. Примітно, що товар, що продається, з Китаю, а інформація про нього дуже розпливчаста.

K4a.jpg
Від співаків і знаменитостей до лікарів – усіх їх видають за себе канали збуту, які створюють кліпи зі штучним інтелектом для продажу товарів, пов’язаних зі здоров’ям.

Не зупиняючись на цьому, трюк з діпфейком поширився і на духовні питання. Акаунт TikTok під назвою Phat Phap NM не лише репостить лекції Майстра TPH, але й використовує технологію штучного інтелекту для створення зображень «майстра», який продає такі товари, як листя Бодхі та браслети з агарового дерева.

Коли глядачі залишали коментарі з проханням купити, канал відповідав: «Якщо все піде не за планом, перейдіть до розділу відображення на моєму акаунті та оберіть те, що вам потрібно, не скупіться на дрібні гроші та ігноруйте більші». Відразу після цього цьому ченцю довелося висловитися, щоб уточнити, що він ніколи не рекламував і не мав нічого спільного з такими продуктами.

Межа між креативністю та порушенням прав

Експерт з кібербезпеки Нго Мінь Х'єу (Hieu PC) з Національного центру моніторингу кібербезпеки (NCSC) заявив, що фейкові рекламні ролики, що поширюються в соціальних мережах, переважно створюються за допомогою програмного забезпечення Deepfake. Це програмне забезпечення не є рідкістю, і багато сервісів навіть пропонують пакети з низькою вартістю та дуже простими операціями. Хоча є позитивні застосування у сфері створення цифрового контенту та медіапродукції, за словами пана Х'єу, проблема полягає в тому, що деякі суб'єкти скористалися цією технологією для негативних цілей, таких як шахрайство, підробка особистих даних, поширення фейкових новин або дискредитація інших за допомогою відео, які виглядають справжніми.

Пан Х'ю також навів деякі ознаки, які допоможуть розпізнати діпфейкові кліпи, такі як дещо скутий вираз обличчя на відео, форми та рухи рота, що не відповідають діалогу... Пан Х'ю попередив, що були й серйозніші ситуації, коли штучний інтелект використовувався для вставки облич жертв у делікатні відео з метою залякування, примусу та наживи.

За словами адвоката Тран Дик Фуонга з Асоціації адвокатів міста Хошимін, використання штучного інтелекту для створення зображень знаменитостей (або конкретних осіб) без їхньої згоди є порушенням особистих прав, зокрема права на зображення, як це передбачено статтею 32 Цивільного кодексу 2015 року. Закон передбачає: «Фізичні особи мають право на власне зображення. Використання зображення особи повинно бути з її згоди. Використання зображення в комерційних цілях повинно передбачати винагороду особі, чиє зображення використовується, якщо сторони не домовилися про інше».

Таким чином, якщо власник облікового запису в соціальній мережі використовує зображення, відтворені за допомогою штучного інтелекту з реальних фотографій, старих відео тощо, для реклами або продажів без дозволу, він порушив закон. Якщо використання зображення порушує положення цієї статті, особа, яка має зображення, має право звернутися до суду з вимогою винести рішення, яке зобов'язує порушника, відповідні органи, організації та осіб вилучити, знищити та припинити використання зображення, відшкодувати збитки та застосувати інші заходи відповідно до положень закону.

Джерело: https://www.sggp.org.vn/deepfake-tran-lan-khong-ai-an-toan-truoc-chieu-tro-gia-danh-bang-ai-post803313.html


Коментар (0)

No data
No data

У тій самій темі

У тій самій категорії

Секрет найвищих характеристик Су-30МК2 у небі над Бадінем 2 вересня
Туєн Куанг освітлюється гігантськими ліхтарями середини осені під час фестивальної ночі
Старий квартал Ханоя одягає нове «вбрання», блискуче вітаючи Свято середини осені
Відвідувачі тягнуть сітки, топчуться в багнюці, щоб зловити морепродукти, і смажать їх на запашному грилі в солонуватій лагуні Центрального В'єтнаму.

Того ж автора

Спадщина

Фігура

Бізнес

No videos available

Новини

Політична система

Місцевий

Продукт