Vietnam.vn - Nền tảng quảng bá Việt Nam

Діпфейк процвітає – ніхто не застрахований від трюків, що видають себе за когось за ШІ

Імітація голосу, імітація обличчя, синхронізація губ... Штучний інтелект тепер використовується не лише для роботи та розваг, а й стає небезпечним інструментом комерційного шахрайства. Зображення знаменитостей, лікарів і навіть ченців імітуються ШІ для продажу товарів у соціальних мережах. Реальні люди не знають, і покупці втрачають довіру.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng10/07/2025

Бути «позиченим обличчям» для продажу товарів

«Незалежно від того, яким було ваше коліно спочатку, просто застосуйте наш метод. Ми гарантуємо, що протягом 7 днів його стан значно покращиться. Якщо він буде повністю неефективним, я готова компенсувати 1 мільярд донгів як щирі вибачення. Якщо ви дійсно не побачите жодного ефекту, ми зобов’язуємося повернути 100% коштів, і я сама готова компенсувати 1 мільярд донгів. Не кожен наважиться на таке», – так поділилася відома співачка, яка рекламує крем для масажу суглобів, але варто зазначити, що ця реклама була повністю створена штучним інтелектом.

Вищезазначений рекламний кліп був використаний обліковим записом TikTok під назвою LShop, де зображення, голос та мова тіла співачки були використані реалістичним чином, який неможливо виявити без ретельного спостереження. Цей обліковий запис має майже 9000 підписників, 67 000 лайків, а кожен кліп – тисячі переглядів. Тільки сам «рекламний» ролик , запозичений із зображенням співачки вище, зібрав понад 1000 лайків та майже 100 коментарів щодо покупки.

З тим самим масажним кремом канали збуту також «випустили» ще одну дипфейкову версію, цього разу лікаря. У кліпі персонаж твердо пообіцяв: «Я найпрестижніший лікар-ортопед у Ханої , і я гарантую, що навіть найсерйозніший розрив меніска можна повністю вилікувати всього за 3 дні. Цей гель сертифікований найпрестижнішою ортопедичною асоціацією В'єтнаму». Цю фразу було відтворено штучним інтелектом для низки інших «лікарів», що дозволяє глядачам легко сплутати її зі справжнім.

Кліп зібрав майже 4000 лайків і понад 120 коментарів, але коли ми спробували зробити замовлення, обліковий запис не відповів і не взаємодіяв з глядачами в розділі коментарів, просто залишивши товар у кошику для безпосередньої покупки. Примітно, що товар, що продається, був з Китаю, а інформація про нього була дуже розпливчастою.

K4a.jpg
Від співаків і знаменитостей до лікарів – усіх їх видають за себе канали збуту, які створюють кліпи зі штучним інтелектом для продажу товарів, пов’язаних зі здоров’ям.

Не зупиняючись на цьому, трюк з діпфейком поширився і на духовні питання. Акаунт TikTok під назвою Phat Phap NM не лише репостив лекції Майстра TPH, але й використав технологію штучного інтелекту для створення зображень «майстра», який продає такі товари, як листя Бодхі та браслети з агарового дерева.

Коли глядачі залишали коментарі з проханням купити, канал відповідав: «Якщо все йде не так, як очікувалося, перейдіть до розділу відображення в моєму обліковому записі та виберіть те, що вам потрібно, не скупіться на дрібні гроші та ігноруйте більші». Відразу після цього цьому ченцю довелося висловитися, щоб пояснити, що він ніколи не рекламував і не мав нічого спільного з такими продуктами.

Межа між креативністю та порушенням прав

Експерт з кібербезпеки Нго Мінь Х'єу (Hieu PC) з Національного центру моніторингу кібербезпеки (NCSC) заявив, що фейкові рекламні ролики, що поширюються в соціальних мережах, переважно створюються за допомогою програмного забезпечення Deepfake. Це програмне забезпечення не є рідкістю, багато сервісів навіть пропонують пакети з низькою вартістю та дуже простими операціями. Хоча є позитивні застосування у сфері створення цифрового контенту та медіапродукції, за словами пана Х'єу, проблема полягає в тому, що деякі суб'єкти скористалися цією технологією для негативних цілей, таких як шахрайство, підробка особистих даних, поширення фейкових новин або дискредитація інших за допомогою відео, які виглядають справжніми.

Пан Х'ю також навів деякі ознаки, які допоможуть розпізнати діпфейкові кліпи, такі як дещо скутий вираз обличчя на відео, форми та рухи рота, що не відповідають діалогу... Пан Х'ю попередив, що були й серйозніші ситуації, коли штучний інтелект використовувався для вставки облич жертв у делікатні відео з метою залякування, примусу та наживи.

За словами адвоката Тран Дик Фуонга з Асоціації адвокатів міста Хошимін, використання штучного інтелекту для створення зображень знаменитостей (або конкретних осіб) без їхньої згоди є порушенням особистих прав, зокрема права на зображення, як це передбачено статтею 32 Цивільного кодексу 2015 року. Закон передбачає: «Фізичні особи мають право на власне зображення. Використання зображення фізичної особи має бути узгоджено з цією особою. Використання зображення в комерційних цілях має бути компенсовано особі, чиє зображення використовується, якщо сторони не домовилися про інше».

Таким чином, якщо власник облікового запису в соціальній мережі використовує зображення, відтворені за допомогою штучного інтелекту з реальних фотографій, старих відео тощо, для реклами або продажів без дозволу, він порушив закон. Якщо використання зображення порушує положення цієї статті, особа, яка має зображення, має право звернутися до суду з вимогою винести рішення, яке зобов'язує порушника, відповідні органи, організації та осіб вилучити, знищити та припинити використання зображення, відшкодувати збитки та застосувати інші заходи відповідно до положень закону.

Джерело: https://www.sggp.org.vn/deepfake-tran-lan-khong-ai-an-toan-truoc-chieu-tro-gia-danh-bang-ai-post803313.html


Коментар (0)

No data
No data

У тій самій темі

У тій самій категорії

Хошимін залучає інвестиції від підприємств з прямими іноземними інвестиціями у нові можливості
Історичні повені в Хойані, знімок з військового літака Міністерства національної оборони
«Велика повінь» на річці Тху Бон перевищила історичну повінь 1964 року на 0,14 м.
Кам'яне плато Донг Ван - рідкісний у світі «живий геологічний музей»

Того ж автора

Спадщина

Фігура

Бізнес

Помилуйтеся «затокою Халонг на суші», яка щойно увійшла до списку найулюбленіших місць у світі

Поточні події

Політична система

Місцевий

Продукт