Це лиходії, які використовують технологію штучного інтелекту (ШІ) для редагування облич і тіл звичайних людей, перетворюючи їх на людей з інвалідністю, а потім створюють сумні історії, щоб продавати товари або закликати до підтримки. Єдина мета — скористатися співчуттям громади до незаконного прибутку.

Витончені трюки
Типовим випадком, що викликав обурення громадськості, став канал TikTok під назвою NL, який опублікував серію відео про жінку з ампутованими обома руками, яка намагається продавати товари онлайн, щоб утримувати своїх маленьких дітей. У відео жінка з'являється у простій кімнаті, одягнена в простий одяг, використовуючи свою ампутовану руку для презентації товарів, викликаючи емоції та співчуття у глядачів. Багато людей не вагаючись натискали, щоб підписатися, поширювати відео та навіть замовляти товари, щоб допомогти матері подолати труднощі. Однак, коли відео стали вірусними, онлайн-спільнота зрозуміла, що насправді це зображення звичайної продавчині, яку відредагували за допомогою технології штучного інтелекту, щоб вона виглядала як справжня людина з інвалідністю.
Хитрощі зі зверненням до почуттів жалості стали пасткою, яка змушує багатьох людей охоче переказувати гроші або робити замовлення, оскільки вони вважають, що допомагають слабкій та знедоленій людині. Пан Данг Мінь Куанг з вулиці Нгок Лам, район Бо Де ( Ханой ), поділився: «Моя мати повірила в кліп, де жінка з ампутованою рукою продає товари, тому вона пошкодувала і замовила деякі товари, які продає ця людина. Коли вона дізналася правду, що людина з інвалідністю — це лише образ, створений штучним інтелектом, вона дуже засмутилась і образилася».
Історія матері Куанга не є унікальною. Сотні інших людей були обдурені подібним чином. Коли добротою користуються, люди поступово втрачають віру та вагаються до щирих прохань про допомогу. І болісним наслідком є те, що вразливі люди справді сильно страждають. У своєму особистому Facebook Нгуєн Сін поділився випадком пані Тран Тхі Нга (36 років, провінція Фу Тхо ) – власниці каналу «Нга Тік Кук», яка є інвалідом (наприкінці 2024 року через гострий міокардит їй довелося ампутувати обидві руки та ноги, щоб врятувати своє життя), відомої багатьом людям тим, що регулярно надихає своєю оптимістичною волею до життя. Однак, після того, як з’явилося багато випадків видачі себе за людей з інвалідністю за допомогою штучного інтелекту, пані Нга запідозрили у використанні штучного інтелекту для імітації людей з інвалідністю.
Під час нещодавніх прямих трансляцій пані Нга неодноразово засмучувалася, коли деякі користувачі соціальних мереж неодноразово просили її «підняти руку» або «повзти», щоб довести, що вона справді має інвалідність. Ці нерозумні та жорстокі прохання глибоко ранили її. Історія «Активної Нги» – це болісне свідчення того, наскільки шкідливим може бути зловживання технологіями.
Навички розпізнавання фальшивого контенту, згенерованого штучним інтелектом
За даними Міністерства громадської безпеки, у 2024 році у В'єтнамі було зареєстровано понад 6000 випадків онлайн-шахрайства, що призвело до збитків у розмірі близько 12 000 мільярдів донгів. Лише за 8 місяців 2025 року також було виявлено майже 1500 випадків онлайн-шахрайства. Це число чітко відображає небезпечний рівень високотехнологічної злочинності в контексті того, що в нашій країні понад 78 мільйонів користувачів Інтернету та 72 мільйони користувачів соціальних мереж. Кіберпростір стає благодатним ґрунтом для дедалі витонченіших шахрайських трюків, серед яких найбільшою загрозою сьогодні є використання штучного інтелекту для створення фальшивого контенту.
Зіткнувшись із цією тривожною реальністю, влада та експерти з кібербезпеки рекомендують людям озброїтися знаннями та навичками для виявлення фальшивого контенту. Заступник секретаря Молодіжного союзу поліції округу Лонг Б'єн (Ханой) Нгуєн Нят Ха зазначив, що люди повинні регулярно стежити за офіційними джерелами інформації, проактивно оновлювати свої знання про технології та нові форми шахрайства. Зокрема, вони повинні завжди бути пильними та пам'ятати про основні принципи, які полягають у ретельній перевірці джерел інформації, ненаданні особистої інформації неперевіреним джерелам, неотриманні доступу до дивних посилань та не переказуванні грошей на неперевірені рахунки.
За словами експертів з кібербезпеки, щоб ідентифікувати відео, створені штучним інтелектом, користувачам слід уважно спостерігати за деталями зображення, рухами обличчя, кінцівок або звуками. Такі ознаки, як порожні очі, неприродні рухи, затримка мовлення або невідповідні рухи губ, часто є ознаками технології Deepfake.
Крім того, перевірка інформації, опублікованої каналом, читання коментарів та перегляд історії активності також є простими способами оцінки достовірності. Поряд з цим, користувачам необхідно виробити звичку перевіряти, перш ніж вірити. Незалежно від того, наскільки емоційним є відео, його не слід поширювати чи підтримувати поспіхом.
Експерти також закликали платформи соціальних мереж посилити цензуру, виявляти контент, який використовує штучний інтелект для імітації людей з інвалідністю, та суворо ставитися до облікових записів, що порушують правила. Органам влади також необхідно незабаром видати чіткі правила щодо використання зображень та контенту, створених штучним інтелектом, гарантуючи, що технології не стануть інструментом для неетичної поведінки з боку зловмисників.
Джерело: https://hanoimoi.vn/dung-ai-gia-nguoi-khuet-tat-de-truc-loi-canh-giac-chieu-lua-moi-722565.html






Коментар (0)