Злочинці можуть використовувати штучний інтелект для поєднання конфіденційних фотографій та відео , щоб очорнити та шантажувати інших - Фото: Малюнок ШІ
У минулому, коли говорили про техніку вирізання та вставки обличчя однієї людини на тіло іншої, люди часто використовували Photoshop або спеціалізоване програмне забезпечення для редагування фотографій, яке є трудомістким і легко впізнаваним неозброєним оком.
Тепер, завдяки інструментам штучного інтелекту, люди можуть зробити це дуже легко за «кілька нотаток», але це нелегко виявити неозброєним оком.
Секс-відео з обміном обличчями для шантажу
Через робочі зв'язки пан Х. (директор бізнесу в Хошиміні) часто спілкується в соціальних мережах.
Одного разу він потоваришував з молодою дівчиною, яка запитала його про роботу. Після деякого часу розпитувань, спілкування, розповідей про роботу та особисте життя, вони здалися досить близькими одне одному.
Також між ними було багато текстових повідомлень з дуже ніжними словами, а також фотографій, що надсилалися один одному, та відеодзвінків, щоб побачитися.
Одного дня пан Г. раптово отримав дзвінок від чоловіка, який стверджував, що є чоловіком дівчини. Після «превентивних» дій проти пана Г. «чоловік» вимагав переказати йому компенсацію, інакше він надішле фотографії їхніх чатів та секс-відео своїм родичам та діловим партнерам.
Потім пану Г. його «чоловік» показав секс-відео, на якому він та інша дівчина, а також відеодзвінок між ними та запис інтимних текстових повідомлень...
«Я ніколи не зустрічав цю дівчину, тому впевнений, що це секс-відео — відфотошоп», — підтвердив пан Г. Однак зображення обличчя дівчини на секс-відео та дівчини у його відеодзвінку однакові, як і фотографія ніжного текстового повідомлення, що змушує пана Г. багато разів переказувати гроші своєму «чоловікові», щоб зберегти свою репутацію.
Завдяки розслідуванню Туой Тре , пана Х. було обмануто організованим чином за ідеальним сценарієм. У цій афері пана Х. двічі обдурили за допомогою діпфейку. Перший раз це був відеодзвінок, а другий раз – відео сексу.
Примітно, що у відео сексу обличчя містера Х. було настільки майстерно пересаджено, що глядачам було важко повірити, що це відео з пересадкою обличчя. Експерт зі штучного інтелекту підтвердив Tuoi Tre , що лиходії використовували новий інструмент штучного інтелекту, який міг ідеально пересаджувати обличчя на відео... як справжні.
Інструментів штучного інтелекту для заміни облич предостатньо
Наразі існує багато інструментів штучного інтелекту, які мають такі функції, як створення будь-якої людини з бажаним обличчям та об'єднання бажаного обличчя з тілом іншої людини.
Серед них є інструменти з функціями, які служать поганим цілям, таким як перетворення звичайних фотографій на фотографії оголеної людини шляхом «зняття» обличчя з фотографії або заміна обличчя людини у відео на потрібне обличчя...
Більшість цих інструментів штучного інтелекту доступні для пробного періоду, але оплата за них надасть вам повний функціонал із дуже швидким часом трансформації.
Наприклад, за допомогою функції «обличчя до тіла» користувачам потрібно лише завантажити дві відповідні фотографії та зачекати кілька секунд на результати.
Або ж завдяки функції створення оголених фотографій зі звичайних фотографій, інструмент штучного інтелекту може зробити це дуже швидко, всього за кілька десятків секунд, що вразить глядачів.
Навіть функцію заміни облич у секс-відео інструмент штучного інтелекту робить дуже швидко, займаючи менше хвилини для відео тривалістю кілька секунд.
У розмові з Tuoi Tre пан Нгуєн Кім Тхо, керівник групи досліджень та розробок компанії VNetwork з кібербезпеки, проаналізував термін «діпфейк», який стосується підроблених відео та зображень, створених за допомогою штучного інтелекту, щоб змусити глядачів думати, що вони справжні.
Технологія Deepfake використовує моделі глибокого навчання, такі як нейронні мережі, для аналізу даних обличчя та голосу людини та створення підробленого контенту, який виглядає точно як ця людина.
«Завдяки потужним алгоритмам, злочинці можуть вставляти обличчя жертви в делікатні відео (наприклад, «ліжкові» відео, порно) або редагувати зображення, щоб створювати фальшиві фотографії оголеної людини».
Програмне забезпечення та додатки для Deepfake зараз дуже популярні в Інтернеті, навіть з мобільними додатками, відкритим вихідним кодом або безкоштовними онлайн-сервісами, що дозволяє будь-кому легко отримати доступ до інструментів для створення підроблених відео та фотографій, тому людям потрібно бути пильними», – сказав пан Тхо.
Уникайте "секс-чатів"
Багато шахрайств починаються зі знайомства з людьми в Інтернеті, а потім обманом залучають жертву до «секс-чату» або надсилання конфіденційних фотографій. Тому користувачам ніколи не слід надсилати особисті фотографії чи відео людям, з якими вони знайомляться лише в Інтернеті, незалежно від їхніх обіцянок чи погроз.
Завжди пам’ятайте, що будь-який контент, яким поширюється спільне використання (навіть через особисті повідомлення), може бути записаний (скріншот, відео), а потім відредагований та використаний проти вас.
Якщо ви здійснюєте відеодзвінок, остерігайтеся незнайомців, які просять надати конфіденційну інформацію – це може бути підроблений екран або ведеться запис.
Експерти з кібербезпеки радять користувачам ніколи не довіряти нікому лише через онлайн-контакт, а також перевіряти особу та наміри іншої людини, перш ніж ділитися чимось конфіденційним.
Крім того, якщо ви отримаєте текстове повідомлення або дзвінок з погрозою опублікувати «гарячі» фотографії для шантажу, користувачам не потрібно боятися чи поспішати переказувати гроші.
Оплата не гарантує, що зловмисники видалять відео; вони можуть продовжувати вимагати більше або все одно публікувати контент в Інтернеті, кажуть експерти.
Замість того, щоб виконувати вимоги злочинців, користувачам слід збирати докази (повідомлення, номери телефонів, контактні облікові записи, контент із погрозами...) та негайно повідомляти про це найближче відділення поліції або повідомляти про інцидент через додаток VNeID Міністерства громадської безпеки для своєчасної підтримки.
Як ідентифікувати?
За словами пана Нгуєна Кіма Тхо, розрізняти справжні зображення та відео від діпфейків стає дедалі складніше, але деякі ідентифікаційні ознаки та допоміжні інструменти все ще існують.
Користувачі можуть спостерігати вручну, оскільки діпфейковий контент іноді має аномалії зображення та звуку.
Наприклад, композитне зображення може показувати шум або відмінності в кольорах між композитним обличчям і тілом. Підроблене відео може мати невідповідності аудіо та відео (рухи губ, які не відповідають мовленню) або вирази обличчя, які виглядають скутими та неприродними.
Раніше в деяких діпфейкових відео персонажі не моргали, або освітлення та тіні на обличчі не відповідали контексту – що було ознакою того, що відео було змонтоване.
Хоча технології вдосконалюються (наприклад, нові діпфейки додали реалістичні рухи моргання очима), спостережливі глядачі все ще можуть помітити деякі нелогічні деталі у відео та фотографіях.
Зараз дослідники розробляють багато алгоритмів для автоматичного виявлення слідів діпфейків.
Контент, створений штучним інтелектом, часто залишає в кожному пікселі характерний «цифровий відбиток», який машини можуть розпізнати.
Наприклад, Intel представила перший детектор дипфейків у реальному часі, здатний аналізувати відео та визначати, чи є персонажі в них реальними людьми, чи згенерованими штучним інтелектом.
Крім того, деякі вебсайти дозволяють користувачам завантажувати відео та фотографії для перевірки автентичності зображень (наприклад, Deepware, інструменти штучного інтелекту Sensity...). Ці системи постійно оновлюються, щоб бути в курсі нових технік діпфейків.
Зокрема, користувачі можуть перевірити джерело публікації та контекст, коли натрапляють на відео чи зображення делікатного характеру, оскільки багато дипфейкових відео поширюються через фальшиві акаунти або ботів у соціальних мережах.
Якщо конфіденційний контент про людину походить з неофіційного джерела або анонімного облікового запису, скептично ставтеся до його достовірності. Ви можете спробувати зв’язатися безпосередньо з особою, згаданою в контенті, щоб переконатися, що вона справді це зробила.
Крім того, такі проекти, як , сприяють вбудовуванню інформації для автентифікації (цифрових підписів) у фотографії та відео одразу з моменту створення, що допомагає відрізнити оригінальний контент від відредагованого. У майбутньому користувачі зможуть використовувати ці знаки автентифікації для ідентифікації надійного контенту», – сказав пан Тхо.
5 порад для самозахисту
1. Обмежте поширення конфіденційних, приватних фотографій та відео (особливо фотографій оголених, сімейних фотографій, дітей).
2. Зробіть свої облікові записи в соціальних мережах приватними (діліться лише з перевіреними людьми).
3. Не надавайте забагато особистої інформації (повне ім'я, номер телефону, адресу...) у публічних соціальних мережах.
4. Встановіть надійні паролі та увімкніть двофакторну перевірку для своїх облікових записів, щоб уникнути злому.
5. Регулярно шукайте своє ім’я та зображення в Google (або використовуйте інструменти зворотного пошуку зображень, такі як Google Image, TinEye), щоб побачити, чи не було опубліковано якісь із ваших фотографій без дозволу, і негайно вимагайте їх видалення.
Джерело: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Коментар (0)