Діпфейки – це відео та зображення, створені або змінені в цифровому форматі за допомогою штучного інтелекту (ШІ) або машинного навчання (МН). Порнографія, створена за допомогою цієї технології, вперше почала поширюватися в Інтернеті кілька років тому, коли користувач Reddit поділився фальшивими порнороликами з обличчями знаменитостей.
Фото: Г.І.
Жертвою може стати будь-хто.
Відтоді творці діпфейків продовжують публікувати подібні відео та зображення, спрямовані на онлайн-інфлюенсерів, журналістів та інших осіб з публічними профілями. Тисячі таких відео існують на численних вебсайтах.
Оскільки технології штучного інтелекту стають дедалі доступнішими, це дозволяє користувачам перетворювати будь-кого на «порнозірок» без їхньої згоди або, що ще небезпечніше, використовувати цю технологію для знеславлення чи шантажу інших.
Експерти кажуть, що проблема може погіршитися з розвитком генеративних інструментів штучного інтелекту, які навчаються на мільярдах зображень з інтернету та генерують новий контент, використовуючи існуючі дані.
«Реальність така, що технології продовжуватимуть поширюватися, розвиватися та ставати все більш доступними», — сказав Адам Додж, засновник EndTAB, групи, яка проводить навчання щодо зловживання технологіями. «І доки це триватиме, люди, безсумнівно… продовжуватимуть зловживати цими технологіями, щоб завдавати шкоди іншим, насамперед через сексуальне насильство в Інтернеті, діпфейкову порнографію та фальшиві оголені фотографії».
Ноель Мартін з Перта, Австралія, пережила це. 28-річна дівчина виявила дипфейкове порно зі своєю фотографією 10 років тому, коли з цікавості одного разу погуглила власне зображення. Мартін каже, що донині не має уявлення, хто створив ці фальшиві порнографічні зображення чи відео. Вона підозрює, що хтось використав її зображення із соціальних мереж для створення порновідео.
Мартін намагалася зв’язатися з сайтами, щоб видалити відео, але її зусилля були марними. Деякі не відповіли. Інші видалили їх, але швидко опублікували повторно. «Ви не можете перемогти», – сказала пані Мартін. «Це буде в інтернеті вічно і може зруйнувати ваше життя».
Зусилля технологічних компаній щодо вирішення проблеми
Деякі моделі штучного інтелекту кажуть, що мають обмежений доступ до порнографічних зображень.
OpenAI заявила, що видалила порнографічний контент з даних, що використовуються для навчання її генератора зображень DALL-E, що має обмежити ймовірність його неправомірного використання. Компанія також фільтрує запити та стверджує, що блокує користувачів від створення штучним інтелектом зображень знаменитостей та відомих політиків . Інша модель, Midjourney, також блокує використання певних ключових слів та заохочує користувачів позначати проблемні зображення модераторам.
Тим часом, Stability AI також випустила оновлення, яке забороняє користувачам створювати відверті зображення. Ці зміни з'явилися після повідомлень про те, що деякі користувачі використовували цю технологію для створення оголених знімків, натхненних знаменитостями.
Речник Stability AI Мотез Бішара сказав, що фільтр використовує комбінацію ключових слів та інших методів, таких як розпізнавання зображень, для виявлення оголеності. Але користувачі можуть налаштувати програмне забезпечення та створити все, що забажають, оскільки компанія опублікувала відкритий вихідний код програми.
Деякі компанії соціальних мереж також посилили правила, щоб краще захистити свої платформи від шкідливих матеріалів.
Минулого місяця TikTok заявив, що весь дипфейковий або маніпульований контент має бути позначений, щоб вказати, що він підроблений або певним чином змінений.
Ігрова платформа Twitch також нещодавно оновила свою політику щодо діпфейкових зображень після того, як популярного стрімера на ім'я Atrioc спіймали на відкритті діпфейкового порносайту у своєму браузері під час прямої трансляції наприкінці січня.
Apple та Google заявили, що нещодавно видалили додаток зі своїх магазинів додатків за розміщення відео сексуального підтексту з використанням діпфейків для просування своїх продуктів.
Від західного співака до кумира K-pop.
Дослідження діпфейкового порно є рідкісним явищем, але звіт компанії зі штучного інтелекту DeepTrace Labs за 2019 рік показав, що воно майже повністю використовується проти жінок, причому найбільшою мішенню є західні акторки, а за ними йдуть K-pop співаки.
Речник Meta Дані Левер заявив, що політика компанії обмежує контент для дорослих, створений як за допомогою штучного інтелекту, так і без нього, а також забороняє розміщення реклами на сторінці програми, що генерує діпфейки, на своїй платформі.
У лютому Meta, а також сайти для дорослих, такі як Only**** та Porn***, почали брати участь в онлайн-інструменті під назвою Take It Down, який дозволяє підліткам повідомляти про сексуально відверті зображення та відео зі собою в інтернеті. Сайт підтримує як таємно зняті відео, так і відео, створені за допомогою штучного інтелекту.
Хоангтон (за даними AP)
Джерело






Коментар (0)