Діпфейки – це відео та зображення, створені або цифровим чином змінені за допомогою штучного інтелекту (ШІ) або машинного навчання (МН). Порнографічний контент, створений за допомогою цієї технології, вперше почав поширюватися в Інтернеті кілька років тому, коли користувач Reddit поділився фальшивими порнороликами із зображеннями знаменитостей.
Фото: Г.І.
Жертвою може стати будь-хто.
Відтоді творці діпфейків постійно публікують подібні відео та зображення, спрямовані на онлайн-інфлюенсерів, журналістів та інших осіб із публічними профілями. Тисячі таких відео існують на численних вебсайтах.
Оскільки технології штучного інтелекту стають дедалі доступнішими, це дозволяє користувачам перетворювати будь-кого на «зірок порнографічного кіно» без їхньої згоди або, що ще небезпечніше, використовувати цю технологію для знеславлення чи шантажу інших.
Експерти кажуть, що проблема може погіршитися з розвитком узагальнених інструментів штучного інтелекту, навчених на мільярдах зображень з інтернету та генеруючих новий контент з використанням існуючих даних.
«Реальність така, що технології продовжуватимуть поширюватися, продовжуватимуть розвиватися та ставатимуть простішими та доступнішими», — сказав Адам Додж, засновник EndTAB, групи, яка проводить навчання щодо зловживання технологіями. «І доки це триватиме, люди… продовжуватимуть зловживати цими технологіями, щоб завдавати шкоди іншим, переважно через сексуальне насильство в Інтернеті, діпфейкову порнографію та фальшиву оголеність».
Ноель Мартін з Перта, Австралія, пережила це на власному досвіді. 28-річна жінка виявила власні фейкові порнографічні зображення 10 років тому, коли з цікавості скористалася Google, щоб знайти свої фотографії. Донині Мартін каже, що не знає, хто створив ці фейкові порнографічні зображення чи відео. Вона підозрює, що хтось використав зображення з її соціальних мереж для створення порнографічних відео.
Незважаючи на спроби Мартін зв’язатися з вебсайтами, щоб видалити відео, її зусилля були марними. Деякі не відповіли. Інші видалили їх, але швидко повторно завантажили. «Ви не можете перемогти», – сказала Мартін. «Це залишиться в інтернеті назавжди і може зруйнувати ваше життя».
Зусилля технологічних компаній щодо виправлення ситуації.
Деякі моделі штучного інтелекту вказали, що вони мають обмежений доступ до порнографічних зображень.
OpenAI стверджує, що видалила порнографічний контент з даних, що використовуються для навчання її інструменту генерації зображень DALL-E, що обмежить потенціал для зловживань. Компанія також фільтрує запити та стверджує, що блокує користувачам створення зображень знаменитостей та відомих політиків за допомогою штучного інтелекту. Midjourney, ще одна модель, також блокує використання певних ключових слів та заохочує користувачів позначати проблемні зображення для модераторів.
Тим часом, Stability AI також випустила оновлення, яке забороняє користувачам створювати конфіденційні зображення. Ці зміни з'явилися після повідомлень про те, що деякі користувачі створювали за допомогою цієї технології фотографії оголених знаменитостей.
Речник Stability AI Мотез Бішара заявив, що фільтр використовує комбінацію ключових слів та інших методів, таких як розпізнавання зображень, для виявлення оголеності. Але користувачі можуть маніпулювати програмним забезпеченням та створювати все, що забажають, оскільки компанія опублікувала відкритий вихідний код для програми.
Деякі компанії соціальних мереж також посилили свої правила, щоб краще захистити свої платформи від шкідливих матеріалів.
Минулого місяця TikTok заявив, що весь дипфейковий або маніпульований контент має бути позначений, щоб вказати, що він є фейковим або якимось чином змінений.
Ігрова платформа Twitch нещодавно оновила свою політику щодо діпфейкових зображень після того, як наприкінці січня популярний стрімер на ім'я Atrioc виявився у своєму браузері на сайті з діпфейковим порно під час прямої трансляції.
Apple та Google нещодавно оголосили про видалення застосунку зі своїх магазинів додатків за розміщення в ньому відео з сексуальним підтекстом, що містили дипфейки для просування товарів.
Від західних співаків до айдолів K-pop.
Дослідження порнографічних діпфейків не є широко поширеними, але звіт 2019 року, опублікований компанією штучного інтелекту DeepTrace Labs, показав, що вони майже повністю використовуються проти жінок. Найбільш мішенями є західні акторки, а за ними йдуть співаки K-pop.
Речник Meta Дані Левер заявив, що політика компанії обмежує контент для дорослих, створений як за допомогою штучного інтелекту, так і без нього, а також забороняє розміщення реклами на сторінці програми для створення діпфейків на своїй платформі.
У лютому Meta разом із веб-сайтами для дорослих, такими як Only**** та Porn***, почали брати участь в онлайн-інструменті під назвою Take It Down, який дозволяє підліткам повідомляти про власні порнографічні зображення та відео з Інтернету. Сайт підтримує обробку як таємно знятих відео, так і відео, згенерованих штучним інтелектом.
Хоангтон (за даними AP)
Джерело










Коментар (0)