Дипфейки — это видео и изображения, созданные или измененные в цифровом виде с использованием искусственного интеллекта (ИИ) или машинного обучения (МО). Технологически созданная порнография впервые начала распространяться в Интернете несколько лет назад, когда пользователь Reddit поделился поддельными порноклипами с лицами знаменитостей.
Фото: GI
Жертвой может стать каждый.
С тех пор создатели дипфейков продолжают публиковать похожие видео и изображения, нацеленные на влиятельных интернет-пользователей, журналистов и других лиц с публичными профилями. Тысячи подобных видеороликов существуют на многих сайтах.
Поскольку технологии искусственного интеллекта становятся все более доступными, пользователи могут превратить любого человека в «порнозвезду» без его согласия или, что еще опаснее, использовать эту технологию для клеветы или шантажа других.
Эксперты говорят, что проблема может усугубиться с развитием инструментов генеративного искусственного интеллекта, которые обучаются на миллиардах изображений из Интернета и генерируют новый контент с использованием существующих данных.
«Реальность такова, что технологии будут продолжать распространяться, развиваться и становиться все более доступными и простыми в использовании», — сказал Адам Додж, основатель EndTAB, группы, которая проводит обучение по вопросам злоупотребления технологиями. «И пока это происходит, люди неизбежно… продолжат злоупотреблять этой технологией, чтобы причинить вред другим, в первую очередь посредством сексуального насилия в Интернете, глубокой фейковой порнографии и поддельных обнаженных фотографий».
Ноэль Мартин из Перта, Австралия, испытала эту реальность на себе. 28-летняя девушка нашла свой собственный порнографический дипфейк 10 лет назад, когда из любопытства однажды ввела в Google свое собственное изображение. Мартин до сих пор утверждает, что не имеет ни малейшего представления о том, кто создал эти поддельные порнографические изображения или видео. Она подозревает, что кто-то использовал ее фотографии из социальных сетей для создания порнографических видеороликов.
Хотя Мартин пытался связаться с сайтами, чтобы удалить эти видео, усилия оказались тщетными. Некоторые не ответили. Другие были удалены, но быстро опубликованы снова. «Вы не можете победить», — сказала г-жа Мартин. «Это будет жить в Интернете вечно и может разрушить вашу жизнь».
Усилия технологических компаний по исправлению ситуации
Некоторые модели ИИ утверждают, что у них ограничен доступ к порнографическим изображениям.
Компания OpenAI заявила, что удалила порнографический контент из данных, используемых для обучения генератора изображений DALL-E, что должно ограничить возможность его неправомерного использования. Компания также фильтрует запросы и заявляет, что блокирует создание пользователями изображений знаменитостей и известных политиков с помощью искусственного интеллекта. Другая модель, Midjourney, также блокирует использование определенных ключевых слов и призывает пользователей сообщать модераторам о проблемных изображениях.
Тем временем Stability AI также выпустила обновление, которое запрещает пользователям создавать конфиденциальные изображения. Изменения были внесены после сообщений о том, что некоторые пользователи создавали с помощью этой технологии фотографии обнаженных знаменитостей.
Представитель Stability AI Мотез Бишара сообщил, что фильтр использует комбинацию ключевых слов и других методов, таких как распознавание изображений, для обнаружения наготы. Однако пользователи могут манипулировать программным обеспечением и создавать все, что захотят, поскольку компания выпустила открытый исходный код приложения.
Некоторые компании, управляющие социальными сетями, также ужесточили правила, чтобы лучше защитить свои платформы от вредоносных материалов.
В прошлом месяце TikTok заявил, что весь фейковый или сфальсифицированный контент должен быть помечен, чтобы указать, что он является поддельным или каким-либо образом измененным.
Игровая платформа Twitch также недавно обновила свою политику в отношении дипфейков после того, как популярный стример по имени Atrioc был пойман за открытием сайта с дипфейковым порно в своем браузере во время прямой трансляции в конце января.
Apple и Google заявили, что недавно удалили из своих магазинов приложений приложение, демонстрирующее фейковые видеоролики сексуального характера с целью продвижения своей продукции.
От западного певца до кумира K-pop.
Исследования в области глубокого фейкового порно проводятся нечасто, однако отчет, опубликованный в 2019 году компанией DeepTrace Labs, занимающейся разработкой искусственного интеллекта, показал, что оно почти полностью использовалось против женщин. Наиболее целевыми объектами стали западные актрисы, за которыми следовали исполнители K-pop.
Представитель Meta Дэни Левер заявил в своем заявлении, что политика компании ограничивает как создаваемый искусственным интеллектом, так и не создаваемый им контент для взрослых, а также запрещает размещать на своей платформе рекламу страниц приложений, создающих дипфейки.
В феврале Meta, а также сайты для взрослых, такие как Only**** и Porn***, начали участвовать в онлайн-инструменте под названием Take It Down, который позволяет подросткам сообщать о своих откровенных изображениях и видеороликах сексуального характера в интернете. Этот сайт поддерживает как тайно снятые видео, так и видео, созданные искусственным интеллектом.
Хоанг Тон (по данным AP)
Источник
Комментарий (0)