Deepfakes — это видео и изображения, которые создаются или изменяются в цифровом виде с использованием искусственного интеллекта (ИИ) или машинного обучения (МО). Порнография, созданная с использованием этой технологии, впервые начала распространяться в Интернете несколько лет назад, когда пользователь Reddit поделился поддельными порноклипами с лицами знаменитостей.
Фото: GI
Жертвой может стать каждый.
С тех пор создатели deepfake продолжают публиковать похожие видео и изображения, нацеленные на онлайн-инфлюенсеров, журналистов и других лиц с публичными профилями. Тысячи таких видео существуют на многочисленных веб-сайтах.
Поскольку технологии искусственного интеллекта становятся все более доступными, пользователи могут превратить любого человека в «порнозвезду» без его согласия или, что еще опаснее, использовать эту технологию для клеветы или шантажа других.
Эксперты говорят, что проблема может усугубиться с развитием инструментов генеративного искусственного интеллекта, которые обучаются на миллиардах изображений из Интернета и генерируют новый контент с использованием существующих данных.
«Реальность такова, что технологии будут продолжать распространяться, они будут продолжать развиваться, и они будут становиться все более доступными и простыми в использовании», — сказал Адам Додж, основатель EndTAB, группы, которая проводит обучение по злоупотреблению технологиями. «И пока это происходит, люди неизбежно будут… продолжать злоупотреблять этими технологиями, чтобы причинить вред другим, в первую очередь посредством сексуального насилия в Интернете, глубокой фейковой порнографии и поддельных обнаженных изображений».
Ноэль Мартин из Перта, Австралия, испытала эту реальность. 28-летняя девушка нашла поддельное порно с собой 10 лет назад, когда однажды из любопытства загуглила свое собственное изображение. Мартин до сих пор говорит, что не имеет ни малейшего понятия, кто создал поддельные порнографические изображения или видео. Она подозревает, что кто-то использовал ее изображения в социальных сетях для создания порнографических видеороликов.
Мартин пыталась связаться с сайтами, чтобы удалить видео, но ее усилия были тщетны. Некоторые не ответили. Другие удалили их, но быстро опубликовали снова. «Вы не можете победить», — сказала Мартин. «Это навсегда в Интернете и может разрушить вашу жизнь».
Усилия технологических компаний по исправлению ситуации
Некоторые модели ИИ утверждают, что у них ограничен доступ к порнографическим изображениям.
OpenAI заявила, что удалила порнографический контент из данных, которые она использовала для обучения своего генератора изображений DALL-E, что должно ограничить потенциал для неправомерного использования. Компания также фильтрует запросы и заявляет, что блокирует создание пользователями изображений ИИ знаменитостей и известных политиков . Midjourney, другая модель, также блокирует использование определенных ключевых слов и призывает пользователей сообщать модераторам о проблемных изображениях.
Тем временем Stability AI также выпустила обновление, которое запрещает пользователям создавать откровенные изображения. Изменения появились после сообщений о том, что некоторые пользователи использовали технологию для создания обнаженных сцен, вдохновленных знаменитостями.
Представитель Stability AI Мотез Бишара сказал, что фильтр использует комбинацию ключевых слов и других методов, таких как распознавание изображений, для обнаружения наготы. Но пользователи могут настраивать программное обеспечение и создавать все, что захотят, поскольку компания выпустила открытый исходный код приложения.
Некоторые компании, управляющие социальными сетями, также ужесточили правила, чтобы лучше защитить свои платформы от вредоносных материалов.
В прошлом месяце TikTok заявил, что весь фейковый или сфальсифицированный контент должен быть помечен, чтобы указать, что он является поддельным или каким-либо образом измененным.
Игровая платформа Twitch также недавно обновила свою политику в отношении дипфейков после того, как популярный стример по имени Atrioc был пойман за открытием сайта с дипфейковым порно в своем браузере во время прямой трансляции в конце января.
Apple и Google заявили, что недавно удалили из своих магазинов приложений приложение, демонстрирующее фейковые видеоролики сексуального характера с целью продвижения своей продукции.
От западного певца до кумира K-pop.
Исследования дипфейкового порно редки, но отчет 2019 года компании ИИ DeepTrace Labs показал, что оно почти полностью использовалось против женщин. Западные актрисы были наиболее мишенями, за ними следовали певицы K-pop.
Представитель Meta Дэни Левер заявил в своем заявлении, что политика компании ограничивает как создаваемый искусственным интеллектом, так и не создаваемый им контент для взрослых, а также запрещает размещать на своей платформе рекламу страниц приложений, создающих дипфейки.
В феврале Meta, а также сайты для взрослых, такие как Only**** и Porn***, начали участвовать в онлайн-инструменте под названием Take It Down, который позволяет подросткам сообщать о своих откровенных сексуальных изображениях и видео из интернета. Сайт поддерживает как видео со скрытых камер, так и видео, созданные искусственным интеллектом.
Хоанг Тон (по данным AP)
Источник
Комментарий (0)