Злоумышленники могут использовать ИИ для объединения конфиденциальных фотографий и видео с целью дискредитации и шантажа других людей. Фото: рисунок ИИ.
Раньше, когда речь шла о технике вырезания и наклеивания лица одного человека на тело другого, люди часто использовали Photoshop или специализированное программное обеспечение для редактирования фотографий, что было трудоемко и легко распознаваемо невооруженным глазом.
Теперь, благодаря инструментам искусственного интеллекта, люди могут делать это очень легко, сделав «несколько заметок», но обнаружить это невооруженным глазом нелегко.
Сексуальное видео с обменом лицами в целях шантажа
Благодаря рабочим связям г-н Х. (директор предприятия в Хошимине) часто общается в социальных сетях.
Однажды он подружился с молодой девушкой, которая расспрашивала его о работе. Они расспрашивали друг друга, болтали, делились друг с другом историями о работе и личной жизни, и вскоре они стали довольно близки.
Также между ними было много текстовых сообщений с очень эмоциональными словами, а также обмен фотографиями и видеозвонки, чтобы увидеть друг друга.
Однажды господину Х. неожиданно позвонил мужчина, представившийся мужем девушки. После «превентивной» атаки на господина Х. «муж» потребовал от него перевести компенсацию, если тот не хочет, чтобы фотографии их переписки и видеозаписи секса с ним отправлялись родственникам и партнёрам.
Затем г-ну Х. его «муж» показал видео секса с ним и другой девушкой, а также видеозапись их разговора и захваченные интимные текстовые сообщения...
«Я никогда не встречался с этой девушкой, поэтому уверен, что секс-видео — это отредактированная версия», — подтвердил г-н Х. Однако изображение лица девушки на секс-видео и в видеозвонке совпадают, как и фотография нежного текстового сообщения, что вынуждает г-на Х. многократно переводить деньги своему «мужу», чтобы сохранить репутацию.
В ходе расследования Туой Тре г-н Х. был обманут организованно и по идеальному сценарию. В ходе этой аферы г-н Х. дважды попался на дипфейк. Первый раз это был видеозвонок, а второй — секс-видео.
Примечательно, что в секс-видео лицо мистера Х. было настолько искусно пересажено, что зрителям было трудно поверить, что это видео с пересадкой. Эксперт по искусственному интеллекту подтвердил Tuoi Tre , что злоумышленники использовали новый инструмент искусственного интеллекта, который мог идеально пересаживать лица на видео... как настоящие.
Инструментов искусственного интеллекта для подмены лиц предостаточно
В настоящее время существует множество прикладных инструментов ИИ, которые обладают такими функциями, как создание любого человека с желаемым лицом и слияние желаемого лица с телом другого человека.
Среди них есть инструменты с функциями, которые служат плохим целям, например, превращают обычные фотографии в фотографии обнаженной натуры, «раздевая» человека на фотографии, или заменяют лицо человека в видео на желаемое лицо...
Большинство этих инструментов ИИ доступны в пробном режиме, но заплатив за них, вы получите полный набор функций с очень быстрым временем преобразования.
Например, с помощью функции наложения лиц на тела других людей пользователям достаточно загрузить две соответствующие фотографии и подождать несколько секунд, чтобы получить результат.
Или с функцией создания обнаженных фотографий из обычных фотографий, инструмент ИИ может сделать это очень быстро, всего за несколько десятков секунд, ошеломив зрителей.
Даже функция замены лиц в секс-видеороликах, которую выполняет инструмент ИИ, выполняется очень быстро, тратя на это меньше минуты для видео длительностью в несколько секунд.
В беседе с Tuoi Tre г-н Нгуен Ким То, руководитель группы исследований и разработок компании по кибербезопасности VNetwork, проанализировал термин deepfake, используемый для обозначения поддельных видеороликов и изображений, созданных искусственным интеллектом, чтобы заставить зрителей поверить в их реальность.
Технология Deepfake использует модели глубокого обучения, такие как нейронные сети, для анализа данных лица и голоса человека и создания поддельного контента, который выглядит в точности как этот человек.
«Благодаря мощным алгоритмам злоумышленники могут вставлять лицо жертвы в деликатные видеоролики (например, «постельные» видео, порнографию) или редактировать изображения, создавая поддельные обнажённые фотографии.
«Программное обеспечение и приложения для создания дипфейков сейчас очень популярны в Интернете, даже среди мобильных приложений, с открытым исходным кодом или бесплатных онлайн-сервисов, что позволяет любому человеку легко получить доступ к инструментам для создания поддельных видео и фотографий, поэтому людям нужно быть бдительными», — сказал г-н То.
Держитесь подальше от «секс-чата»
Многие мошеннические схемы начинаются с поиска друзей в интернете, а затем обманным путём вовлекают жертву в «сексуальный чат» или отправляют ей интимные фотографии. Поэтому пользователям ни в коем случае не следует отправлять личные фотографии или видео людям, с которыми они знакомы только в интернете, какими бы обещаниями или угрозами они ни сопровождали.
Всегда помните, что любой переданный вами контент (даже в личных сообщениях) может быть записан (скриншот, видео), а затем отредактирован и использован против вас.
Если вы совершаете видеозвонок, будьте осторожны с незнакомцами, спрашивающими конфиденциальную информацию — это может быть поддельный экран или они ведут запись.
Эксперты по кибербезопасности советуют пользователям никогда не доверять никому, кроме как при онлайн-общении, и проверять личность и намерения другого человека, прежде чем делиться с ним какой-либо конфиденциальной информацией.
К тому же, если вам пришло сообщение или звонок с угрозой опубликовать «горячие» фотографии с целью шантажа, пользователям не нужно бояться и спешить перевести деньги.
По словам экспертов, оплата не гарантирует, что злоумышленники удалят видео; они могут продолжать требовать больше или в любом случае размещать контент в сети.
Вместо того чтобы следовать запросам преступников, пользователям следует собирать доказательства (сообщения, номера телефонов, контактные данные, угрожающий контент...) и немедленно сообщать в ближайшее отделение полиции или сообщать об инциденте через приложение VNeID Министерства общественной безопасности для получения своевременной поддержки.
Как определить?
По словам г-на Нгуена Ким То, отличить настоящие изображения и видео от дипфейков становится все сложнее, но все же существуют некоторые идентификационные признаки и вспомогательные инструменты.
Пользователи могут наблюдать вручную, поскольку контент с дипфейком иногда имеет визуальные и звуковые отклонения.
Например, на составных изображениях могут быть видны шумы и цветовые различия между составным лицом и телом. В поддельных видео могут наблюдаться несоответствия звука и изображения (движения губ не соответствуют речи) или напряжённая и неестественная мимика.
Ранее в некоторых фейковых видео персонажи не моргали, а освещение и тени на лице не соответствовали контексту — это было признаком того, что видео было отредактировано.
Несмотря на то, что технологии совершенствуются (например, в новых глубоких фейках добавлены реалистичные движения глаз), внимательные зрители все еще могут заметить некоторые нелогичные детали в видео и фотографиях.
В настоящее время исследователи разрабатывают множество алгоритмов для автоматического обнаружения следов дипфейков.
Контент, создаваемый искусственным интеллектом, часто оставляет на каждом пикселе характерный «цифровой отпечаток», который машины могут распознать.
Например, компания Intel представила первый детектор фейков в реальном времени, способный анализировать видеоролики и определять, являются ли персонажи на них реальными людьми или же сгенерированными искусственным интеллектом.
Кроме того, некоторые сайты позволяют пользователям загружать видео и фотографии для проверки подлинности изображений (например, Deepware, Sensity AI и др.). Эти системы постоянно обновляются, чтобы идти в ногу с новыми технологиями создания дипфейков.
В частности, пользователи могут проверить источник публикации и контекст, если сталкиваются с видео или изображением деликатного характера, поскольку многие фейковые видеоролики распространяются через поддельные аккаунты или ботов в социальных сетях.
Если конфиденциальная информация о человеке исходит из неофициального источника или анонимного аккаунта, отнеситесь к её подлинности скептически. Попробуйте связаться с человеком, упомянутым в публикации, напрямую, чтобы убедиться, что он действительно это сделал.
«Кроме того, такие проекты, как [ссылка на исходный текст, требуется контекст], продвигают внедрение аутентификационной информации (цифровых подписей) в фотографии и видео непосредственно в момент их создания, что помогает отличать оригинальный контент от отредактированного. В будущем пользователи смогут использовать эти аутентификационные признаки для определения надёжного контента», — сказал г-н То.
5 советов, как защитить себя
1. Ограничьте распространение конфиденциальных, личных фотографий и видео (особенно фотографий в обнаженном виде, семейных фотографий, фотографий детей).
2. Сделайте аккаунты в социальных сетях приватными (делитесь ими только с доверенными людьми).
3. Не предоставляйте слишком много личной информации (полное имя, номер телефона, адрес...) в публичных социальных сетях.
4. Установите надежные пароли и включите двухэтапную аутентификацию для своих учетных записей, чтобы избежать взлома.
5. Регулярно ищите свое имя и изображение в Google (или используйте инструменты обратного поиска изображений, такие как Google Image, TinEye), чтобы узнать, были ли какие-либо из ваших фотографий опубликованы без разрешения, и незамедлительно подайте запрос на их удаление.
Источник: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Комментарий (0)