08:22, 12/09/2023
Технологии искусственного интеллекта (ИИ) создают тревожные опасности в социальном сообществе, используя все более изощренные методы обмана.
Среди них недавно разработанная технология «дипфейк» привлекает многих пользователей, особенно женщин, чтобы объединить свои фотографии с изображениями королев красоты, моделей ... чтобы выглядеть реалистично, не подозревая, что за этим скрываются непредсказуемые риски.
Недавно один мой знакомый поделился ссылкой на видео с подписью «откровенный фильм» известной женщины-звезды. При переходе по ссылке люди с удивлением видели лицо молодой актрисы в сексуальной одежде и в «интимных отношениях» с мужчиной. Эксперт по технологиям сказал, что это не настоящий фильм, а просто технологическое мошенничество, использующее технологию «дипфейка» для создания образа другого человека.
Фотография пользователя, созданная искусственным интеллектом. Фото из Интернета |
Этот эксперт также сообщил, что за последние 10 дней в социальных сетях появилась тенденция отправлять портретные изображения в программное обеспечение искусственного интеллекта, чтобы получить «очень красивые, реалистичные» фотографии. Многим молодым людям это очень нравится, они даже инструктируют друг друга, какое программное обеспечение умнее, может объединять более красивые изображения, например, известных актеров, моделей... Некоторые приложения также позволяют объединять фотографии в видео. «Однако никто не может предсказать скрытую опасность за этой игрой. Проще говоря, однажды вы увидите изображение себя в сексуальном, обнаженном теле», — предупредил вышеупомянутый эксперт.
Прослеживая информацию, можно увидеть, что технология «deepfake» разработана на основе платформы машинного обучения с использованием открытого исходного кода Google. Термин «deepfake» представляет собой комбинацию двух фраз «deep learning» и «fake», что означает обучение созданию симуляций. Эта технология сканирует видео и портрет конкретного пользователя, затем объединяет его с другими отдельными видео или фотографиями для создания фотографии или клипа. Благодаря использованию интеллектуальных функций ИИ эта технология может заменить основные идентификационные данные на человеческом лице, такие как глаза, рот, нос, а также скорость движения лица и звук голоса, чтобы создать почти реальную копию. Чем больше исходных данных изображения в этом процессе, тем легче функции ИИ изучить и создать поддельное лицо и изображение, идентичные реальному человеку.
С быстрым развитием технологий «дипфейк» быстро распространяется во многих областях жизни, таких простых, как помощь человеку в выборе подходящей прически для себя или попытка разработать определенный наряд. Поэтому цель применения технологии очень позитивна и ценится многими пользователями. Однако другая сторона проблемы — это возможность для субъектов и преступников использовать ее в плохих целях.
Соответственно, пользователи, которые предоставляют свои портреты или видео для онлайн-программ редактирования фотографий, легко становятся жертвами дешевых развлечений, таких как редактирование фотографий в обнаженном виде, сексуальная стимуляция и т. д. Люди, редактирующие фотографии, могут развлекать себя, но они также могут использовать эти поддельные изображения для нападения на других, высмеивания, клеветы или шантажа, оскорбления чести других и даже для того, чтобы запутать и разрушить отношения между участниками.
Во-вторых, преступники могут использовать ИИ для создания поддельных персонажей, совершать онлайн-мошенничество, например, звонить родственникам и друзьям, чтобы занять денег, красть информацию в плохих целях. Плохие парни могут даже притворяться пользователями, чтобы входить в онлайн-технологические приложения, покупать и продавать онлайн, через банковские карты... чтобы присваивать активы. Оттуда мошеннические, вымогательские и террористические сети могут использовать виртуальные учетные записи с поддельными персонажами для совершения плохих действий.
Технологическое сообщество временно перечислило множество популярных программных и веб-инструментов, которые используют технологию «deepfake», такие как reface, zao, avatarify, deepfakes web β, myheritage, wombo… но этот список может быть длиннее и разнообразнее из-за быстрого развития технологий. Поэтому сообщество кибербезопасности предупреждает пользователей быть крайне осторожными и осторожными с мошенничеством с использованием технологии deepfake. Если не быть осторожными, однажды пользователи внезапно поймут, что кто-то выдает себя за них, чтобы снять деньги из банка или… выйти в интернет, чтобы сделать… политические террористические заявления по определенной теме.
Девушки и парни, которые с удовольствием выставляют свои фотографии в сети, имитируют свои образы, фиксируют какие-то памятные моменты, должны тщательно передумать. Потому что нет ничего абсолютно бесплатного и безопасного для пользователей, и любые неосторожные действия могут иметь очень печальные последствия впоследствии. В интернет-сообществе есть поговорка «развлекайся, но не развлекайся слишком много», возможно, стоит подчеркнуть это предостережение!
Туй Бат Нхи
Источник
Комментарий (0)