Инструменты искусственного интеллекта легко создают поддельные технологические продукты. (Иллюстрация) |
«Эпоха дипфейка»
С другой стороны, ИИ, попав в руки злоумышленников, может легко красть изображения из аккаунтов пользователей в социальных сетях и превращать их в нежелательные ссылки. Например, порнографические сайты могут использовать изображения пользователей без их согласия.
«Мы живём в эпоху дипфейков», — заявил Хади Салман, исследователь из Массачусетского технологического института. «Теперь любой может манипулировать изображениями и видео, заставляя людей „сделать“ то, чего они на самом деле не делали».
Deepfake — это сочетание слов «глубокое обучение» и «подделка», которое представляет собой метод использования ИИ для создания поддельных технологических продуктов в форме аудио, изображений или даже видео .
Всего за несколько секунд, с помощью нескольких простых команд, ИИ может создать любое изображение, которое захотят «плохие парни». Например, кто-то может попросить ИИ создать фотографию Папы Римского в пальто Balenciaga, а затем опубликовать её в интернете, прежде чем выяснится, что фотография поддельная.
Технологии искусственного интеллекта также поразили пользователей своей способностью создавать произведения искусства в стиле конкретного художника. Например, можно создать картину с изображением кошки, которая будет выглядеть так, будто она написана в стиле знаменитого художника Винсента Ван Гога.
Для художников-графиков эти инструменты рискуют остаться без работы, поскольку модели ИИ копируют их уникальные стили и создают произведения искусства без их разрешения.
ИИ Пропеллер
Эвелин Фрёлих, проживающая в Штутгарте (Германия), входит в растущее число художников, которые борются с чрезмерным влиянием искусственного интеллекта и пытаются найти способы защитить свои визуальные работы в Интернете от манипуляций.
Недавно г-жа Фрёлих узнала об инструменте под названием Glaze, разработанном специалистами по информатике из Чикагского университета (США) для предотвращения злоупотреблений моделями ИИ.
Бен Чжао, профессор компьютерных наук в Чикагском университете и один из ведущих исследователей проекта Glaze, рассказал CNN , что инструмент предназначен для защиты уникальных работ художников от обучающих моделей ИИ.
Программное обеспечение Glaze использует алгоритмы машинного обучения для внесения небольших изменений в цифровые изображения, которые не видны невооруженным глазом, но создают защитный слой для работы в онлайн-среде, обманывая модели ИИ, лишая их возможности копировать стиль автора.
Благодаря Glaze произведения искусства «покрываются плащом-невидимкой», не позволяя ИИ «прочитать» изображение.
Например, объясняет Чжао, художник может загрузить изображение своей картины маслом, пропущенной через Glaze. Когда модели ИИ «считывают» картину, они видят в ней набросок углём, в то время как человек сразу распознаёт в ней картину маслом. После прогона через Glaze работа будет выглядеть для ИИ совершенно иначе.
Команда Чжао выпустила первую версию Glaze в марте прошлого года, и её скачали более миллиона раз. Буквально на прошлой неделе команда выпустила бесплатную версию Glaze в интернете.
Команда надеется, что инструмент Glaze поможет защитить авторские права художников до тех пор, пока не будут установлены конкретные правила и законы.
Г-н Чжао рассказал, что с момента появления Glaze он заметил рост числа актеров озвучивания, писателей, музыкантов и журналистов, которые обращаются к его команде с просьбой о версии Glaze для их сферы деятельности.
Калифорнийский художник Джон Лэм использует инструмент Glaze, чтобы защитить свои онлайн-произведения искусства от использования для обучения моделей искусственного интеллекта, и говорит, что теперь он использует приложение для всех произведений искусства, которыми он делится в сети.
По его словам, многие годы художники, подобные ему, гордятся тем, что публикуют свои работы в интернете в полном разрешении. «Мы хотим, чтобы люди увидели, насколько детализированы и восхитительны фотографии в формате Full HD. Однако художники не знают, что их работы могут быть „поглощены“ моделями искусственного интеллекта, которые затем копируют их стиль и подвергают их нечестной конкуренции».
«Теперь мы знаем, что люди берут наши высокоточные работы и загружают их в машины с искусственным интеллектом, чтобы конкурировать с нами на том же уровне. Поэтому нам нужно быть осторожнее и начать думать о том, как защитить себя», — сказал он.
Салман и его команда только что выпустили ещё один инструмент для защиты изображений от ИИ. Приложение PhotoGuard позволяет пользователям накладывать на изображения невидимый защитный слой, чтобы предотвратить манипуляции с ними со стороны ИИ-моделей.
Цель PhotoGuard — защитить фотографии, которые уже были загружены в сеть их авторами, от «вредоносных манипуляций со стороны ИИ», сказал Салман.
Приложение PhotoGuard работает, незаметно корректируя пиксели изображения для человека. Однако это изменение, незаметное невооруженным глазом, достаточно эффективно и позволяет эффективно обходить любые попытки моделей искусственного интеллекта манипулировать изображением.
Это означает, что если кто-то попытается отредактировать фотографию с помощью ИИ после того, как она была защищена PhotoGuard, полученная фотография будет «совсем нереалистичной», объяснил Салман.
Не имеет лицензии
С другой стороны, даже если инструменты ИИ берут и обрабатывают изображения, то, что они создают, не признается объектом авторского права.
С момента своего появления и популярности искусственный интеллект одновременно стал причиной споров: защищены ли эти работы авторским правом? Если да, то кому они принадлежат?
Бюро по авторским правам США (USCO) приняло официальное решение по этим работам. По данным USCO, любые изображения, созданные искусственным интеллектом на основе команд (например, текущие приложения Midjourney, Dall-E и Stable Diffusion), не будут защищены авторским правом в США.
В законодательстве США установлено, что интеллектуальная собственность может быть защищена авторским правом только в том случае, если она является результатом творческой деятельности человека. В настоящее время USCO признает только произведения, созданные людьми. Следовательно, машины с искусственным интеллектом не будут считаться авторами, и созданные ими продукты не будут защищены авторским правом.
«Если традиционные элементы авторского права в произведении созданы машиной, то это произведение не защищено авторским правом человека, и USCO не будет его регистрировать», — заявила директор USCO Шира Перлмуттер.
Источник
Комментарий (0)