После того, как в конце 2022 года стартап OpenAI выпустил своё первое ИИ-приложение ChatGPT, началась волна гонки за разработкой ИИ-приложений, особенно генеративного ИИ, который приносит множество удобств во все сферы жизни. Однако это также несёт в себе множество рисков.
Вторжение в частную жизнь
В последние годы многие организации и частные лица понесли убытки, когда киберпреступники использовали искусственный интеллект для создания видеороликов , имитирующих изображения и голоса реальных людей. Одним из примеров является трюк «подделка становится реальностью», известный как Deepfake.
Согласно отчёту о мошенничестве с персональными данными, опубликованному Sumsub в конце ноября 2023 года, количество случаев мошенничества с использованием Deepfake в мире выросло в 10 раз в 2022–2023 годах. В это же время в мире наблюдается взрывной рост популярности приложений искусственного интеллекта.
Status Labs отмечает, что дипфейк оказал серьёзное влияние на культуру, конфиденциальность и личную репутацию. Значительная часть новостей и внимания, связанных с дипфейком, сосредоточена на порно со знаменитостями, порномести, дезинформации, фейковых новостях, шантаже и мошенничестве. Например, в 2019 году хакер, подделавший изображение и голос руководства компании, похитил 243 000 долларов у энергетической компании в США и потребовал от сотрудников перевести деньги партнёрам.
Информационное агентство Reuters сообщило, что в 2023 году в социальных сетях по всему миру было распространено около 500 000 дипфейков в виде видео и аудио. Помимо дипфейков, создаваемых ради развлечения, существуют и другие уловки, придуманные злоумышленниками для обмана пользователей. По некоторым данным, в 2022 году убытки от дипфейков по всему миру оценивались в 11 миллионов долларов США.
Многие эксперты в области технологий предупреждали о негативных последствиях использования искусственного интеллекта, включая права интеллектуальной собственности и вопросы подлинности, а также о спорах по поводу интеллектуальной собственности между «произведениями», созданными искусственным интеллектом. Например, один человек просит приложение ИИ нарисовать картину на определённую тему, а другой — сделать то же самое, в результате чего картины получаются очень похожими.
Это, скорее всего, приведёт к спорам о правах собственности. Однако на сегодняшний день в мире ещё не принято решение о признании авторских прав на контент, созданный с помощью ИИ (признании авторства отдельных лиц, заказывающих креативный ИИ, или компаний, разрабатывающих приложения ИИ).
Изображение, созданное приложением ИИ
Трудно отличить настоящее от поддельного
Так может ли контент, создаваемый ИИ, нарушать авторские права? С технологической точки зрения, контент, создаваемый ИИ, синтезируется алгоритмами на основе данных, на которых он был обучен. Эти базы данных собираются разработчиками приложений ИИ из множества источников, в основном из баз знаний в интернете. Многие из этих работ защищены авторскими правами их владельцев.
27 декабря 2023 года газета The New York Times (США) подала в суд на OpenAI (совместно с ChatGPT) и Microsoft, утверждая, что миллионы их статей были использованы для обучения чат-ботов и платформ ИИ этих двух компаний. Доказательствами служат материалы, созданные чат-ботами по запросу пользователей и идентичные или похожие на содержание статей. Газета не может игнорировать случаи, когда их «интеллектуальная собственность» используется компаниями для получения прибыли.
The New York Times стала первой крупной американской газетой, подавшей иск о нарушении авторских прав, связанный с искусственным интеллектом. Возможно, в будущем и другие газеты последуют этому примеру, особенно после успеха The New York Times.
Ранее, в июле 2023 года, OpenAI заключила соглашение о лицензировании авторских прав с информационным агентством Associated Press, а в декабре 2023 года — с Axel Springer — немецким издателем, владеющим газетами Politico и Business Insider.
Актриса Сара Сильверман также присоединилась к иску в июле 2023 года, обвинив Meta и OpenAI в использовании её мемуаров в качестве учебного пособия для программ искусственного интеллекта. Многие писатели также выразили тревогу, когда выяснилось, что системы искусственного интеллекта поглотили десятки тысяч книг в своих базах данных, что привело к судебным искам со стороны таких авторов, как Джонатан Франзен и Джон Гришэм.
Тем временем фотосервис Getty Images также подал в суд на компанию ИИ за создание изображений на основе текстовых подсказок из-за несанкционированного использования защищенных авторским правом изображений компании...
Пользователи могут столкнуться с проблемами, связанными с авторскими правами, если «небрежно» используют «работы», которые они «создали» с помощью инструментов ИИ. Эксперты всегда рекомендуют использовать инструменты ИИ только для поиска, сбора данных и предоставления справочных рекомендаций.
С другой стороны, приложения на основе ИИ сбивают пользователей с толку, когда они не могут отличить истинность от ложности определённого контента. Издательства и редакции газет могут испытывать затруднения при получении рукописей. Преподавателям также сложно определить, используют ли работы студентов ИИ или нет.
Теперь сообществу придётся быть более бдительным, поскольку неизвестно, что правда, а что подделка. Например, обычному человеку будет сложно определить, была ли фотография «зачарована» или отредактирована искусственным интеллектом.
Необходимы правовые нормы по использованию ИИ
В ожидании появления прикладных инструментов, способных обнаруживать вмешательство ИИ, управляющим органам необходимо как можно скорее разработать чёткие и конкретные правовые нормы, регулирующие использование этой технологии для создания личного контента. Правовые нормы должны чётко демонстрировать всем, что контент и произведения подверглись вмешательству ИИ, например, по умолчанию маркировать водяными знаками изображения, обработанные ИИ.
Источник: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm






Комментарий (0)