Если вы когда-либо просматривали социальные сети, скорее всего, вы сталкивались с изображениями или видео, созданными искусственным интеллектом. Многие были обмануты, например, вирусное видео с кроликами, прыгающими на батуте. Но Sora, родственное приложение ChatGPT, разработанное OpenAI, выводит видео с искусственным интеллектом на новый уровень, делая выявление поддельного контента крайне важным.

Инструменты искусственного интеллекта для обработки видео усложняют задачу определения реальности происходящего. (Источник: CNET)
Приложение, выпущенное в 2024 году и недавно обновлённое до версии Sora 2, имеет интерфейс, похожий на TikTok, где каждое видео генерируется искусственным интеллектом. Функция «камео» позволяет вставлять реальных людей в смоделированные кадры, создавая настолько реалистичные, что даже пугающие видео.
В результате многие эксперты опасаются, что Сора будет распространять дипфейки, создавая путаницу и размывая границы между реальностью и фейком. Знаменитости особенно уязвимы, поэтому такие организации, как SAG-AFTRA, призывают OpenAI усилить защиту.
Распознавание контента, созданного с помощью ИИ, — сложная задача как для технологических компаний, так и для социальных сетей и пользователей. Но существуют способы распознавать видео, созданные с помощью Sora.
Найти водяной знак Сора

Водяной знак Sora (зелёная стрелка, направленная внутрь) — это знак, позволяющий определить, какой инструмент создал видео. (Источник: CNET)
Каждое видео, созданное в приложении Sora для iOS, при загрузке получает водяной знак — белый логотип Sora (значок облака), который перемещается по краям видео, аналогично водяному знаку TikTok.
Это интуитивно понятный способ распознавания контента, созданного ИИ. Например, модель Gemini «nano banana» от Google также автоматически добавляет водяные знаки на изображения. Однако водяные знаки не всегда надёжны. Если водяной знак статичный, его можно легко обрезать. Даже динамические водяные знаки, такие как у Соры, можно удалить с помощью специальных приложений.
Отвечая на этот вопрос, генеральный директор OpenAI Сэм Альтман заявил, что обществу необходимо адаптироваться к тому, что создавать поддельные видео может каждый. До появления Sora не существовало такого инструмента, который был бы широко доступен, доступен и не требовал бы специальных навыков. Его мнение указывает на необходимость использования других методов проверки.
Проверить метаданные

Проверка метаданных — ключевой этап определения того, сгенерировано ли видео с помощью искусственного интеллекта, например, Sora. (Источник: Canto)
Вы можете подумать, что проверка метаданных слишком сложна, но на самом деле это довольно просто и очень эффективно.
Метаданные — это набор информации, автоматически добавляемой к контенту при его создании, такой как тип камеры, место, время съёмки и имя файла. Метаданные включаются в контент, независимо от того, создан ли он человеком или искусственным интеллектом. В случае с контентом, созданным искусственным интеллектом, метаданные часто сопровождают информацию, подтверждающую его происхождение.
OpenAI является членом Альянса по происхождению и аутентификации контента (C2PA), поэтому видео Sora будут содержать метаданные C2PA. Вы можете проверить это, воспользовавшись инструментом верификации от Инициативы по аутентификации контента:
Как проверить метаданные:
- Посетите verify.contentauthenticity.org
- Загрузите файл для проверки
- Нажмите «Открыть».
- Смотрите информацию в таблице справа.
Если видео создано с помощью ИИ, в описании будет указано именно это. При проверке видео Sora вы увидите пометку «Опубликовано OpenAI» и информацию, подтверждающую, что видео создано с помощью ИИ. Все видео Sora должны содержать эту информацию для подтверждения их происхождения.
Источник: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Комментарий (0)