Vietnam.vn - Nền tảng quảng bá Việt Nam

Как отличить настоящее видео от видео, созданного искусственным интеллектом.

Благодаря Sora AI, позволяющей любому создавать гиперреалистичные дипфейк-видео, умение отличать настоящие видео от поддельных (дипфейк) стало важнейшим навыком выживания в цифровую эпоху.

VTC NewsVTC News26/10/2025

Если вы когда-либо просматривали социальные сети, скорее всего, вы сталкивались с изображениями или видео, созданными искусственным интеллектом. Многих обманули, как, например, с вирусным видео, где кролики прыгают на батуте. Но Sora — приложение-близнец ChatGPT, разработанное OpenAI, — выводит видео, созданное с помощью ИИ, на новый уровень, делая обнаружение фейкового контента все более актуальным.

Инструменты искусственного интеллекта для анализа видео затрудняют идентификацию подлинных видеороликов. (Источник: CNET)

Инструменты искусственного интеллекта для анализа видео затрудняют идентификацию подлинных видеороликов. (Источник: CNET)

Запущенное в 2024 году и недавно обновленное до Sora 2, это приложение имеет интерфейс, похожий на TikTok, где все видео генерируются искусственным интеллектом. Функция «камео» позволяет вставлять реальных людей в смоделированные видеоролики, создавая пугающе реалистичные видео.

Поэтому многие эксперты опасаются, что Sora приведет к распространению дипфейков, искажению информации и размыванию границ между реальностью и вымыслом. Знаменитости особенно уязвимы, поэтому такие организации, как SAG-AFTRA, призывают OpenAI усилить защиту.

Распознавание контента, созданного с помощью ИИ, является серьезной проблемой как для технологических компаний, так и для социальных сетей и пользователей. Но существуют способы распознавания видеороликов, созданных с помощью Sora.

Найдите водяной знак Sora

Водяной знак Sora (обозначен синей стрелкой) — это маркер, указывающий на инструмент, использованный для создания видео. (Источник: CNET)

Водяной знак Sora (обозначен синей стрелкой) — это маркер, указывающий на инструмент, использованный для создания видео. (Источник: CNET)

Каждое видео, созданное в приложении Sora для iOS, при загрузке содержит водяной знак – белый логотип Sora (значок облака) перемещается по краям видео, подобно водяному знаку TikTok.

Это визуальный способ идентификации контента, созданного с помощью ИИ. Например, модель «нано-банана» от Google Gemini также автоматически добавляет водяной знак к изображениям. Однако водяные знаки не всегда надежны. Если водяной знак статичный, его легко можно удалить. Даже динамические водяные знаки, такие как у Соры, можно удалить с помощью специализированных приложений.

Отвечая на вопрос по этому поводу, генеральный директор OpenAI Сэм Альтман заявил, что обществу необходимо адаптироваться к реальности, в которой любой может создавать поддельные видеоролики. До появления Sora не существовало инструмента, который был бы настолько популярен, доступен и не требовал бы никаких специальных навыков для создания подобных видео. Его точка зрения подчеркивает необходимость использования альтернативных методов проверки.

Проверьте метаданные

Проверка метаданных — важнейший шаг в определении того, было ли видео создано искусственным интеллектом, например, Sora. (Источник: Canto)

Проверка метаданных — важнейший шаг в определении того, было ли видео создано искусственным интеллектом, например, Sora. (Источник: Canto)

Возможно, вам покажется, что проверка метаданных слишком сложна, но на самом деле это довольно просто и очень эффективно.

Метаданные — это набор информации, автоматически добавляемой к контенту при его создании, например, тип камеры, местоположение, время записи и имя файла. Независимо от того, создан ли контент человеком или искусственным интеллектом, он содержит метаданные. В случае контента, созданного искусственным интеллектом, метаданные часто включают информацию об источнике.

OpenAI является членом Коалиции за происхождение и подлинность контента (C2PA), поэтому видеоролики Sora будут содержать метаданные C2PA. Вы можете проверить это с помощью инструмента проверки подлинности контента:

Как проверить метаданные:

  • Посетите verify.contentauthenticity.org
  • Загрузите файл для проверки.
  • Нажмите «Открыть»
  • См. информацию в таблице справа.

Если видео создано с помощью ИИ, это будет четко указано в описании. При проверке видео Соры вы увидите строку «опубликовано OpenAI» и информацию, подтверждающую, что видео создано с использованием ИИ. Все видео Соры должны содержать эту информацию для подтверждения их происхождения.

Г-н Куанг

Источник: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html


Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же тема

Та же категория

Тот же автор

Наследство

Фигура

Предприятия

Актуальные события

Политическая система

Местный

Продукт

Happy Vietnam
Культура высокой гибкости

Культура высокой гибкости

К нему

К нему

Испытайте счастье

Испытайте счастье