Vietnam.vn - Nền tảng quảng bá Việt Nam

Как отличить настоящее видео от видео, созданного искусственным интеллектом.

Благодаря Sora AI, позволяющей любому создавать гиперреалистичные дипфейк-видео, умение отличать настоящие видео от поддельных (дипфейк) стало важнейшим навыком выживания в цифровую эпоху.

VTC NewsVTC News26/10/2025

Если вы когда-либо просматривали социальные сети, скорее всего, вы сталкивались с изображениями или видео, созданными искусственным интеллектом. Многих обманули, как, например, с вирусным видео, где кролики прыгают на батуте. Но Sora — приложение-близнец ChatGPT, разработанное OpenAI, — выводит видео, созданное с помощью ИИ, на новый уровень, делая обнаружение фейкового контента все более актуальным.

Инструменты искусственного интеллекта для анализа видео затрудняют идентификацию подлинных видеороликов. (Источник: CNET)

Инструменты искусственного интеллекта для анализа видео затрудняют идентификацию подлинных видеороликов. (Источник: CNET)

Запущенное в 2024 году и недавно обновленное до Sora 2, это приложение имеет интерфейс, похожий на TikTok, где все видео генерируются искусственным интеллектом. Функция «камео» позволяет вставлять реальных людей в смоделированные видеоролики, создавая пугающе реалистичные видео.

Поэтому многие эксперты опасаются, что Sora приведет к распространению дипфейков, искажению информации и размыванию границ между реальностью и вымыслом. Знаменитости особенно уязвимы, поэтому такие организации, как SAG-AFTRA, призывают OpenAI усилить защиту.

Распознавание контента, созданного с помощью ИИ, является серьезной проблемой как для технологических компаний, так и для социальных сетей и пользователей. Но существуют способы распознавания видеороликов, созданных с помощью Sora.

Найдите водяной знак Sora

Водяной знак Sora (обозначен синей стрелкой) — это маркер, указывающий на инструмент, использованный для создания видео. (Источник: CNET)

Водяной знак Sora (обозначен синей стрелкой) — это маркер, указывающий на инструмент, использованный для создания видео. (Источник: CNET)

Каждое видео, созданное в приложении Sora для iOS, при загрузке содержит водяной знак – белый логотип Sora (значок облака) перемещается по краям видео, подобно водяному знаку TikTok.

Это визуальный способ идентификации контента, созданного с помощью ИИ. Например, модель «нано-банана» от Google Gemini также автоматически добавляет водяной знак к изображениям. Однако водяные знаки не всегда надежны. Если водяной знак статичный, его легко можно удалить. Даже динамические водяные знаки, такие как у Соры, можно удалить с помощью специализированных приложений.

Отвечая на вопрос по этому поводу, генеральный директор OpenAI Сэм Альтман заявил, что обществу необходимо адаптироваться к реальности, в которой любой может создавать поддельные видеоролики. До появления Sora не существовало инструмента, который был бы настолько популярен, доступен и не требовал бы никаких специальных навыков для создания подобных видео. Его точка зрения подчеркивает необходимость использования альтернативных методов проверки.

Проверьте метаданные

Проверка метаданных — важнейший шаг в определении того, было ли видео создано искусственным интеллектом, например, Sora. (Источник: Canto)

Проверка метаданных — важнейший шаг в определении того, было ли видео создано искусственным интеллектом, например, Sora. (Источник: Canto)

Возможно, вам покажется, что проверка метаданных слишком сложна, но на самом деле это довольно просто и очень эффективно.

Метаданные — это набор информации, автоматически добавляемой к контенту при его создании, например, тип камеры, местоположение, время записи и имя файла. Независимо от того, создан ли контент человеком или искусственным интеллектом, он содержит метаданные. В случае контента, созданного искусственным интеллектом, метаданные часто включают информацию об источнике.

OpenAI является членом Коалиции за происхождение и подлинность контента (C2PA), поэтому видеоролики Sora будут содержать метаданные C2PA. Вы можете проверить это с помощью инструмента проверки подлинности контента:

Как проверить метаданные:

  • Посетите verify.contentauthenticity.org
  • Загрузите файл для проверки.
  • Нажмите «Открыть»
  • См. информацию в таблице справа.

Если видео создано с помощью ИИ, это будет четко указано в описании. При проверке видео Соры вы увидите строку «опубликовано OpenAI» и информацию, подтверждающую, что видео создано с использованием ИИ. Все видео Соры должны содержать эту информацию для подтверждения их происхождения.

Г-н Куанг

Источник: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html


Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же тема

Та же категория

Крупный план мастерской по изготовлению светодиодной звезды для собора Нотр-Дам.
Особенно впечатляет восьмиметровая рождественская звезда, освещающая собор Нотр-Дам в Хошимине.
Хуинь Нху вошла в историю Игр Юго-Восточной Азии: рекорд, который будет очень трудно побить.
Потрясающая церковь на шоссе № 51 была украшена рождественской иллюминацией, привлекая внимание всех проезжающих мимо.

Тот же автор

Наследство

Фигура

Предприятия

Фермеры в цветочной деревне Са Дек заняты уходом за своими цветами в рамках подготовки к празднику и Тету (Лунному Новому году) 2026 года.

Текущие события

Политическая система

Местный

Продукт