Якщо ви коли-небудь гортали соціальні мережі, то, ймовірно, натрапляли на зображення чи відео, створені штучним інтелектом. Багатьох обдурили, як-от вірусне відео з кроликами, що стрибають на батуті. Але Sora, дочірній додаток ChatGPT, розроблений OpenAI, виводить відео зі штучним інтелектом на новий рівень, роблячи вкрай важливим виявлення фейкового контенту.

Інструменти штучного інтелекту для відео роблять визначення реальності складнішим, ніж будь-коли. (Джерело: CNET)
Запущений у 2024 році та нещодавно оновлений у Sora 2, додаток має інтерфейс, схожий на TikTok, де кожне відео генерується штучним інтелектом. Функція «камео» дозволяє вставляти реальних людей у симульовані кадри, створюючи відео, які настільки реалістичні, що аж лякають.
В результаті багато експертів побоюються, що Сора поширюватиме діпфейки, створюючи плутанину та розмиваючи межі між реальним та фейковим. Знаменитості особливо вразливі, що спонукає такі організації, як SAG-AFTRA, закликати OpenAI посилити свій захист.
Ідентифікація контенту, створеного на основі штучного інтелекту, є великим викликом як для технологічних компаній, соціальних мереж, так і для користувачів. Але існують способи розпізнавання відео, створених за допомогою Sora.
Знайти водяний знак Сори

Водяний знак Sora (зелена стрілка, що вказує всередину) – це знак, який ідентифікує інструмент, що створив відео. (Джерело: CNET)
Кожне відео, створене в додатку Sora для iOS, отримує водяний знак після завантаження – білий логотип Sora (значок хмари), який рухається по краях відео, подібно до водяного знака TikTok.
Це інтуїтивно зрозумілий спосіб розпізнавання контенту, згенерованого штучним інтелектом. Наприклад, модель Google Gemini «nano banana» також автоматично додає водяні знаки на зображення. Однак водяні знаки не завжди надійні. Якщо водяний знак статичний, його можна легко обрізати. Навіть динамічні водяні знаки, такі як у Sora, можна видалити за допомогою спеціальних програм.
Коли генерального директора OpenAI Сема Альтмана запитали про це, він сказав, що суспільству потрібно адаптуватися до того факту, що будь-хто може створювати фейкові відео. До Sora не було такого інструменту, який був би широкодоступним, доступним і не вимагав би жодних навичок. Його думка вказує на необхідність покладатися на інші методи перевірки.
Перевірити метадані

Перевірка метаданих – ключовий крок у визначенні того, чи відео згенеровано штучним інтелектом, таким як Sora. (Джерело: Canto)
Ви можете подумати, що перевірка метаданих надто складна, але насправді це досить просто та дуже ефективно.
Метадані – це набір інформації, яка автоматично додається до контенту під час його створення, як-от тип камери, місцезнаходження, час зйомки та ім'я файлу. Незалежно від того, чи це контент, створений людиною, чи штучним інтелектом, метадані включаються. У випадку контенту, створеного штучним інтелектом, метадані часто супроводжують інформацію, яка підтверджує його походження.
OpenAI є членом Альянсу з питань походження та автентифікації контенту (C2PA), тому відео Sora міститимуть метадані C2PA. Ви можете перевірити це за допомогою інструмента верифікації Ініціативи з автентифікації контенту:
Як перевірити метадані:
- Відвідайте verify.contentauthenticity.org
- Завантажте файл для перевірки
- Натисніть «Відкрити»
- Дивіться інформацію в таблиці праворуч.
Якщо відео було створено за допомогою штучного інтелекту, у зведенні буде зазначено про це. Коли ви перевірите відео Sora, ви побачите напис «опубліковано OpenAI» та інформацію, що підтверджує, що відео було створено за допомогою штучного інтелекту. Усі відео Sora повинні містити цю інформацію для перевірки їхнього походження.
Джерело: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Коментар (0)