اگر تا به حال در رسانههای اجتماعی گشتی زده باشید، احتمالاً به یک تصویر یا ویدیوی تولید شده توسط هوش مصنوعی برخورد کردهاید. بسیاری از آنها فریب خوردهاند، مانند ویدیوی وایرال شدهی خرگوشهایی که روی ترامپولین میپرند. اما Sora، برنامهی خواهر ChatGPT که توسط OpenAI توسعه داده شده است، ویدیوی هوش مصنوعی را به سطح بالاتری میبرد و تشخیص محتوای جعلی را ضروری میکند.

ابزارهای ویدیویی هوش مصنوعی، تشخیص واقعیت را از همیشه دشوارتر میکنند. (منبع: CNET)
این اپلیکیشن که در سال ۲۰۲۴ راهاندازی شد و اخیراً با Sora 2 بهروزرسانی شده است، رابط کاربری شبیه به TikTok دارد که در آن هر ویدیو با هوش مصنوعی تولید میشود. ویژگی «حضور افتخاری» به افراد واقعی اجازه میدهد تا در فیلمهای شبیهسازی شده قرار گیرند و ویدیوهایی ایجاد کنند که آنقدر واقعگرایانه هستند که ترسناک به نظر میرسند.
در نتیجه، بسیاری از کارشناسان نگرانند که سورا با انتشار دیپفیک، باعث سردرگمی و محو شدن مرز بین واقعیت و جعل شود. افراد مشهور به ویژه در معرض این آسیبپذیری هستند و همین امر باعث شده سازمانهایی مانند SAG-AFTRA از OpenAI بخواهند تا حفاظتهای خود را تقویت کند.
شناسایی محتوای هوش مصنوعی چالش بزرگی برای شرکتهای فناوری، شبکههای اجتماعی و کاربران است. اما روشهایی برای تشخیص ویدیوهای ساخته شده با Sora وجود دارد.
واترمارک سورا را پیدا کنید

واترمارک Sora (فلش سبز رو به داخل) علامتی است که مشخص میکند کدام ابزار ویدیو را ایجاد کرده است. (منبع: CNET)
هر ویدیویی که در برنامه Sora iOS ایجاد میشود، هنگام دانلود یک واترمارک دریافت میکند - یک لوگوی سفید Sora (آیکون ابر) که در لبههای ویدیو حرکت میکند، شبیه به واترمارک TikTok.
این یک روش شهودی برای تشخیص محتوای تولید شده توسط هوش مصنوعی است. به عنوان مثال، مدل «نانو موز» گوگل در Gemini نیز به طور خودکار تصاویر را واترمارک میکند. با این حال، واترمارکها همیشه قابل اعتماد نیستند. اگر واترمارک ثابت باشد، میتوان آن را به راحتی برش داد. حتی واترمارکهای پویا مانند واترمارک Sora را میتوان با استفاده از برنامههای اختصاصی حذف کرد.
وقتی در این مورد از سم آلتمن، مدیرعامل OpenAI، سوال شد، او گفت که جامعه باید با این واقعیت سازگار شود که هر کسی میتواند ویدیوهای جعلی بسازد. قبل از Sora، چنین ابزاری که به طور گسترده در دسترس، قابل دسترس و بدون نیاز به مهارت باشد، وجود نداشت. دیدگاه او به لزوم تکیه بر سایر روشهای تأیید اشاره دارد.
بررسی متادیتا

بررسی فراداده - گامی کلیدی در تعیین اینکه آیا یک ویدیو توسط هوش مصنوعی، مانند Sora، تولید شده است یا خیر. (منبع: Canto)
ممکن است فکر کنید بررسی متادیتا خیلی پیچیده است، اما در واقع بسیار ساده و بسیار مؤثر است.
فراداده مجموعهای از اطلاعات است که به طور خودکار هنگام ایجاد محتوا به آن متصل میشود، مانند نوع دوربین، مکان، زمان فیلمبرداری و نام فایل. چه محتوای تولید شده توسط انسان و چه توسط هوش مصنوعی، فراداده در آن گنجانده شده است. در محتوای هوش مصنوعی، فراداده اغلب با اطلاعاتی همراه است که منشأ آن را تأیید میکند.
OpenAI عضوی از اتحاد منشأ و تأیید محتوا (C2PA) است، بنابراین ویدیوهای Sora حاوی فراداده C2PA خواهند بود. میتوانید با استفاده از ابزار تأیید ابتکار تأیید محتوا (Content Authentication Initiative) این موضوع را بررسی کنید:
نحوه بررسی متادیتا:
- به verify.contentauthenticity.org مراجعه کنید
- فایل را آپلود کنید تا بررسی شود
- روی «باز کردن» کلیک کنید
- اطلاعات را در جدول سمت راست مشاهده کنید.
اگر ویدیو توسط هوش مصنوعی تولید شده باشد، خلاصه آن نیز همین را نشان میدهد. وقتی یک ویدیوی Sora را بررسی میکنید، عبارت «منتشر شده توسط OpenAI» و اطلاعاتی را مشاهده خواهید کرد که تأیید میکند ویدیو با هوش مصنوعی تولید شده است. همه ویدیوهای Sora باید این اطلاعات را داشته باشند تا منشأ آنها تأیید شود.
منبع: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






نظر (0)