owa9jl4othzdfxl13gzphyx13jiax1j7.jpg
انتظار می‌رود فناوری جدید، کلید حل مؤثر مشکل دیپ‌فیک باشد.

دیپ‌فیک اصطلاحی است که از ترکیب «یادگیری عمیق» و «جعل» ایجاد شده است. به عبارت ساده، این فناوری برای شبیه‌سازی و ایجاد محصولات صوتی، تصویری یا حتی ویدیویی جعلی است.

از زمان توسعه انفجاری هوش مصنوعی (AI) ، مشکل جعل عمیق (deepfake) به طور فزاینده‌ای رایج شده و موج‌هایی از اطلاعات نادرست را در مطبوعات منتشر کرده است. بنابراین، احراز هویت فعالانه منشأ تصاویر و ویدیوها یک مسئله فوری برای شرکت‌های پیشرو در زمینه دوربین در جهان است.

انتظار می‌رود سونی، کانن و نیکون دوربین‌های دیجیتالی را عرضه کنند که از امضاهای دیجیتال مستقیماً روی دوربین‌های بدون آینه (یا دوربین‌های دیجیتال DSLR) خود پشتیبانی می‌کنند. تلاش برای پیاده‌سازی امضاهای دیجیتال روی دوربین‌ها اقدامی بسیار مهم است که شواهدی از منشأ و یکپارچگی تصاویر ایجاد می‌کند.

این امضاهای دیجیتال شامل اطلاعاتی در مورد تاریخ، زمان، مکان، عکاس و غیرقابل دستکاری خواهند بود. این امر به ویژه برای عکاسان خبری و سایر متخصصانی که کارشان نیاز به احراز هویت دارد، بسیار مهم است.

سه غول صنعت دوربین بر سر یک استاندارد جهانی برای امضاهای دیجیتال سازگار با ابزار تأیید آنلاین Verify توافق کرده‌اند. این ابزار که توسط ائتلافی از سازمان‌های خبری جهانی، شرکت‌های فناوری و تولیدکنندگان دوربین راه‌اندازی شده است، امکان تأیید رایگان اصالت هر تصویری را فراهم می‌کند. اگر تصاویر با استفاده از هوش مصنوعی ایجاد یا اصلاح شوند، Verify آنها را به عنوان «تأیید بدون محتوا» علامت‌گذاری می‌کند.

اهمیت فناوری‌های ضد دیپ‌فیک ناشی از افزایش سریع دیپ‌فیک چهره‌های مشهوری مانند دونالد ترامپ، رئیس جمهور سابق آمریکا و فومیو کیشیدا ، نخست وزیر ژاپن است.

علاوه بر این، محققان دانشگاه تسینگهوا در چین یک مدل هوش مصنوعی مولد جدید توسعه داده‌اند که قادر به تولید حدود ۷۰۰۰۰۰ تصویر در روز است.

دیپ فیک ۰۱.jpg
فناوری جدید به بازیابی اعتماد و شکل‌دهی به درک ما از جهان کمک خواهد کرد.

علاوه بر سازندگان دوربین، سایر شرکت‌های فناوری نیز به مبارزه با جعل عمیق پیوسته‌اند. گوگل ابزاری را برای واترمارک دیجیتالی تصاویر تولید شده توسط هوش مصنوعی منتشر کرده است، در حالی که اینتل فناوری‌ای را توسعه داده است که تغییرات رنگ پوست در عکس‌ها را تجزیه و تحلیل می‌کند تا به تعیین اصالت آنها کمک کند. هیتاچی نیز در حال کار بر روی فناوری برای جلوگیری از کلاهبرداری هویت آنلاین است.

انتظار می‌رود این فناوری جدید در اوایل سال ۲۰۲۴ در دسترس قرار گیرد. سونی قصد دارد این فناوری را به رسانه‌ها معرفی کند و آزمایش‌های میدانی را در اکتبر ۲۰۲۳ انجام داده است. کانن با تامسون رویترز و آزمایشگاه حفاظت از داده‌های استارلینگ (یک موسسه تحقیقاتی که توسط دانشگاه استنفورد و دانشگاه کالیفرنیای جنوبی تأسیس شده است) برای بهبود بیشتر این فناوری همکاری می‌کند.

سازندگان دوربین امیدوارند که این فناوری جدید به بازگرداندن اعتماد عمومی به تصاویر کمک کند، که به نوبه خود درک ما از جهان را شکل می‌دهد.

(طبق گفته OL)

۵۰۰۰ دلار به فیسبوک پرداخت کرد تا ویدیوی کلاهبرداری سرمایه‌گذاری دیپ‌فیک را پخش کند

۵۰۰۰ دلار به فیسبوک پرداخت کرد تا ویدیوی کلاهبرداری سرمایه‌گذاری دیپ‌فیک را پخش کند

یک کلاهبردار بیش از ۵۰۰۰ دلار به فیسبوک پرداخت کرد تا یک ویدیوی دیپ‌فیک را برای ۱۰۰۰۰۰ نفر در استرالیا ارسال کند. این ویدیو مصاحبه‌ای را جعل کرده بود و از مردم می‌خواست برای سودهای کلان سرمایه‌گذاری کنند.
بدافزار جدید کنترل گوشی‌های هوشمند را به دست می‌گیرد، ویدیوهای دیپ فیک پیچیده‌تر می‌شوند

بدافزار جدید کنترل گوشی‌های هوشمند را به دست می‌گیرد، ویدیوهای دیپ فیک پیچیده‌تر می‌شوند

بدافزارهای جدید می‌توانند از موانع امنیتی عبور کرده و کنترل گوشی‌های هوشمند را به دست بگیرند؛ ویدیوهای دیپ‌فیک به طور فزاینده‌ای پیچیده و واقع‌گرایانه می‌شوند؛... از اخبار برجسته فناوری هفته گذشته هستند.
ویدیوهای دیپ‌فیک پیچیده‌تر و واقع‌گرایانه‌تر می‌شوند

ویدیوهای دیپ‌فیک پیچیده‌تر و واقع‌گرایانه‌تر می‌شوند

در زمینه‌ی توسعه‌ی روزافزون فناوری، ابزارهایی وجود دارند که امکان ساخت ویدیوهای دیپ‌فیک را فراهم می‌کنند که ۷۰ تا ۸۰ درصد واقعی هستند و هنگام مشاهده با چشم غیرمسلح به راحتی قابل تشخیص نیستند.
چه کاری نباید انجام داد

برای جلوگیری از افتادن در دام تماس‌های ویدیویی دیپ‌فیک که از انتقال وجه کلاهبرداری می‌کنند، چه باید کرد؟

اگر تماسی دریافت کردید که درخواست انتقال وجه فوری داشت، آرام باشید و ابتدا اطلاعات را تأیید کنید، زیرا به احتمال زیاد توسط یک تماس ویدیویی Deepfake کلاهبرداری شده‌اید.
از دیپ‌فیک برای قرار دادن چهره قربانیان در ویدیوهای پورن سوءاستفاده می‌شود

از دیپ‌فیک برای قرار دادن چهره قربانیان در ویدیوهای پورن سوءاستفاده می‌شود

هوش مصنوعی (AI) و جعل عمیق به تدریج توسط مجرمان سایبری برای اهداف شوم مورد سوءاستفاده قرار می‌گیرند و به ابزاری برای کلاهبرداری و حتی تحقیر دیگران تبدیل می‌شوند.