دیپفیک اصطلاحی است که از ترکیب «یادگیری عمیق» و «جعل» ایجاد شده است. به عبارت ساده، این فناوری برای شبیهسازی و ایجاد محصولات صوتی، تصویری یا حتی ویدیویی جعلی است.
از زمان توسعه انفجاری هوش مصنوعی (AI) ، مشکل جعل عمیق (deepfake) به طور فزایندهای رایج شده و موجهایی از اطلاعات نادرست را در مطبوعات منتشر کرده است. بنابراین، احراز هویت فعالانه منشأ تصاویر و ویدیوها یک مسئله فوری برای شرکتهای پیشرو در زمینه دوربین در جهان است.
انتظار میرود سونی، کانن و نیکون دوربینهای دیجیتالی را عرضه کنند که از امضاهای دیجیتال مستقیماً روی دوربینهای بدون آینه (یا دوربینهای دیجیتال DSLR) خود پشتیبانی میکنند. تلاش برای پیادهسازی امضاهای دیجیتال روی دوربینها اقدامی بسیار مهم است که شواهدی از منشأ و یکپارچگی تصاویر ایجاد میکند.
این امضاهای دیجیتال شامل اطلاعاتی در مورد تاریخ، زمان، مکان، عکاس و غیرقابل دستکاری خواهند بود. این امر به ویژه برای عکاسان خبری و سایر متخصصانی که کارشان نیاز به احراز هویت دارد، بسیار مهم است.
سه غول صنعت دوربین بر سر یک استاندارد جهانی برای امضاهای دیجیتال سازگار با ابزار تأیید آنلاین Verify توافق کردهاند. این ابزار که توسط ائتلافی از سازمانهای خبری جهانی، شرکتهای فناوری و تولیدکنندگان دوربین راهاندازی شده است، امکان تأیید رایگان اصالت هر تصویری را فراهم میکند. اگر تصاویر با استفاده از هوش مصنوعی ایجاد یا اصلاح شوند، Verify آنها را به عنوان «تأیید بدون محتوا» علامتگذاری میکند.
اهمیت فناوریهای ضد دیپفیک ناشی از افزایش سریع دیپفیک چهرههای مشهوری مانند دونالد ترامپ، رئیس جمهور سابق آمریکا و فومیو کیشیدا ، نخست وزیر ژاپن است.
علاوه بر این، محققان دانشگاه تسینگهوا در چین یک مدل هوش مصنوعی مولد جدید توسعه دادهاند که قادر به تولید حدود ۷۰۰۰۰۰ تصویر در روز است.
علاوه بر سازندگان دوربین، سایر شرکتهای فناوری نیز به مبارزه با جعل عمیق پیوستهاند. گوگل ابزاری را برای واترمارک دیجیتالی تصاویر تولید شده توسط هوش مصنوعی منتشر کرده است، در حالی که اینتل فناوریای را توسعه داده است که تغییرات رنگ پوست در عکسها را تجزیه و تحلیل میکند تا به تعیین اصالت آنها کمک کند. هیتاچی نیز در حال کار بر روی فناوری برای جلوگیری از کلاهبرداری هویت آنلاین است.
انتظار میرود این فناوری جدید در اوایل سال ۲۰۲۴ در دسترس قرار گیرد. سونی قصد دارد این فناوری را به رسانهها معرفی کند و آزمایشهای میدانی را در اکتبر ۲۰۲۳ انجام داده است. کانن با تامسون رویترز و آزمایشگاه حفاظت از دادههای استارلینگ (یک موسسه تحقیقاتی که توسط دانشگاه استنفورد و دانشگاه کالیفرنیای جنوبی تأسیس شده است) برای بهبود بیشتر این فناوری همکاری میکند.
سازندگان دوربین امیدوارند که این فناوری جدید به بازگرداندن اعتماد عمومی به تصاویر کمک کند، که به نوبه خود درک ما از جهان را شکل میدهد.
(طبق گفته OL)
۵۰۰۰ دلار به فیسبوک پرداخت کرد تا ویدیوی کلاهبرداری سرمایهگذاری دیپفیک را پخش کند
بدافزار جدید کنترل گوشیهای هوشمند را به دست میگیرد، ویدیوهای دیپ فیک پیچیدهتر میشوند
ویدیوهای دیپفیک پیچیدهتر و واقعگرایانهتر میشوند
برای جلوگیری از افتادن در دام تماسهای ویدیویی دیپفیک که از انتقال وجه کلاهبرداری میکنند، چه باید کرد؟
از دیپفیک برای قرار دادن چهره قربانیان در ویدیوهای پورن سوءاستفاده میشود
منبع






نظر (0)