دیپفیک اکنون با افزایش تعداد کلاهبرداریهای مبتنی بر فناوری، به یک نگرانی عمده تبدیل شده است.
کارشناسان امنیتی پس از تحقیق در انجمنهای دارکنت، جایی که مجرمان سایبری اغلب فعالیت میکنند، دریافتند که مجرمان زیادی از دیپفیک برای کلاهبرداری استفاده میکنند، به طوری که تقاضا بسیار بیشتر از عرضه نرمافزار دیپفیک موجود در بازار است.
با پیشی گرفتن تقاضا از عرضه، کارشناسان کسپرسکی پیشبینی میکنند که کلاهبرداریهای دیپفیک با اشکال متنوعتر و پیچیدهتری افزایش خواهد یافت: از ارائه یک ویدیوی جعل هویت با کیفیت بالا گرفته تا استفاده از تصاویر افراد مشهور در پخش زنده جعلی در رسانههای اجتماعی، با وعده پرداخت دو برابر مبلغی که قربانی برای آنها ارسال کرده است.
طبق سیستم مرجع اطلاعات رگولا، ۳۷ درصد از کسبوکارها در سراسر جهان با کلاهبرداری صوتی دیپفیک مواجه شدهاند و ۲۹ درصد نیز قربانی ویدیوهای دیپفیک شدهاند.
این فناوری به تهدیدی برای امنیت سایبری در ویتنام تبدیل شده است، جایی که مجرمان سایبری اغلب از تماسهای ویدیویی جعلی برای جعل هویت افراد استفاده میکنند تا از اقوام و دوستانشان پول قرض بگیرند.
یک تماس ویدیویی دیپفیک میتواند فقط یک دقیقه طول بکشد، و تشخیص بین تماس واقعی و جعلی را برای قربانیان دشوار میکند.
دیپفیک به تدریج در حال تبدیل شدن به یک «کابوس» در کلاهبرداریهای پیچیده آنلاین است.
« دیپفیک به کابوسی برای زنان و جامعه تبدیل شده است. مجرمان سایبری از هوش مصنوعی برای قرار دادن چهره قربانیان در عکسها و ویدیوهای مستهجن و همچنین در کمپینهای تبلیغاتی سوءاستفاده میکنند.»
خانم وو دونگ تو دیم، مدیر منطقهای کسپرسکی در ویتنام، گفت: «هدف این فرمها دستکاری افکار عمومی با انتشار اطلاعات نادرست و حتی آسیب رساندن به اعتبار سازمانها یا افراد است. »
اگرچه هوش مصنوعی توسط مجرمان برای اهداف مخرب مورد سوءاستفاده قرار میگیرد، افراد و مشاغل هنوز هم میتوانند از خود هوش مصنوعی برای شناسایی دیپفیکها استفاده کنند و احتمال موفقیت کلاهبرداریها را کاهش دهند.
بر این اساس، کاربران برای محافظت از خود در برابر کلاهبرداریها، راهکارهای مفیدی مانند استفاده از نرمافزار تشخیص محتوای تولید شده توسط هوش مصنوعی (با استفاده از الگوریتمهای پیشرفته برای تجزیه و تحلیل و تعیین سطح ویرایش تصاویر/فیلمها/صداها) خواهند داشت.
برای ویدیوهای دیپفیک، ابزارهایی وجود دارند که میتوانند حرکات دهان و گفتار نامتناسب را تشخیص دهند. برخی از برنامهها حتی به اندازهای قدرتمند هستند که با تجزیه و تحلیل وضوح ویدیو، جریان خون غیرطبیعی زیر پوست را تشخیص میدهند، زیرا رگهای انسان هنگام پمپاژ خون توسط قلب تغییر رنگ میدهند.
علاوه بر این، یک واترمارک نیز وجود دارد که به عنوان علامت شناسایی در تصاویر، ویدیوها و غیره عمل میکند تا به نویسندگان در محافظت از حق چاپ محصولات هوش مصنوعی کمک کند. این ویژگی میتواند به سلاحی علیه دیپفیک تبدیل شود زیرا به ردیابی منشأ پلتفرمی که هوش مصنوعی را ایجاد میکند کمک میکند. کاربرانی که سطح دانش فناوری بالایی دارند میتوانند راهی برای ردیابی منشأ محتوا پیدا کنند تا مقایسه کنند که چگونه دادههای اصلی توسط "دستهای" هوش مصنوعی ویرایش شدهاند.
در حال حاضر، برخی از فناوریهای نوظهور از الگوریتمهای رمزگذاری برای درج مقادیر هش در فواصل زمانی مشخص در ویدیو استفاده میکنند. اگر ویدیو ویرایش شده باشد، مقدار هش تغییر میکند و از آنجا کاربران میتوانند تأیید کنند که آیا محتوا دستکاری شده است یا خیر.
در گذشته آموزشهایی در مورد یافتن ناهنجاریها در ویدیوها، مانند انحراف رنگ، حرکات غیرطبیعی عضلات، حرکات چشم و... وجود داشته است. با این حال، هوش مصنوعی در حال هوشمندتر شدن است، بنابراین این مقادیر همیشه نتایج صحیحی ارائه نمیدهند.
فرآیند تأیید اعتبار ویدیوها دیگر مبتنی بر چشم غیرمسلح نیست، بلکه به ابزارهای تکنولوژیکی نیاز دارد که با هدف جلوگیری و تشخیص محتوای جعلی ایجاد شدهاند.
خان لین
منبع
نظر (0)