دیپ فیک اکنون به یک نگرانی عمده تبدیل شده است، زیرا تعداد کلاهبرداریهایی که از این فناوری استفاده میکنند همچنان رو به افزایش است.
کارشناسان امنیتی پس از تحقیق در انجمنهای دارکنت، جایی که مجرمان سایبری اغلب در آن فعالیت میکنند، دریافتند که تعداد زیادی از مجرمان از نرمافزار دیپفیک برای کلاهبرداری استفاده میکنند و تقاضا بسیار بیشتر از عرضه نرمافزار دیپفیک موجود در بازار است.
با افزایش تقاضا نسبت به عرضه، کارشناسان کسپرسکی پیشبینی میکنند که کلاهبرداریهای دیپفیک با روشهای متنوعتر و پیچیدهتری افزایش یابد: از ارائه ویدیوهای جعلی با کیفیت بالا گرفته تا استفاده از تصاویر افراد مشهور در پخش زنده جعلی در رسانههای اجتماعی، با وعده دو برابر کردن مبلغی که قربانیان برای آنها ارسال میکنند.
طبق سیستم مرجع اطلاعات رگولا، ۳۷ درصد از کسبوکارها در سراسر جهان کلاهبرداریهای دیپفیک مبتنی بر صدا را تجربه کردهاند و ۲۹ درصد قربانی کلاهبرداریهای دیپفیک مبتنی بر ویدیو شدهاند.
این فناوری به تهدیدی برای امنیت سایبری ویتنام تبدیل شده است، جایی که مجرمان سایبری اغلب از تماسهای ویدیویی جعلی برای جعل هویت افراد استفاده میکنند تا از اقوام و دوستان آنها پول قرض بگیرند.
یک تماس ویدیویی دیپفیک میتواند تنها یک دقیقه طول بکشد و تشخیص تماس واقعی از جعلی را برای قربانیان بسیار دشوار میکند.
جعل عمیق به تدریج در کلاهبرداریهای پیچیده آنلاین به یک «کابوس» تبدیل میشود.
« دیپفیک به کابوسی برای زنان و جامعه تبدیل شده است. مجرمان سایبری از هوش مصنوعی برای قرار دادن چهره قربانیان روی تصاویر و ویدیوهای مستهجن و همچنین در کمپینهای تبلیغاتی سوءاستفاده میکنند.»
خانم وو دونگ تو دیم، مدیر منطقهای کسپرسکی ویتنام، گفت : «هدف این نوع دستکاریها کنترل افکار عمومی با انتشار اطلاعات نادرست و حتی آسیب رساندن به اعتبار سازمانها یا افراد است. »
اگرچه هوش مصنوعی توسط مجرمان برای اهداف شوم مورد سوءاستفاده قرار میگیرد، اما افراد و مشاغل هنوز هم میتوانند از هوش مصنوعی برای شناسایی دیپفیکها استفاده کنند و احتمال کلاهبرداریهای موفق را کاهش دهند.
بر این اساس، کاربران چندین راهکار مفید برای محافظت از خود در برابر کلاهبرداریها خواهند داشت، مانند استفاده از نرمافزارهای تشخیص محتوای تولید شده توسط هوش مصنوعی (که از الگوریتمهای پیشرفته برای تجزیه و تحلیل و تعیین میزان ویرایش تصاویر/ویدیوها/صدا استفاده میکنند).
برای ویدیوهای دیپفیک، اکنون ابزارهایی وجود دارد که به شناسایی حرکات نامتناسب بین دهان و گفتار کمک میکند. برخی از برنامهها حتی به اندازه کافی «قدرتمند» هستند که با تجزیه و تحلیل وضوح ویدیو، جریان خون غیرطبیعی زیر پوست را تشخیص دهند، زیرا وقتی قلب خون را پمپاژ میکند، رگهای بدن فرد تغییر رنگ میدهند.
علاوه بر این، واترمارکها به عنوان علائم شناسایی در تصاویر، ویدیوها و غیره عمل میکنند و به نویسندگان کمک میکنند تا از حق چاپ محصولات هوش مصنوعی خود محافظت کنند. این ویژگی میتواند به سلاحی علیه دیپفیک تبدیل شود زیرا به ردیابی منشأ پلتفرمی که هوش مصنوعی را ایجاد کرده است کمک میکند. کاربران آگاه به فناوری میتوانند راههایی برای ردیابی منبع محتوا پیدا کنند تا نحوه تغییر دادههای اصلی توسط هوش مصنوعی را مقایسه کنند.
در حال حاضر، برخی از فناوریهای نوظهور از الگوریتمهای رمزگذاری برای درج مقادیر هش در فواصل زمانی مشخص در ویدیو استفاده میکنند. اگر ویدیو ویرایش شده باشد، مقدار هش تغییر میکند و به کاربران امکان میدهد تا بررسی کنند که آیا محتوا دستکاری شده است یا خیر.
پیش از این، دستورالعملهایی برای یافتن ناهنجاریها در ویدیوها، مانند اعوجاج رنگ، حرکات غیرطبیعی عضلات، حرکات چشم و غیره وجود داشت. با این حال، با هوشمندتر شدن روزافزون هوش مصنوعی، این مقادیر همیشه نتایج دقیقی ارائه نمیدهند.
فرآیند تأیید اعتبار ویدیوها دیگر به بازرسی بصری متکی نیست، بلکه به ابزارهای فناوری نیاز دارد که برای جلوگیری و تشخیص محتوای جعلی طراحی شدهاند.
خان لین
منبع






نظر (0)