Vietnam.vn - Nền tảng quảng bá Việt Nam

چگونه کلاهبرداری‌هایی که از دیپ‌فیک سوءاستفاده می‌کنند را شناسایی کنیم؟

VTC NewsVTC News21/10/2023


دیپ‌فیک اکنون با افزایش تعداد کلاهبرداری‌های مبتنی بر فناوری، به یک نگرانی عمده تبدیل شده است.

کارشناسان امنیتی پس از تحقیق در انجمن‌های دارک‌نت، جایی که مجرمان سایبری اغلب فعالیت می‌کنند، دریافتند که مجرمان زیادی از دیپ‌فیک برای کلاهبرداری استفاده می‌کنند، به طوری که تقاضا بسیار بیشتر از عرضه نرم‌افزار دیپ‌فیک موجود در بازار است.

با پیشی گرفتن تقاضا از عرضه، کارشناسان کسپرسکی پیش‌بینی می‌کنند که کلاهبرداری‌های دیپ‌فیک با اشکال متنوع‌تر و پیچیده‌تری افزایش خواهد یافت: از ارائه یک ویدیوی جعل هویت با کیفیت بالا گرفته تا استفاده از تصاویر افراد مشهور در پخش زنده جعلی در رسانه‌های اجتماعی، با وعده پرداخت دو برابر مبلغی که قربانی برای آنها ارسال کرده است.

طبق سیستم مرجع اطلاعات رگولا، ۳۷ درصد از کسب‌وکارها در سراسر جهان با کلاهبرداری صوتی دیپ‌فیک مواجه شده‌اند و ۲۹ درصد نیز قربانی ویدیوهای دیپ‌فیک شده‌اند.

این فناوری به تهدیدی برای امنیت سایبری در ویتنام تبدیل شده است، جایی که مجرمان سایبری اغلب از تماس‌های ویدیویی جعلی برای جعل هویت افراد استفاده می‌کنند تا از اقوام و دوستانشان پول قرض بگیرند.

یک تماس ویدیویی دیپ‌فیک می‌تواند فقط یک دقیقه طول بکشد، و تشخیص بین تماس واقعی و جعلی را برای قربانیان دشوار می‌کند.

دیپ‌فیک به تدریج در حال تبدیل شدن به یک «کابوس» در کلاهبرداری‌های پیچیده آنلاین است.

دیپ‌فیک به تدریج در حال تبدیل شدن به یک «کابوس» در کلاهبرداری‌های پیچیده آنلاین است.

« دیپ‌فیک به کابوسی برای زنان و جامعه تبدیل شده است. مجرمان سایبری از هوش مصنوعی برای قرار دادن چهره قربانیان در عکس‌ها و ویدیوهای مستهجن و همچنین در کمپین‌های تبلیغاتی سوءاستفاده می‌کنند.»

خانم وو دونگ تو دیم، مدیر منطقه‌ای کسپرسکی در ویتنام، گفت: «هدف این فرم‌ها دستکاری افکار عمومی با انتشار اطلاعات نادرست و حتی آسیب رساندن به اعتبار سازمان‌ها یا افراد است. »

اگرچه هوش مصنوعی توسط مجرمان برای اهداف مخرب مورد سوءاستفاده قرار می‌گیرد، افراد و مشاغل هنوز هم می‌توانند از خود هوش مصنوعی برای شناسایی دیپ‌فیک‌ها استفاده کنند و احتمال موفقیت کلاهبرداری‌ها را کاهش دهند.

بر این اساس، کاربران برای محافظت از خود در برابر کلاهبرداری‌ها، راهکارهای مفیدی مانند استفاده از نرم‌افزار تشخیص محتوای تولید شده توسط هوش مصنوعی (با استفاده از الگوریتم‌های پیشرفته برای تجزیه و تحلیل و تعیین سطح ویرایش تصاویر/فیلم‌ها/صداها) خواهند داشت.

برای ویدیوهای دیپ‌فیک، ابزارهایی وجود دارند که می‌توانند حرکات دهان و گفتار نامتناسب را تشخیص دهند. برخی از برنامه‌ها حتی به اندازه‌ای قدرتمند هستند که با تجزیه و تحلیل وضوح ویدیو، جریان خون غیرطبیعی زیر پوست را تشخیص می‌دهند، زیرا رگ‌های انسان هنگام پمپاژ خون توسط قلب تغییر رنگ می‌دهند.

علاوه بر این، یک واترمارک نیز وجود دارد که به عنوان علامت شناسایی در تصاویر، ویدیوها و غیره عمل می‌کند تا به نویسندگان در محافظت از حق چاپ محصولات هوش مصنوعی کمک کند. این ویژگی می‌تواند به سلاحی علیه دیپ‌فیک تبدیل شود زیرا به ردیابی منشأ پلتفرمی که هوش مصنوعی را ایجاد می‌کند کمک می‌کند. کاربرانی که سطح دانش فناوری بالایی دارند می‌توانند راهی برای ردیابی منشأ محتوا پیدا کنند تا مقایسه کنند که چگونه داده‌های اصلی توسط "دست‌های" هوش مصنوعی ویرایش شده‌اند.

در حال حاضر، برخی از فناوری‌های نوظهور از الگوریتم‌های رمزگذاری برای درج مقادیر هش در فواصل زمانی مشخص در ویدیو استفاده می‌کنند. اگر ویدیو ویرایش شده باشد، مقدار هش تغییر می‌کند و از آنجا کاربران می‌توانند تأیید کنند که آیا محتوا دستکاری شده است یا خیر.

در گذشته آموزش‌هایی در مورد یافتن ناهنجاری‌ها در ویدیوها، مانند انحراف رنگ، حرکات غیرطبیعی عضلات، حرکات چشم و... وجود داشته است. با این حال، هوش مصنوعی در حال هوشمندتر شدن است، بنابراین این مقادیر همیشه نتایج صحیحی ارائه نمی‌دهند.

فرآیند تأیید اعتبار ویدیوها دیگر مبتنی بر چشم غیرمسلح نیست، بلکه به ابزارهای تکنولوژیکی نیاز دارد که با هدف جلوگیری و تشخیص محتوای جعلی ایجاد شده‌اند.

خان لین



منبع

نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

فصل طلایی و آرامش‌بخش هوانگ سو فی در کوه‌های مرتفع تای کان لین
روستایی در دا نانگ در بین ۵۰ روستای زیبای جهان در سال ۲۰۲۵
دهکده صنایع دستی فانوس در طول جشنواره نیمه پاییز مملو از سفارش می‌شود و به محض ثبت سفارش، سفارشات آماده می‌شوند.
در ساحل گیا لای، با احتیاط روی صخره تاب می‌خورد و به سنگ‌ها می‌چسبد تا جلبک دریایی جمع کند.

از همان نویسنده

میراث

شکل

کسب و کار

No videos available

اخبار

نظام سیاسی

محلی

محصول