انبیسی نیوز در ۱۲ ژوئن به نقل از هشدار افبیآی اعلام کرد که کلاهبرداران - به ویژه مجرمان فناوری پیشرفته - با استفاده از هوش مصنوعی (AI) ویدیوهای مستهجن یا عکسهای جعلی از قربانیان ایجاد میکنند و سپس از آنها میخواهند برای جلوگیری از انتشار آنها در اینترنت، پول بپردازند.
این روش دیپفیک (جعل عمیق) نام دارد - تکنیکی که الگوریتمهای یادگیری عمیق و یادگیری ماشین را برای ایجاد ویدیوها، تصاویر یا صداهای جعلی واقعگرایانه ترکیب میکند. این ابزار در سالهای اخیر محبوب شده و رو به رشد است.
تصویرسازی: مجله تجاری AZ
در هشداری که در ۱۲ ژوئن منتشر شد، افبیآی اعلام کرد که شکایات فزایندهای در مورد مجرمانی که از ابزارهای دیپفیک برای ایجاد ویدیوها و عکسهای مستهجن جعلی برای اخاذی استفاده میکنند، دریافت کرده است.
مجرمان از قربانیان در رسانههای اجتماعی عکس و فیلم میگیرند. پس از ساخت محصولات جعلی، آنها را در رسانههای اجتماعی، انجمنهای عمومی یا وبسایتهای مستهجن منتشر میکنند.
طبق گزارش افبیآی، قربانیان مجبور به پرداخت پول، کارت هدیه یا حتی عکسهای «سکسی» میشوند یا فیلمها و عکسهای جعلی آنها پخش میشود. همزمان، کلاهبرداران تهدید میکنند که در صورت عدم رعایت، آنها را برای خانواده و دوستان قربانی ارسال میکنند.
یک تحقیق NBC News در ماه مارس نشان داد که محصولات پورن دیپفیک به راحتی از طریق جستجوهای آنلاین و پلتفرمهای چت قابل دسترسی هستند.
رئیس مرکز منابع سرقت هویت (ITRC)، یک سازمان غیرانتفاعی که به قربانیان کلاهبرداری کمک میکند، میگوید مجرمان گاهی اوقات سعی میکنند قربانیان را با فیلمها یا تصاویر بسیار حساس شوکه کنند. پس از اینکه قربانی وحشتزده میشود، آنها به سادگی میخواهند که فیلم یا تصویر ناپدید شود، که به معنای تسلیم شدن در برابر خواستههای کلاهبرداران است.
افبیآی به مردم توصیه میکند هنگام پذیرش درخواستهای دوستی از غریبهها محتاط باشند و درک کنند که پاسخ دادن به درخواستهای مجرمان دیپفیک به این معنی نیست که آنها ویدیوها یا تصاویر صریح جنسی از آنها را منتشر نخواهند کرد.
مرکز ملی کودکان گمشده و مورد سوءاستفاده قرار گرفته، سرویس رایگانی به نام «آن را پایین بیاور» ارائه داده است تا از توزیع ویدیوها یا عکسهای حساس کودکان زیر ۱۸ سال جلوگیری کند.
منبع
نظر (0)