GReAT (تیم تحقیق و تحلیل جهانی) اعلام کرد که این سرویسهای دیپفیک (فناوری شبیهسازی تصاویر چهره انسان) قیمتهای اولیهای حدود ۵۰ دلار آمریکا (معادل ۱.۳ میلیون دونگ ویتنامی) برای ویدیوهای جعلی و ۳۰ دلار آمریکا (حدود ۸۰۰۰۰۰ دونگ ویتنامی) برای پیامهای صوتی جعلی دارند که بسیار پایینتر از قیمتهای ۳۰۰ تا ۲۰ هزار دلار آمریکا در دقیقه است که کسپرسکی قبلاً ثبت کرده بود. این تفاوت بزرگ نشان میدهد که فناوری دیپفیک بیش از هر زمان دیگری در دسترس قرار گرفته و راه را برای بسیاری از خطرات سوءاستفاده برای اهداف کلاهبرداری، جعل هویت یا حملات سایبری باز کرده است.

تبلیغات دارکنت انواع ویژگیهای نگرانکننده، از جمله تغییر چهره در زمان واقعی در طول تماسهای ویدیویی، استفاده از چهرههای جعلی برای دور زدن احراز هویت و جعل فیدهای دوربین در پلتفرمهای آنلاین را شرح میدهند.
برخی سایتها همچنین ابزارهای شبیهسازی صدا میفروشند که میتوانند زیر و بمی صدا، لحن، احساسات و حتی حرکات لب را با دیالوگها در زبانهای مختلف تنظیم کنند. با این حال، کارشناسان هشدار میدهند که بسیاری از این تبلیغات فقط کلاهبرداری هستند و با هدف دزدیدن پول مردم انجام میشوند.
دیمیتری گالوف، رئیس تیم GReAT کسپرسکی در روسیه و کشورهای مستقل مشترکالمنافع، گفت: مجرمان سایبری به طور فعال در حال آزمایش و ترکیب هوش مصنوعی در عملیات خود هستند. برخی از پلتفرمها حتی در حال توسعه مدلهای زبان بزرگ (LLM) مخرب خود هستند که میتوانند مستقیماً روی دستگاه اجرا شوند و به مجرمان اجازه میدهند بدون تکیه بر مدلهای عمومی، قابلیتهای حمله خود را افزایش دهند.
اگرچه این فناوریها تهدید سایبری کاملاً جدیدی ایجاد نکردهاند، اما هکرها را خطرناکتر و غیرقابل پیشبینیتر کردهاند. در این زمینه، کسپرسکی توصیه میکند که متخصصان امنیت سایبری باید از خود هوش مصنوعی برای افزایش بهرهوری و بهبود دفاع در برابر موج جدید حملات ناشی از دیپفیک و فناوری مخرب هوش مصنوعی استفاده کنند.
برای در امان ماندن از تهدیدات دیپفیک، کسپرسکی توصیه میکند:
- شرکتها اقدامات امنیت سایبری را به طور کامل به کار میگیرند: نه تنها به نصب راهکارهای حفاظتی بسنده نمیکنند، بلکه به تیمی از متخصصان فناوری اطلاعات بسیار ماهر نیز نیاز دارند.
- اطمینان حاصل کنید که کارمندان دیپ فیک و خطرات این فناوری را درک میکنند و به طور منظم دورههای آموزشی ترتیب دهید تا به کارمندان در شناسایی آنها کمک کنید.
- کارکنان را به مهارتهایی مجهز کنید تا نشانههای معمول دیپفیک را تشخیص دهند: حرکات نامنظم و غیر روان، نورپردازی ناهماهنگ بین فریمها، رنگهای غیرطبیعی پوست، پلک زدن غیرمعمول یا نادر، تصاویر تحریفشده، ویدیوهایی که عمداً با کیفیت پایین یا نور ضعیف فیلمبرداری شدهاند.
منبع: https://nld.com.vn/dich-vu-deepfake-duoc-rao-ban-re-hon-400-lan-lam-gi-de-tu-bao-ve-196251009170834853.htm
نظر (0)