
کلاهبرداری با جعل صدا با صدای دیپفیک
در عصر هوش مصنوعی که به سرعت در حال توسعه است، صدا - یکی از عواملی که زمانی به عنوان مدرک معتبر در نظر گرفته میشد - اکنون به ابزاری خطرناک در دست افراد شرور تبدیل شده است. فناوری صدای دیپفیک (Deepfake) به صداهای جعلی اجازه میدهد تا با افراد واقعی یکسان باشند و تماسهای جعلی پیچیدهای را برای کلاهبرداری و تصاحب اموال ایجاد کنند.
چرا صدای دیپفیک ترسناک است؟
صدای دیپفیک (Deepfake Voice) فناوریای است که با استفاده از هوش مصنوعی (AI) و یادگیری ماشینی، صدایی جعلی و کاملاً مشابه صدای واقعی افراد ایجاد میکند.
با پشتیبانی از مدلهای مدرن مانند Tacotron، WaveNet، ElevenLabs یا پلتفرمهای شبیهسازی صدا مانند Respeecher، کلاهبرداران فقط به ۳ تا ۱۰ ثانیه نمونه صدا نیاز دارند تا یک دیپفیک ۹۵٪ قابل اعتماد ایجاد کنند.
صدای دیپفیک به دلیل تواناییاش در تقلید تقریباً بینقص صداها، از تلفظ، لحن گرفته تا حتی عادات گفتاری منحصر به فرد هر فرد، به طور ویژه خطرناک میشود.
این امر تشخیص بین صدای واقعی و جعلی را برای قربانیان بسیار دشوار میکند، به خصوص وقتی که صدا متعلق به اقوام، دوستان یا مافوقهایشان باشد.
استخراج صدا نیز بسیار آسان است، زیرا امروزه اکثر مردم صدای خود را از طریق پلتفرمهایی مانند تیک تاک، پخش زنده رسانههای اجتماعی، پادکستها یا جلسات آنلاین منتشر میکنند. نگرانکنندهتر اینکه، صداهای دیپ فیک ردپای بصری مانند تصاویر یا ویدیوها از خود به جا نمیگذارند و همین امر تحقیقات را دشوار میکند و قربانیان را در معرض از دست دادن پول قرار میدهد.

فقط چند ثانیه نمونه صدا میتواند یک دیپفیک بسازد
کلاهبرداریهای صوتی دیپفیک (Deepfake) به طور فزایندهای پیچیده میشوند و اغلب از یک سناریوی آشنا استفاده میکنند: تقلید صدای یک آشنا در شرایط اضطراری برای ایجاد وحشت و فشار بر قربانیان برای انتقال فوری پول.
در ویتنام، موردی رخ داد که مادری تماسی از "پسرش" دریافت کرد که به او اطلاع میداد پسرش تصادف کرده و فوراً به پول نیاز دارد. در بریتانیا، مدیر یک شرکت پس از شنیدن درخواست "رئیسش" برای انتقال پول از طریق تلفن، بیش از ۲۴۰،۰۰۰ دلار آمریکا کلاهبرداری شد. یک کارمند اداری نیز هنگام دریافت تماسی از "رئیس بزرگ" که درخواست پرداخت به "شریک استراتژیک" داشت، مورد کلاهبرداری قرار گرفت...
نکته مشترک در این موقعیتها این است که صدای جعلی دقیقاً مانند صدای یک خویشاوند یا مافوق پخش میشود و باعث میشود قربانی کاملاً به او اعتماد کند و وقت کافی برای تأیید نداشته باشد.
همیشه تأیید کنید، فوراً اعتماد نکنید
با افزایش کلاهبرداریهای صوتی دیپفیک، به افراد توصیه میشود که صرفاً بر اساس صدا از طریق تلفن، پول منتقل نکنند، حتی اگر دقیقاً شبیه صدای یکی از عزیزانشان باشد. در عوض، قبل از انجام هرگونه تراکنش، با شماره قدیمی تماس بگیرید یا اطلاعات را از طریق کانالهای مختلف بررسی کنید.
بسیاری از کارشناسان همچنین توصیه میکنند که یک «رمز عبور داخلی» در خانه یا محل کار برای تأیید در موقعیتهای غیرمعمول تنظیم کنید.
علاوه بر این، لازم است انتشار ویدیوهایی با صدای واضح در شبکههای اجتماعی، به ویژه محتوای طولانی، محدود شود. به طور خاص، لازم است به گروههای آسیبپذیر مانند سالمندان یا افرادی که آشنایی کمی با فناوری دارند، به طور پیشگیرانه هشدار داده و راهنمایی شود، زیرا این افراد اهداف اصلی کلاهبرداریهای فناوری پیشرفته هستند.

صدای اقوام، دوستان و همکاران، همگی میتوانند جعلی باشند.
در بسیاری از کشورها، مقامات شروع به تشدید مدیریت فناوری دیپفیک با چارچوب قانونی خود کردهاند.
در ایالات متحده، چندین ایالت استفاده از دیپفیک را در مبارزات انتخاباتی یا برای انتشار اطلاعات نادرست ممنوع کردهاند. اتحادیه اروپا (EU) قانون هوش مصنوعی را تصویب کرد که سازمانها را ملزم به شفافیت و هشدار واضح در مورد تولید محتوا توسط هوش مصنوعی میکند.
در همین حال، در ویتنام، اگرچه هیچ مقررات خاصی برای صداهای دیپفیک وجود ندارد، اما اقدامات مرتبط با آن میتواند طبق قانون فعلی و با جرایمی مانند کلاهبرداری، تصرف اموال، نقض حریم خصوصی یا جعل هویت، رسیدگی شود.
با این حال، واقعیت این است که فناوری با سرعتی بسیار فراتر از توانایی نظارت قانون در حال توسعه است و بسیاری از نقاط ضعف را باقی میگذارد که بازیگران بد میتوانند از آنها سوءاستفاده کنند.
وقتی صدا دیگر گواه نیست
صدا قبلاً چیزی صمیمی و قابل اعتماد بود، اما با صدای دیپفیک، دیگر مدرک معتبری نیست. در عصر هوش مصنوعی، هر فرد باید دانش دفاع دیجیتال داشته باشد، به طور فعال تأیید کند و همیشه هوشیار باشد زیرا یک تماس میتواند یک تله باشد.
منبع: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm






نظر (0)