Vietnam.vn - Nền tảng quảng bá Việt Nam

کلاهبرداری صوتی دیپ‌فیک روز به روز پیچیده‌تر می‌شود، چه باید کرد؟

فناوری صدای دیپ‌فیک به افراد اجازه می‌دهد صداهایی را تقلید کنند که کاملاً شبیه افراد واقعی هستند و همین امر باعث می‌شود بسیاری از افراد در دام باور کردن صداهای آشنا بیفتند.

Báo Tuổi TrẻBáo Tuổi Trẻ09/07/2025

Deepfake Voice - Ảnh 1.

کلاهبرداری با جعل صدا با صدای دیپ‌فیک

در عصر هوش مصنوعی که به سرعت در حال توسعه است، صدا - یکی از عواملی که زمانی به عنوان مدرک معتبر در نظر گرفته می‌شد - اکنون به ابزاری خطرناک در دست افراد شرور تبدیل شده است. فناوری صدای دیپ‌فیک (Deepfake) به صداهای جعلی اجازه می‌دهد تا با افراد واقعی یکسان باشند و تماس‌های جعلی پیچیده‌ای را برای کلاهبرداری و تصاحب اموال ایجاد کنند.

چرا صدای دیپ‌فیک ترسناک است؟

صدای دیپ‌فیک (Deepfake Voice) فناوری‌ای است که با استفاده از هوش مصنوعی (AI) و یادگیری ماشینی، صدایی جعلی و کاملاً مشابه صدای واقعی افراد ایجاد می‌کند.

با پشتیبانی از مدل‌های مدرن مانند Tacotron، WaveNet، ElevenLabs یا پلتفرم‌های شبیه‌سازی صدا مانند Respeecher، کلاهبرداران فقط به ۳ تا ۱۰ ثانیه نمونه صدا نیاز دارند تا یک دیپ‌فیک ۹۵٪ قابل اعتماد ایجاد کنند.

صدای دیپ‌فیک به دلیل توانایی‌اش در تقلید تقریباً بی‌نقص صداها، از تلفظ، لحن گرفته تا حتی عادات گفتاری منحصر به فرد هر فرد، به طور ویژه خطرناک می‌شود.

این امر تشخیص بین صدای واقعی و جعلی را برای قربانیان بسیار دشوار می‌کند، به خصوص وقتی که صدا متعلق به اقوام، دوستان یا مافوق‌هایشان باشد.

استخراج صدا نیز بسیار آسان است، زیرا امروزه اکثر مردم صدای خود را از طریق پلتفرم‌هایی مانند تیک تاک، پخش زنده رسانه‌های اجتماعی، پادکست‌ها یا جلسات آنلاین منتشر می‌کنند. نگران‌کننده‌تر اینکه، صداهای دیپ فیک ردپای بصری مانند تصاویر یا ویدیوها از خود به جا نمی‌گذارند و همین امر تحقیقات را دشوار می‌کند و قربانیان را در معرض از دست دادن پول قرار می‌دهد.

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao? - Ảnh 2.

فقط چند ثانیه نمونه صدا می‌تواند یک دیپ‌فیک بسازد

کلاهبرداری‌های صوتی دیپ‌فیک (Deepfake) به طور فزاینده‌ای پیچیده می‌شوند و اغلب از یک سناریوی آشنا استفاده می‌کنند: تقلید صدای یک آشنا در شرایط اضطراری برای ایجاد وحشت و فشار بر قربانیان برای انتقال فوری پول.

در ویتنام، موردی رخ داد که مادری تماسی از "پسرش" دریافت کرد که به او اطلاع می‌داد پسرش تصادف کرده و فوراً به پول نیاز دارد. در بریتانیا، مدیر یک شرکت پس از شنیدن درخواست "رئیسش" برای انتقال پول از طریق تلفن، بیش از ۲۴۰،۰۰۰ دلار آمریکا کلاهبرداری شد. یک کارمند اداری نیز هنگام دریافت تماسی از "رئیس بزرگ" که درخواست پرداخت به "شریک استراتژیک" داشت، مورد کلاهبرداری قرار گرفت...

نکته مشترک در این موقعیت‌ها این است که صدای جعلی دقیقاً مانند صدای یک خویشاوند یا مافوق پخش می‌شود و باعث می‌شود قربانی کاملاً به او اعتماد کند و وقت کافی برای تأیید نداشته باشد.

همیشه تأیید کنید، فوراً اعتماد نکنید

با افزایش کلاهبرداری‌های صوتی دیپ‌فیک، به افراد توصیه می‌شود که صرفاً بر اساس صدا از طریق تلفن، پول منتقل نکنند، حتی اگر دقیقاً شبیه صدای یکی از عزیزانشان باشد. در عوض، قبل از انجام هرگونه تراکنش، با شماره قدیمی تماس بگیرید یا اطلاعات را از طریق کانال‌های مختلف بررسی کنید.

بسیاری از کارشناسان همچنین توصیه می‌کنند که یک «رمز عبور داخلی» در خانه یا محل کار برای تأیید در موقعیت‌های غیرمعمول تنظیم کنید.

علاوه بر این، لازم است انتشار ویدیوهایی با صدای واضح در شبکه‌های اجتماعی، به ویژه محتوای طولانی، محدود شود. به طور خاص، لازم است به گروه‌های آسیب‌پذیر مانند سالمندان یا افرادی که آشنایی کمی با فناوری دارند، به طور پیشگیرانه هشدار داده و راهنمایی شود، زیرا این افراد اهداف اصلی کلاهبرداری‌های فناوری پیشرفته هستند.

Deepfake Voice - Ảnh 3.

صدای اقوام، دوستان و همکاران، همگی می‌توانند جعلی باشند.

در بسیاری از کشورها، مقامات شروع به تشدید مدیریت فناوری دیپ‌فیک با چارچوب قانونی خود کرده‌اند.

در ایالات متحده، چندین ایالت استفاده از دیپ‌فیک را در مبارزات انتخاباتی یا برای انتشار اطلاعات نادرست ممنوع کرده‌اند. اتحادیه اروپا (EU) قانون هوش مصنوعی را تصویب کرد که سازمان‌ها را ملزم به شفافیت و هشدار واضح در مورد تولید محتوا توسط هوش مصنوعی می‌کند.

در همین حال، در ویتنام، اگرچه هیچ مقررات خاصی برای صداهای دیپ‌فیک وجود ندارد، اما اقدامات مرتبط با آن می‌تواند طبق قانون فعلی و با جرایمی مانند کلاهبرداری، تصرف اموال، نقض حریم خصوصی یا جعل هویت، رسیدگی شود.

با این حال، واقعیت این است که فناوری با سرعتی بسیار فراتر از توانایی نظارت قانون در حال توسعه است و بسیاری از نقاط ضعف را باقی می‌گذارد که بازیگران بد می‌توانند از آنها سوءاستفاده کنند.

وقتی صدا دیگر گواه نیست

صدا قبلاً چیزی صمیمی و قابل اعتماد بود، اما با صدای دیپ‌فیک، دیگر مدرک معتبری نیست. در عصر هوش مصنوعی، هر فرد باید دانش دفاع دیجیتال داشته باشد، به طور فعال تأیید کند و همیشه هوشیار باشد زیرا یک تماس می‌تواند یک تله باشد.

فان های دانگ

منبع: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm


نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

امروز صبح، شهر ساحلی کوی نون در مه «رویایی» است
زیبایی مسحورکننده سا پا در فصل «شکار ابرها»
هر رودخانه - یک سفر
شهر هوشی مین در فرصت‌های جدید، سرمایه‌گذاری شرکت‌های FDI را جذب می‌کند

از همان نویسنده

میراث

شکل

کسب و کار

فلات سنگی دونگ وان - یک «موزه زمین‌شناسی زنده» نادر در جهان

رویدادهای جاری

نظام سیاسی

محلی

محصول