آن لائن دھوکہ دہی کرنے والے نہ صرف رشتہ داروں یا پولیس افسران کی نقالی کرتے ہیں بلکہ مصنوعی ذہانت (AI) ٹولز کو بھی کنٹرول کرتے ہیں تاکہ صارفین پر حملہ کرنے کے لیے سینکڑوں گھوٹالے کے منظرنامے تخلیق کر سکیں۔
سائبرسیکیوریٹی کے ماہر Ngo Minh Hieu کا کہنا ہے کہ دھوکہ دہی کرنے والے AI میں ہیرا پھیری کرتے ہیں، منٹوں میں سینکڑوں گھوٹالے کے منظرنامے بناتے ہیں - تصویر: Vu Tuan
سوشل انٹرپرائز Chongluadao.vn کے مطابق، دھوکہ بازوں نے AI کا استعمال میلویئر بنانے، اسکیم اسکرپٹ لکھنے، اور ڈیپ فیکس کے ذریعے آڈیو اور ویڈیو کو تبدیل کرنے کے لیے کیا ہے۔
سائبرسیکیوریٹی ماہر Ngo Minh Hieu (Hieu PC) - Chongluadao.vn کے نمائندے کے مطابق، ایک خطرناک حربہ AI کو مالویئر لوڈ کرنے میں "دھوکا دینا" ہے۔ "وہ جعلی آڈیو یا تصویری فائلیں بناتے ہیں، میلویئر کو سرایت کرتے ہیں جسے AI نہیں پہچانتا۔ جب AI سسٹم اس پر کارروائی کرتا ہے، تو میلویئر متحرک ہو جاتا ہے اور کنٹرول حاصل کر لیتا ہے،" Hieu PC نے وضاحت کی۔
اس نے ایک مثال دی: دھوکہ دہی کرنے والے AI کا استعمال FaceTime کے ذریعے رشتہ داروں کی آواز اور تصویر کو جعلی بنانے کے لیے کرتے ہیں، اور انھیں پیسے کی منتقلی میں دھوکہ دیتے ہیں۔
حال ہی میں، AI ٹولز کی مدد کی وجہ سے گھوٹالوں کی تعدد میں نمایاں اضافہ ہوا ہے۔ AI کو کنٹرول کر کے اور اسے دھوکہ دہی کے لیے استعمال کر کے، سکیمرز تمام زبان اور جغرافیائی رکاوٹوں پر قابو پا لیتے ہیں۔ نقالی کی شکلیں تیزی سے نفیس اور خطرناک ہوتی جا رہی ہیں۔
ماہر Hieu PC تجزیہ کرتا ہے کہ اس بات سے کوئی فرق نہیں پڑتا ہے کہ دھوکہ دہی کے لئے کون سے اوزار استعمال کیے جاتے ہیں، سائبر جرائم پیشہ افراد کے پاس ہمیشہ اسکرپٹ ہوتا ہے۔ یہ وہ معلومات ہے جو ان کی ٹیم نے سینکڑوں آن لائن فراڈ کی رپورٹوں کو موصول کرنے اور اس پر کارروائی کرنے سے حاصل کی ہے۔
دھوکہ دہی کی عام شکلوں میں رشتہ داروں، سرکاری اہلکاروں، پولیس افسران، یا پاور کمپنی کے ملازمین کی نقالی کرنا شامل ہے۔ زیادہ نفیس طریقوں میں متاثرین کو سرمایہ کاری کے جال، مشن اسائنمنٹس، یا ڈیٹنگ اسکیموں میں پھنسانا شامل ہے۔
سائبر سیکیورٹی ماہرین کا کہنا ہے کہ تصویر کی نقالی سے بچنے کے لیے سب سے پہلا کام یہ ہے کہ سوشل میڈیا پر ذاتی تصاویر کو عوامی طور پر شیئر نہ کیا جائے۔ رقم کی منتقلی، لنک کلکس، یا OTP کوڈز کی درخواست کرنے والی کالز اور پیغامات 99% ممکنہ گھپلے ہیں۔
AI پر حملہ کرنے کے لیے ہیکر کی حکمت عملی
سائبر سیکیورٹی ماہرین کے مطابق، "مخالفانہ حملے" ایک ایسا حربہ ہے جو ہیکرز AI کو "چال" کرنے کے لیے استعمال کرتے ہیں۔ اس میں غلط معلومات شامل ہیں جو AI کو گمراہ کرتی ہے یا اس کا استحصال کرتی ہے، جس کے نتیجے میں AI میلویئر انسٹال کرتا ہے یا جعلسازوں کی طرف سے دی گئی کمانڈز پر عمل درآمد کرتا ہے۔
دھوکہ باز اس کمزوری کا فائدہ اٹھاتے ہوئے AI کو نظرانداز کرتے ہیں، خاص طور پر AI- حفاظتی نظام (جیسے اینٹی وائرس سافٹ ویئر، آواز کی شناخت، یا بینک ٹرانزیکشن کی تصدیق)۔
ماخذ: https://tuoitre.vn/lua-dao-mang-lua-ca-ai-tao-kich-ban-thao-tung-tam-ly-20250228163856719.htm






تبصرہ (0)