سائبر حملے اور فراڈ کرنے کے لیے ہیکرز کے AI کو "ہتھیار بنانے" کے رجحان کے بارے میں آپ کا کیا خیال ہے؟
ڈاکٹر Nguyen Tuan Khang: IBM کے 2024 X-Force Threat Intelligence Index کے مطابق، ویتنام سمیت ایشیا پیسیفک وہ خطہ ہے جو 2023 میں دنیا میں سب سے زیادہ سائبر حملوں کا شکار ہوگا۔ جن میں سے، مینوفیکچرنگ وہ صنعت ہے جو سائبر حملوں سے سب سے زیادہ متاثر ہوئی ہے۔
برے لوگوں کا بنیادی طریقہ اب بھی فشنگ حملے ہیں جو کمزور لوگوں کو نشانہ بناتے ہیں اور میلویئر کو انسٹال کرنے کے لیے کمزوریوں کا استحصال کرتے ہیں۔ اس کے علاوہ، 2024 میں ابھرتا ہوا رجحان مصنوعی ذہانت (AI) پر مشتمل سائبر حملے ہیں۔
وائرڈ کی رپورٹ بتاتی ہے کہ بہت سے برے لوگ ہیکس کی رہنمائی کرنے، دھوکہ دہی پر مبنی چیٹ بوٹس بنانے، یا دیگر لوگوں کے چہروں اور آوازوں کی نقل کرنے والی ڈیپ فیک تصاویر اور ویڈیوز بنانے میں مدد کے لیے جنریٹو AI کا استعمال کر رہے ہیں۔
تاہم، اس رجحان کے ساتھ، انفارمیشن سیکیورٹی سسٹمز بھی AI خصوصیات کو مربوط کرنے لگے ہیں، جیسے کہ واٹسونکس۔ مصنوعی ذہانت سے فائدہ اٹھایا جا سکتا ہے، لیکن یہ انسانوں کا تجزیہ کرنے، نگرانی کرنے، نمبروں کی شناخت کرنے، حملے کے منظرناموں کی پیش گوئی کرنے، اس طرح دفاعی صلاحیتوں کو بہتر بنانے اور معلومات کے تحفظ کے خطرات کو کم کرنے میں بھی بدل سکتی ہے۔
ڈیپ فیک گھوٹالے عام ہوتے جا رہے ہیں۔ اے آئی کی تیزی سے ترقی کے ساتھ، مستقبل میں یہ حملے کتنے خطرناک ہوں گے؟
ڈاکٹر Nguyen Tuan Khang: بنیادی طور پر، Deepfake ایک ایسی ٹیکنالوجی ہے جو ہیکرز کو جعلی ڈیجیٹل شناخت بنانے میں مدد کرتی ہے، اور اس طرح دوسروں کی نقالی کرتی ہے۔ ڈیپ فیک ایک خطرناک مسئلہ ہو گا کیونکہ یہ ٹیکنالوجی زیادہ سے زیادہ جدید ہوتی جا رہی ہے۔
ڈیپ فیک کا مقابلہ کرنے کے لیے، سب سے پہلے یہ طے کرنا ہے کہ آیا کسی شخص کی تصویر یا آواز AI سے تیار کی گئی ہے۔ فی الحال کوئی ایسا عالمگیر ٹول نہیں ہے جو ڈیپ فیکس کا فوری پتہ لگا سکے کیونکہ حملہ آور مسلسل نئے ماڈل تیار کر رہے ہیں۔
ڈیپ فیک کا پتہ لگانے کے علاوہ، اس سے نمٹنے کے لیے ایک اور تکنیک ہے، جو رویے کا تجزیہ کرنے کے لیے ٹیکنالوجی کا استعمال کر رہی ہے۔ تنظیمی اور کاروباری نقطہ نظر سے، ایک ایسا نظام تیار کرنا ضروری ہے جو ان دونوں تکنیکوں کو یکجا کرے۔
حالیہ دنوں میں سائبر حملے ہوئے ہیں جہاں ہیکرز نے خفیہ طور پر کمپنی کے سسٹم میں میلویئر لگا رکھا ہے۔ میلویئر انتظار میں رہتا ہے اور تمام سرگرمیوں کا تجزیہ کرتا ہے، اس طرح بدنیتی پر مبنی ارادوں کو انجام دینے کے لیے جعلی شناخت بناتا ہے۔ ڈیپ فیک ٹیکنالوجی کی ترقی کے ساتھ، AI کے ذریعے بنائی گئی ویڈیوز بنانے کی صلاحیت کے ساتھ، اس قسم کے حملے مستقبل میں بہت زیادہ خطرناک ہوں گے۔
ڈیپ فیک سائبر حملوں میں اضافے کے ساتھ، ہم بوڑھوں، بچوں اور دیگر کمزور گروہوں کو دھوکہ بازوں سے کیسے بچا سکتے ہیں؟
ڈاکٹر Nguyen Tuan Khang: بوڑھوں اور بچوں پر اکثر گھوٹالے کرنے والے سوشل انجینئرنگ نامی تکنیک کا استعمال کرتے ہوئے حملہ کرتے ہیں۔ یہ ایک اصطلاح ہے جو انسانی رویے میں ہیرا پھیری کے ذریعے حملوں کو بیان کرتی ہے۔
ہیکرز اب ڈیٹا اکٹھا کرنے، کان کنی اور تجزیے کے ساتھ مل کر ان لوگوں کی شناخت کے لیے AI کا استعمال کر سکتے ہیں جن کے اسکام ہونے کا امکان ہے اور پھر حملہ کرنے کے طریقے تلاش کر سکتے ہیں۔ کمیونٹی میں بیداری بڑھانے کے علاوہ، ہمیں یہ بھی قبول کرنا چاہیے کہ ایسے حالات ہوں گے جہاں صارفین کو دھوکہ دیا جائے گا، اور اس کا پتہ لگانے اور اسے روکنے کے لیے ٹیکنالوجی کا استعمال کرنا چاہیے۔
حال ہی میں، ایک ایسا معاملہ سامنے آیا ہے جس میں ایک بینک ملازم کو شبہ تھا کہ ایک بوڑھی عورت جو رقم کی منتقلی کے لیے آئی تھی، اس کے ساتھ دھوکہ دہی کے آثار ہیں۔ اس شخص نے فوری طور پر لین دین روک دیا اور حکام کو اس کی اطلاع دی۔ بینکوں کے آئی ٹی سسٹم میں اب ایسے کاموں میں انسانوں کی جگہ لینے کی ٹیکنالوجی موجود ہے۔
ٹکنالوجی کا کردار یہ ہے کہ اگر بھیجنے والا حقیقی شخص معلوم ہو جائے تب بھی سسٹم منتقلی کو روک دے گا اگر یہ شبہ ہو کہ لین دین میں کسی اور کے ذریعے ہیرا پھیری کی جا رہی ہے۔ ایسے آلات کو فراڈ سے بچاؤ کا نظام کہا جاتا ہے۔
کیا اب وقت آگیا ہے کہ ویتنام پر AI کا انتظام کرنے کے لیے پابندیاں عائد کی جائیں، اور AI تحقیق، ترقی اور استعمال کو ایک فریم ورک میں رکھا جائے؟
ڈاکٹر Nguyen Tuan Khang: AI مینجمنٹ کا مسئلہ کافی عرصے سے زیر بحث رہا ہے، تاہم، ابھی بھی بہت سے تنازعات موجود ہیں۔ مثال کے طور پر، میرے علاقے میں پارکنگ لاٹ میں لائسنس پلیٹوں کو پہچاننے کے لیے AI سسٹم موجود ہے، لیکن پھر بھی چوری ہو رہی ہے۔ اس وقت یہ تنازعہ کھڑا ہونے لگا کہ قصور کس کا ہے۔ کیا اپارٹمنٹ کا مالک، سیکیورٹی گارڈ یا AI سسٹم ڈویلپر کو ذمہ دار ہونا چاہیے؟
اس کے بعد سے، عمارت نے اپنے قوانین میں تبدیلی کی ہے، یہ بتاتے ہوئے کہ رہائشی سہولت کے لیے لائسنس پلیٹوں کو پہچاننے کے لیے AI استعمال کرنے کا انتخاب کر سکتے ہیں، لیکن انہیں خطرات کو قبول کرنا ہوگا۔ جو لوگ اتفاق کرتے ہیں وہ خودکار دروازے استعمال کر سکیں گے، جو نہیں کرتے انہیں اپنی کاریں پرانے طریقے سے پارک کرنی ہوں گی۔ ہمیں ایسی پابندیاں لگنی چاہئیں۔
اسی طرح، IBM نے ایک بار کینسر کو روکنے میں مدد کے لیے AI نظام تیار کیا۔ جب سسٹم نے دوائی لکھ دی لیکن مریض نے لے لی لیکن پھر بھی بچ نہ سکا تو کیا یہ ڈاکٹر کا قصور ہے یا AI کا قصور؟
میرے خیال میں اے آئی ریگولیشن کو مخصوص ہونے کی ضرورت ہے، واضح طور پر یہ بتاتے ہوئے کہ AI ایپلی کیشنز تیار کرتے وقت کیا کیا جا سکتا ہے اور کیا نہیں کیا جا سکتا۔ دنیا کو محفوظ بنانے کے لیے، سب سے بنیادی ضابطہ جو ہم کر سکتے ہیں وہ یہ ہے کہ بڑی رقم کی منتقلی کو بائیو میٹرک طور پر تسلیم کیا جائے۔ ایسی صورت حال میں جو لوگ اپنی شناخت کی معلومات کھو دیتے ہیں وہ پیسے کھونے سے مکمل طور پر بچ سکتے ہیں۔
شکریہ
ماخذ

![[تصویر] وزیر اعظم فام من چن بدعنوانی، فضول خرچی اور منفیت کی روک تھام اور مقابلہ کرنے پر 5ویں نیشنل پریس ایوارڈز کی تقریب میں شرکت کر رہے ہیں](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)

![[تصویر] دا نانگ: پانی آہستہ آہستہ کم ہوتا جا رہا ہے، مقامی حکام صفائی کا فائدہ اٹھا رہے ہیں۔](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)








































































تبصرہ (0)