AI کا کنٹرول کھونے کا خطرہ
ایسا لگتا ہے کہ انسانیت افق پر ایک تماشے کو نظر انداز کر رہی ہے: مصنوعی ذہانت (AI) کی وجہ سے عالمی ایٹمی جنگ کا تماشہ۔ اقوام متحدہ کے سیکرٹری جنرل انتونیو گوتریس نے اس بارے میں خبردار کیا ہے۔ لیکن ابھی تک، جوہری ہتھیاروں سے لیس ریاستیں اس تباہ کن خطرے سے نمٹنے کے لیے اکٹھے نہیں ہوئی ہیں۔
مصنوعی ذہانت (AI) کی تیز رفتار ترقی سے یہ خطرہ پیدا ہوتا ہے کہ AI جوہری ہتھیاروں کے لانچ کے عمل میں مداخلت کر سکتا ہے۔ مثالی تصویر
"ہیومن ان دی لوپ" کے اصول پر پانچ بڑی ایٹمی طاقتوں - امریکہ، روس، چین، برطانیہ اور فرانس کے درمیان طویل عرصے سے غیر رسمی اتفاق رائے پایا جاتا ہے، یعنی ہر ملک کے پاس اس بات کو یقینی بنانے کے لیے ایک نظام موجود ہے کہ جوہری ہتھیاروں کو لانچ کرنے کے فیصلے میں انسان شامل ہوں۔
پانچ طاقتوں میں سے کوئی بھی یہ نہیں کہتا کہ انہوں نے اپنے جوہری لانچ کمانڈ سسٹم میں AI کو تعینات کیا ہے۔ یہ سچ ہے لیکن گمراہ کن ہے، ڈاکٹر سندیپ واسلیکر کے مطابق، اسٹریٹجک فارسائٹ گروپ کے صدر، ممبئی، ہندوستان میں ایک بین الاقوامی تحقیقی تنظیم۔
AI پہلے ہی خطرے کا پتہ لگانے اور ہدف کے انتخاب کے لیے استعمال ہو رہا ہے۔ AI سے چلنے والے نظام حقیقی وقت میں سینسرز، سیٹلائٹ اور ریڈارز سے ڈیٹا کی بڑی مقدار کا تجزیہ کرتے ہیں، آنے والے میزائل حملوں کا تجزیہ کرتے ہیں اور جوابی آپشنز تجویز کرتے ہیں۔
پھر آپریٹر مختلف ذرائع سے خطرے کی جانچ پڑتال کرتا ہے اور فیصلہ کرتا ہے کہ آیا دشمن کے میزائلوں کو روکنا ہے یا جوابی حملے کرنا ہیں۔
"فی الحال، انسانی آپریٹرز کے لیے دستیاب رد عمل کا وقت 10 سے 15 منٹ ہے۔ 2030 تک، یہ گھٹ کر 5 سے 7 منٹ رہ جائے گا،" سندیپ واسلیکر نے کہا۔ "جب کہ انسان حتمی فیصلے کریں گے، وہ AI کے پیشین گوئی اور نسخے پر مبنی تجزیات سے متاثر ہوں گے۔ AI 2030 کی دہائی کے اوائل سے شروع ہونے والے فیصلوں کے پیچھے محرک ہو سکتا ہے۔"
مسئلہ یہ ہے کہ AI غلط ہو سکتا ہے۔ خطرے کا پتہ لگانے والے الگورتھم میزائل حملے کی نشاندہی کر سکتے ہیں جب کوئی نہیں ہو رہا ہے۔ یہ کمپیوٹر کی غلطیوں، نیٹ ورک کی مداخلت، یا ماحولیاتی عوامل کی وجہ سے ہو سکتا ہے جو سگنلز کو غیر واضح کرتے ہیں۔ جب تک کہ انسانی آپریٹرز دو سے تین منٹ کے اندر دوسرے ذرائع سے جھوٹے الارم کی تصدیق نہیں کر سکتے، وہ جوابی حملے شروع کر سکتے ہیں۔
بہت چھوٹی غلطی، بہت بڑی تباہی۔
بہت سے شہری کاموں میں AI کے استعمال جیسے جرم کی پیشن گوئی، چہرے کی شناخت اور کینسر کی تشخیص میں غلطی کا مارجن 10% ہے۔ سندیپ وسلیکر کے مطابق، جوہری ابتدائی انتباہی نظام میں، غلطی کا مارجن تقریباً 5 فیصد ہو سکتا ہے۔
جیسا کہ اگلی دہائی میں تصویری شناخت کے الگورتھم کی درستگی بہتر ہوتی ہے، غلطی کا یہ مارجن 1-2% تک گر سکتا ہے۔ لیکن غلطی کا 1% مارجن بھی عالمی ایٹمی جنگ شروع کر سکتا ہے۔
جوہری ہتھیاروں کے خلاف حملہ کرنے یا جوابی کارروائی کرنے کے فیصلے AI کی غلطیوں کی وجہ سے ہو سکتے ہیں۔ تصویر: ماڈرن وار انسٹی ٹیوٹ
خطرہ اگلے دو سے تین سالوں میں بڑھ سکتا ہے کیونکہ نئے میلویئر ابھرتے ہیں جو خطرے کا پتہ لگانے کے نظام سے بچنے کے قابل ہیں۔ یہ میلویئر پتہ لگانے سے بچنے، خود بخود اہداف کی شناخت کرنے اور ان پر حملہ کرنے کے لیے موافق ہوگا۔
سرد جنگ کے دوران کئی "برنک مینشپ" حالات تھے۔ 1983 میں، ایک سوویت سیٹلائٹ نے غلطی سے امریکہ کی طرف سے داغے گئے پانچ میزائلوں کا پتہ لگا لیا۔ روس کے Sepukhov-15 کمانڈ سینٹر کے ایک افسر، Stanislaw Petrov نے یہ نتیجہ اخذ کیا کہ یہ ایک غلط الارم تھا اور اس نے اپنے اعلیٰ افسران کو خبردار نہیں کیا تاکہ وہ جوابی حملہ کر سکیں۔
1995 میں، اولینیگورسک ریڈار اسٹیشن نے ناروے کے ساحل پر میزائل حملے کا پتہ لگایا۔ روس کی سٹریٹجک فورسز کو ہائی الرٹ پر رکھا گیا اور اس وقت کے صدر بورس یلسن کو جوہری بریف کیس سونپا گیا۔ اسے شک ہوا کہ یہ غلطی تھی اور اس نے بٹن نہیں دبایا۔ یہ ایک سائنسی میزائل نکلا۔ اگر کسی بھی صورت حال میں ردعمل کا تعین کرنے کے لیے AI کا استعمال کیا جاتا تو نتائج تباہ کن ہو سکتے تھے۔
ہائپرسونک میزائل آج AI کے بجائے روایتی آٹومیشن کا استعمال کرتے ہیں۔ وہ Mach 5 اور Mach 25 کے درمیان رفتار سے سفر کر سکتے ہیں، ریڈار کا پتہ لگانے سے گریز کرتے ہوئے اور اپنی پرواز کے راستوں کو کنٹرول کر سکتے ہیں۔ سپر پاورز حرکت پذیر اہداف کو فوری طور پر تلاش کرنے اور تباہ کرنے کے لیے AI کے ساتھ ہائپرسونک میزائلوں کو بڑھانے کا منصوبہ بنا رہے ہیں، انسانوں کو مارنے کے فیصلے کو مشینوں میں منتقل کرتے ہوئے.
عام مصنوعی ذہانت کو تیار کرنے کی ایک دوڑ بھی ہے، جس کی وجہ سے ایسے AI ماڈل بن سکتے ہیں جو انسانی کنٹرول سے باہر کام کرتے ہیں۔ جب ایسا ہوتا ہے تو، AI نظام فیصلہ سازی کے عمل کو سنبھالتے ہوئے خود کو بڑھانا اور نقل کرنا سیکھیں گے۔ اگر اس طرح کے AI کو جوہری ہتھیاروں کے لیے فیصلہ سازی کے نظام میں ضم کر دیا جائے تو مشینیں تباہ کن جنگیں شروع کر سکیں گی۔
عمل کرنے کا وقت
مندرجہ بالا خطرات کا سامنا کرتے ہوئے، بہت سے ماہرین کا خیال ہے کہ انسانیت کو ایٹمی جنگ کے خطرے کو کم سے کم کرنے کے لیے بڑی طاقتوں کے درمیان ایک جامع معاہدے کی ضرورت ہے، جو نعرہ "انسان ان دی لوپ" کو دہرانے سے بالاتر ہے۔
اس معاہدے میں شفافیت، جوابدہی، اور تعاون کے اقدامات شامل ہونے چاہئیں۔ جانچ اور تشخیص کے لیے بین الاقوامی معیارات؛ بحران مواصلاتی چینلز؛ قومی نگرانی کے بورڈز؛ اور جارحانہ AI ماڈلز کو ممنوع قرار دینے کے قوانین جو انسانی آپریٹرز کو نظرانداز کرنے کی صلاحیت رکھتے ہیں۔
سیکرٹری جنرل انتونیو گوٹیرس ہیروشیما میں امن یادگاری تقریب میں شریک ہیں، جسے 1945 میں ایٹم بم سے نشانہ بنایا گیا تھا۔ تصویر: اقوام متحدہ
جغرافیائی سیاسی تبدیلیاں اس طرح کے معاہدے کا موقع پیدا کر رہی ہیں۔ چین اور امریکہ کے سرکردہ AI ماہرین، مثال کے طور پر، AI خطرات پر متعدد ٹریک ٹو ڈائیلاگ میں مصروف ہیں، جس کی وجہ سے گزشتہ نومبر میں سابق امریکی صدر جو بائیڈن اور چینی صدر شی جن پنگ کا مشترکہ بیان سامنے آیا۔
ارب پتی ایلون مسک AI کی طرف سے لاحق خطرات سے انسانیت کو بچانے کی ضرورت کے ایک مضبوط وکیل ہیں، اور وہ موجودہ امریکی صدر ڈونلڈ ٹرمپ پر زور دے سکتے ہیں کہ وہ جو بائیڈن اور شی جن پنگ کے درمیان مشترکہ بیان کو ایک معاہدے میں بدل دیں، ڈاکٹر سندیپ واسلیکر کے مطابق۔
ڈاکٹر سندیپ وسلیکر کے مطابق، AI-جوہری چیلنج میں روس کی شرکت بھی ضروری ہے۔ اس سال جنوری تک، روس نے جوہری خطرے میں کمی کے کسی بھی اقدام پر بات کرنے سے انکار کر دیا، بشمول AI کے ساتھ ہم آہنگی، جب تک کہ یوکرین پر بات نہ کی جائے۔
دو طرفہ تعلقات کو بہتر بنانے اور یوکرین میں جنگ کے خاتمے کے لیے صدر ڈونلڈ ٹرمپ روسی صدر ولادیمیر پوٹن کے ساتھ بات چیت میں مصروف ہونے کے بعد، روس اب بات چیت کے لیے کھلا ہو سکتا ہے۔
اس سال فروری میں، پیرس AI ایکشن سمٹ میں امریکی نائب صدر JD Vance کی تقریر کے بعد، سینٹر فار اے نیو امریکن سیکیورٹی (CNAS) نے بھی ایک رپورٹ شائع کی جس کا عنوان تھا "ایک AI ڈومس ڈے کی روک تھام: نیوکلیئر ہتھیاروں اور مصنوعی ذہانت کے گٹھ جوڑ میں US-China-Russia Competition"۔
رپورٹ میں AI-نیوکلیئر گٹھ جوڑ کے اہم ترین خطرات کی نشاندہی کی گئی ہے اور امریکی انتظامیہ پر زور دیا گیا ہے کہ وہ چین اور روس کے ساتھ خطرات میں کمی اور بحران کے انتظام کے طریقہ کار کا ایک جامع سیٹ قائم کرے۔
اس سے قبل، گزشتہ سال ستمبر میں، امریکہ سمیت تقریباً 60 ممالک نے جنوبی کوریا کے شہر سیول میں منعقدہ فوجی سربراہی اجلاس (REAIM) میں فوج میں AI کے ذمہ دارانہ استعمال کو منظم کرنے کے لیے "ایکشن پلان" اپنایا تھا۔ گزشتہ سال دی ہیگ میں ہونے والی کانفرنس کے بعد یہ اپنی نوعیت کی دوسری کانفرنس تھی۔ یہ حرکتیں ظاہر کرتی ہیں کہ AI کے ذریعے شروع کی گئی جوہری جنگ کا خطرہ سائنس فکشن نہیں ہے۔
دنیا کو واضح طور پر ایک بڑھتے ہوئے فوری وجودی مسئلے کا سامنا ہے جس کے لیے جوہری طاقتوں سے حقیقی کارروائی کی ضرورت ہے تاکہ یہ یقینی بنایا جا سکے کہ "جوہری ہتھیاروں کے استعمال کے بارے میں ہر فیصلہ لوگ کرتے ہیں، مشینیں یا الگورتھم نہیں" - جیسا کہ اقوام متحدہ کے سیکرٹری جنرل انتونیو گوٹیرس نے مطالبہ کیا ہے۔
Nguyen Khanh










تبصرہ (0)