مستقبل میں AI کے اطلاق میں حفاظت کو یقینی بنانے کے لیے یہ ایک نازک لیکن اہم موقع سمجھا جاتا ہے۔ یہ خاص طور پر معنی خیز ہے جب ویتنام نے مصنوعی ذہانت (AI) کے انتظام سے متعلق تفصیلی ضوابط کے ساتھ ڈیجیٹل ٹیکنالوجی کی صنعت سے متعلق قانون پاس کیا ہے۔
"موقع کی کھڑکی" تنگ ہوتی جا رہی ہے۔
اوپن اے آئی کے محقق بوون بیکر نے شیئر کیا کہ ایک حالیہ مشترکہ مقالے میں، محققین نے خبردار کیا ہے کہ تحقیقی کوششوں کے بغیر "خیالات" کی نگرانی کرنے کی اے آئی کی صلاحیت ختم ہو سکتی ہے۔
یہ خاص طور پر اہم ہے کیونکہ AI ماڈل تیزی سے طاقتور ہوتے جاتے ہیں اور معاشرے پر سنگین اثرات مرتب کرنے کی صلاحیت رکھتے ہیں۔
اوپن اے آئی کے o-3 اور ڈیپ سیک کے R1 جیسے ریجننگ AI ماڈلز کی ایک اہم خصوصیت "سوچ کا سلسلہ" ( CoT) ہے - وہ عمل جس کے ذریعے AI قدرتی زبان میں اپنے استدلال کے مراحل کا اظہار کرتا ہے، جیسا کہ انسان اسکریچ پیپر پر ریاضی کے مسئلے کے ہر قدم کو لکھتے ہیں۔
یہ صلاحیت ہمیں ایک نادر جھلک دیتی ہے کہ AI فیصلے کیسے کرتا ہے۔
یہ AI کی حفاظت پر تحقیق کو آگے بڑھانے کے لیے AI صنعت میں بہت سے رہنماؤں کے درمیان اتحاد کا ایک نادر لمحہ ہے۔
AI تیار کرنے میں ٹیک کمپنیوں کے درمیان سخت مقابلے کے پیش نظر یہ خاص طور پر متعلقہ ہے۔ کاغذ پر قابل ذکر دستخط کنندگان میں مارک چن، اوپن اے آئی ریسرچ ڈائریکٹر، الیا سوٹسکیور، سیف سپر انٹیلی جنس کے سی ای او، نوبل انعام یافتہ جیفری ہنٹن، گوگل ڈیپ مائنڈ کے شریک بانی شین لیگ، اور xAI کے حفاظتی مشیر ڈین ہینڈریکس شامل ہیں۔
ان اعلیٰ ناموں کی شمولیت اس مسئلے کی اہمیت کو ظاہر کرتی ہے۔
نیز مسٹر بوون بیکر کے جائزے کے مطابق، "ہم ایک نازک لمحے پر ہیں جب یہ نام نہاد نیا 'سوچ کا سلسلہ' ہے جو اگلے چند سالوں میں ختم ہو سکتا ہے اگر لوگ واقعی اس پر توجہ نہیں دیتے ہیں۔"

"AI سوچ" کی نگرانی کیوں ضروری ہے؟
موجودہ AI سسٹمز کو اکثر "بلیک باکسز" کے طور پر دیکھا جاتا ہے - ہم ان پٹ اور آؤٹ پٹس کو جانتے ہیں لیکن اندر سے فیصلہ سازی کے عمل کو نہیں سمجھتے۔
یہ خطرناک ہو جائے گا جب AI کو صحت کی دیکھ بھال ، مالیات اور قومی سلامتی جیسے اہم شعبوں میں لاگو کیا جائے گا۔
CoT مانیٹرنگ ایک خودکار نظام ہے جو ذہنی ماڈل کے سلسلہ استدلال اور دیگر متعلقہ معلومات کو مشکوک یا ممکنہ طور پر نقصان دہ تعاملات کی نشاندہی کرنے کے لیے پڑھتا ہے۔ یہ ایک مکمل حل نہیں ہے، لیکن یہ حفاظتی تحفظ کی ایک قیمتی تہہ بن سکتا ہے۔
OpenAI کی تحقیق سے پتہ چلتا ہے کہ AI ماڈلز اپنی سوچ کے سلسلے میں اپنے ارادوں کے بارے میں بہت واضح ہوتے ہیں۔
مثال کے طور پر، وہ اکثر کسی مشن کو سبوتاژ کرنے کے اپنے منصوبوں کے بارے میں بہت واضح تھے جب انہوں نے سوچا کہ "آئیے ہیک کریں۔" یہ AI کی بد سلوکی کی نگرانی اور پتہ لگانے کی صلاحیت کو ظاہر کرتا ہے۔
"چلو ہیک کریں" وہ جملہ ہے جو AI ماڈلز اکثر "سوچتے ہیں" جب "وہ" کسی کام کی کارکردگی کے دوران قوانین کو سبوتاژ کرنے یا ان کی خلاف ورزی کرنے کا ارادہ کرتے ہیں۔
حقیقت یہ ہے کہ AIs اپنے سوچنے کے عمل میں "ہیکنگ" کا ارادہ ظاہر کرتے ہیں اس سے پتہ چلتا ہے کہ ہم خراب AI رویے کا پتہ لگا سکتے ہیں اس سے پہلے کہ ایسا ہو۔ یہی وجہ ہے کہ سوچ کے عمل کی نگرانی ضروری ہے۔
دوسرے لفظوں میں، "آئیے ہیک کریں" انسانوں کے لیے "انتباہی سگنل" کی طرح ہے کہ AI کچھ غلط کرنے والا ہے۔
ویتنام اور AI پر قانونی ضوابط
درحقیقت، ویتنام نے AI کے لیے قانونی ڈھانچہ بنانے میں اہم پیش رفت کی ہے۔
14 جون کو، ویتنام کی قومی اسمبلی نے ڈیجیٹل ٹیکنالوجی کی صنعت سے متعلق قانون منظور کیا، جس میں باب IV مصنوعی ذہانت سے متعلق تفصیلی ضوابط پر مشتمل ہے - جو آج جنوب مشرقی ایشیا میں AI پر سب سے زیادہ جامع قانونی فریم ورک میں سے ایک ہے۔
قانون کا آرٹیکل 41 ویتنام میں AI کی ترقی، فراہمی اور تعیناتی کے لیے بنیادی اصول متعین کرتا ہے۔
خاص طور پر، نقطہ بی، شق 1 میں کہا گیا ہے: "شفافیت، جوابدہی، وضاحت کو یقینی بنائیں؛ اس بات کو یقینی بنائیں کہ یہ انسانی کنٹرول سے تجاوز نہ کرے"۔

قومی اسمبلی نے ڈیجیٹل ٹیکنالوجی انڈسٹری سے متعلق قانون منظور کر لیا (تصویر: Nhat Bac)
یہ وہ اصول ہیں جن کا بین الاقوامی سائنس دان اے آئی چین کی نگرانی پر بحث کرتے وقت مطالبہ کر رہے ہیں۔
اس کے علاوہ، پوائنٹ ڈی، شق 1، آرٹیکل 41 میں یہ شرط رکھی گئی ہے: "الگورتھمز اور مصنوعی ذہانت کے ماڈلز کو کنٹرول کرنے کی صلاحیت کو یقینی بنائیں"۔ یہ CoT نگرانی کی روح سے پوری طرح مطابقت رکھتا ہے جسے بین الاقوامی ماہرین تجویز کر رہے ہیں۔
اس سے بھی اہم بات یہ ہے کہ آرٹیکل 41، شق 1، پوائنٹ اے ایک اعلی اخلاقی معیار بھی طے کرتا ہے جب یہ یہ بتاتا ہے کہ AI کو "مرکز میں لوگوں کے ساتھ، انسانی خوشحالی اور خوشی کی خدمت کرنی چاہیے"۔
اس کا مطلب یہ ہے کہ AI تھیٹ چین کی نگرانی صرف ایک تکنیکی ضرورت نہیں ہے بلکہ ایک اخلاقی ذمہ داری بھی ہے – اس بات کو یقینی بنانا کہ AI ہمیشہ مشین کے اپنے مقاصد کے بجائے انسانی فائدے کی طرف ہو۔
خطرے کی سطح کے لحاظ سے AI کی درجہ بندی اور نظم کریں۔
ویتنام کا ڈیجیٹل ٹیکنالوجی انڈسٹری قانون واضح اور سائنسی تعریفوں کے ساتھ AI کو مختلف رسک گروپس میں درجہ بندی کرکے ایک قدم آگے بڑھا ہے۔
آرٹیکل 43 "ہائی رسک مصنوعی ذہانت کے نظام" کو ایسے نظاموں کے طور پر بیان کرتا ہے جو انسانی صحت، انسانی حقوق اور امن عامہ کے لیے سنگین خطرات یا نقصان کا امکان رکھتے ہیں۔
دلچسپ بات یہ ہے کہ یہ ایکٹ ہائی رسک AI کے لیے مخصوص مستثنیات فراہم کرتا ہے، بشمول سسٹم "کام کے نتائج کو بہتر بنانے میں انسانوں کی مدد کرنا" اور "انسانی فیصلہ سازی کو تبدیل کرنے کا ارادہ نہیں"۔
یہ اختراع کی حوصلہ افزائی اور حفاظت کو یقینی بنانے کے درمیان متوازن ذہنیت کو ظاہر کرتا ہے۔

خطرے کی سطح کے لحاظ سے AI کی درجہ بندی کرنے سے ایک کثیر پرتوں والا مانیٹرنگ سسٹم بنانے میں مدد ملے گی (مثال: LinkedIn)۔
خاص طور پر، "ہائی رسک AI" اور "ہائی امپیکٹ AI" (ایک سے زیادہ مقاصد کے لیے استعمال ہونے والے سسٹمز، صارفین کی ایک بڑی تعداد کے ساتھ) کے درمیان فرق کرنا نقطہ نظر میں ایک لطیفیت کو ظاہر کرتا ہے۔
یہ یورپی یونین (EU) کے مصنوعی ذہانت کے ایکٹ سے زیادہ ترقی پسند درجہ بندی ہے، جو نہ صرف خطرے کی سطح کو بلکہ اثرات کے پیمانے اور دائرہ کار پر بھی غور کرتا ہے۔
اس درجہ بندی سے ایک کثیر سطحی نگرانی کا نظام بنانے میں مدد ملے گی، جہاں شعور کی نگرانی کا سلسلہ خاص طور پر ہائی رسک اور زیادہ اثر والے AI سسٹمز کے لیے اہم ہوگا۔
AI نگرانی کے لیے پلیٹ فارم
ویتنام کے صنعت اور ڈیجیٹل ٹکنالوجی کے قانون کی نمایاں اور اہم خصوصیات میں سے ایک شفافیت اور شناختی نشانات کی ضرورت ہے۔
آرٹیکل 44 میں کہا گیا ہے کہ AI نظام جو انسانوں کے ساتھ براہ راست تعامل کرتے ہیں انہیں صارفین کو مطلع کرنا چاہیے کہ وہ AI نظام کے ساتھ تعامل کر رہے ہیں۔ ایک ہی وقت میں، AI کی طرف سے تیار کردہ مصنوعات میں شناختی نشانات ہونے چاہئیں۔
CoT نگرانی کے نفاذ کے لیے اس کے اہم مضمرات ہیں۔ جب صارفین کو معلوم ہوتا ہے کہ وہ AI کے ساتھ بات چیت کر رہے ہیں، تو انہیں فیصلہ سازی کے عمل کی وضاحت طلب کرنے کا حق حاصل ہے، جس سے AI ڈویلپرز پر AI کے سوچنے کے عمل کی نگرانی کرنے کی صلاحیت کو برقرار رکھنے کے لیے مثبت دباؤ پیدا ہوتا ہے۔
خاص طور پر، یہ حقیقت کہ سائنس اور ٹیکنالوجی کی وزارت کو "مصنوعی ذہانت سے تیار کردہ ڈیجیٹل ٹیکنالوجی پروڈکٹس کی فہرست جاری کرنے" کی ذمہ داری تفویض کی گئی ہے، فعال انتظام کو ظاہر کرتا ہے۔
یہ بہت سے دوسرے ممالک سے ایک اہم فرق ہے، جہاں AI کے ضوابط اکثر عام ہوتے ہیں۔
مزید برآں، شناخت کنندہ کی ضرورت "انسانی یا مشین کی شناخت کے لیے" ایک ایسے AI ماحولیاتی نظام کے وژن کی نمائندگی کرتی ہے جو خود پولیس کر سکتا ہے — جو کہ خودکار سوچ چین کی نگرانی کے خیال کے ساتھ بالکل فٹ بیٹھتا ہے۔
جامع انتظامی ماڈل
مندرجہ بالا قانون کا آرٹیکل 45 ایک ترقی پسند انتظامی فلسفہ کو ظاہر کرتا ہے جب AI پروڈکٹ لائف سائیکل کے مطابق مضامین کے 3 گروپس کی ذمہ داریوں کی واضح طور پر وضاحت کرتا ہے: مضامین کی نشوونما، مضامین فراہم کرنے والے اور مضامین کو AI سسٹمز کی تعیناتی اور استعمال کرنا۔
یہ بغیر کسی رکاوٹ کے آخر سے آخر تک احتساب کا نظام بناتا ہے، اس بات کو یقینی بناتا ہے کہ AI کی نگرانی صرف ایک فریق کی ذمہ داری نہیں ہے۔
خاص طور پر، "ترقی پذیر" اور "فراہم کرنے" AI کے درمیان ایک لطیف فرق ہے۔ ڈویلپرز وہ ہیں جو "تحقیق اور ترقی" کرتے ہیں، جبکہ فراہم کنندہ وہ ہوتے ہیں جو اسے برانڈ نام کے تحت مارکیٹ میں لاتے ہیں۔
اس کا مطلب یہ ہے کہ اگر کوئی کمپنی صرف موجودہ AI ماڈل کو دوبارہ برانڈ کرتی ہے، تب بھی وہ شفافیت اور وضاحت کے لیے ذمہ دار ہیں۔

یہاں خاص طور پر دلچسپ بات یہ ہے کہ قانون ہر مضمون کے لیے مختلف ذمہ داریاں کیسے مختص کرتا ہے۔
ڈویلپر کو تمام اصولوں کی تعمیل کرنی چاہیے، فراہم کنندہ کو شناخت اور اعلی خطرے کے انتظام کے لیے اضافی ذمہ داری لینا چاہیے، اور صارف کو کچھ ذمہ داریوں سے "استثنیٰ" حاصل ہے لیکن پھر بھی اسے شفافیت اور رسک کنٹرول کو یقینی بنانا چاہیے۔
یہ ماڈل ایک "ذمہ داری کا سلسلہ" بناتا ہے جہاں ہر لنک کو AI تھنکنگ چین کی نگرانی کو برقرار رکھنے کی ترغیب ملتی ہے، کیونکہ سبھی آخری صارف کے لیے جوابدہ ہوتے ہیں۔
نگرانی کی صلاحیتوں کو برقرار رکھنے کا چیلنج
تاہم، AI تھیٹ چین کی نگرانی کرنے کی صلاحیت نازک اور کمزور رہ سکتی ہے۔ نئے AI فن تعمیرات کو دیگر خطرات بھی لاحق ہو سکتے ہیں۔
بہت سے محققین مجرد الفاظ کی بجائے مسلسل ریاضی کی جگہ میں استدلال کے نظام تیار کر رہے ہیں، جو سوچ میں زبان کے استعمال کی ضرورت کو مکمل طور پر ختم کر سکتے ہیں۔
مزید برآں، AI "فلٹرڈ" بن سکتا ہے - یعنی یہ صرف انسانوں کے مثبت خیالات کو ظاہر کرتا ہے جس کی تعریف کی جائے، جبکہ جان بوجھ کر اس کے حقیقی ارادوں کو چھپایا جائے۔
یہاں خطرہ یہ ہے کہ ایک بار جب AI کو یہ احساس ہو جاتا ہے کہ اس کی نگرانی کی جا رہی ہے، تو وہ اپنی سوچ کی حقیقی ٹرین کو چھپانا سیکھ سکتا ہے۔
اس تناظر میں، ویتنامی قانون کی شق 1، شق 1 میں "مصنوعی ذہانت کے نظام کے پورے زندگی کے دوران خطرے پر قابو پانے" کی فراہمی خاص طور پر اہم ہو جاتی ہے۔ اس کے لیے ایک مسلسل نگرانی کے طریقہ کار کی ضرورت ہے، نہ کہ صرف تعیناتی کے وقت۔
AI کی ترقی کے مستقبل پر اثر
سوچ کی زنجیر کی نگرانی ایک اہم ذریعہ بن سکتی ہے تاکہ یہ یقینی بنایا جاسکے کہ AI ان طریقوں سے کام کرتا ہے جس سے انسانوں کو فائدہ ہوتا ہے۔
اگر ماڈلز فطری زبان میں استدلال جاری رکھتے ہیں اور اگر ایسے طرز عمل جو سب سے زیادہ سنگین خطرات لاحق ہوتے ہیں وسیع استدلال کی ضرورت ہوتی ہے، تو یہ مشق سنگین بدانتظامی کا قابل اعتماد پتہ لگانے کے قابل ہو سکتی ہے۔
ویتنام کے لیے، CoT مانیٹرنگ تکنیک کا اطلاق مؤثر طریقے سے قانونی دفعات کو نافذ کرنے میں مدد کرے گا۔
مثال کے طور پر، آرٹیکل 41 میں "وضاحت" کے تقاضے کو پورا کرنا آسان ہو گا اگر AI کے فکری عمل قابل رسائی ہوں۔ اسی طرح، "الگورتھمز، مصنوعی ذہانت کے ماڈلز کا کنٹرول" زیادہ قابل عمل ہو جائے گا۔
ویتنام میں اے آئی چین مانیٹرنگ کے نفاذ کو کئی چیلنجوں کا سامنا کرنا پڑے گا۔ سب سے پہلے، انسانی وسائل کا مسئلہ ہے - AI ماہرین کی کمی جو نگرانی کے نظام کو تیار کرنے اور چلانے کی صلاحیت رکھتے ہیں۔
اس کے لیے تربیت اور ہنر کی کشش میں بھاری سرمایہ کاری کی ضرورت ہے۔
مستقبل کے لیے ہدایات
محققین AI ماڈل کے سرکردہ ڈویلپرز سے یہ تحقیق کرنے کے لیے کہتے ہیں کہ کون سے عوامل CoT کو "مانیٹر کرنے کے قابل" بناتے ہیں اور کون سے عوامل اس بارے میں شفافیت کو بڑھا یا کم کر سکتے ہیں کہ AI ماڈلز کیسے کام کرتے ہیں اور جلد ہی جوابات سامنے لاتے ہیں۔
AI "سوچ" کی نگرانی کرنے کا موقع آج کے تیزی سے طاقتور مصنوعی ذہانت کے نظاموں پر کنٹرول برقرار رکھنے کے لیے ہماری آخری ونڈو ہو سکتا ہے۔

ویتنام کے لیے، ڈیجیٹل ٹیکنالوجی انڈسٹری کے قانون کے ذریعے AI پر ایک جامع قانونی فریم ورک کا ہونا ایک بہت بڑا فائدہ ہے۔ شفافیت، الگورتھمک کنٹرول اور خطرے کی درجہ بندی سے متعلق ضوابط نے AI چین آف سوچ کی نگرانی کی تکنیکوں کو لاگو کرنے کے لیے ایک ٹھوس قانونی بنیاد بنائی ہے۔
جدید بین الاقوامی تحقیق اور ایک ترقی پسند گھریلو قانونی فریم ورک کے امتزاج سے ویتنام کو نہ صرف AI کو محفوظ طریقے سے تیار کرنے میں مدد ملے گی بلکہ خطے کے دیگر ممالک کے لیے بھی ایک ماڈل بن جائے گا۔
یہ ویتنام کو "علاقائی اور عالمی ڈیجیٹل ٹیکنالوجی کے مرکز" میں تبدیل کرنے کے ہدف کے مطابق ہے جیسا کہ قومی ترقی کی حکمت عملیوں میں بیان کیا گیا ہے۔
موجودہ قانونی بنیاد کے ساتھ، ویتنام کو AI چین آف سوچ کی نگرانی پر تحقیق اور عملی ایپلی کیشنز کو تیزی سے تعینات کرنے کی ضرورت ہے۔ صرف ایسا کرنے سے ہی ہم اس بات کو یقینی بنا سکتے ہیں کہ AI "انسانی خوشحالی اور خوشی" کی خدمت کرے گا جیسا کہ ڈیجیٹل ٹیکنالوجی انڈسٹری قانون کی روح نے ہدایت کی ہے۔
ماخذ: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm
تبصرہ (0)