مستقبل میں AI کے اطلاق میں حفاظت کو یقینی بنانے کے لیے یہ ایک نازک لیکن اہم موقع سمجھا جاتا ہے۔ خاص طور پر، یہ اس وقت معنی خیز ہے جب ویتنام نے مصنوعی ذہانت (AI) کے انتظام سے متعلق تفصیلی ضوابط کے ساتھ ڈیجیٹل ٹیکنالوجی کی صنعت سے متعلق قانون پاس کیا ہے۔
"موقع کی کھڑکی" تنگ ہوتی جا رہی ہے۔
اوپن اے آئی کے ایک محقق بوون بیکر نے کہا کہ ایک حالیہ مشترکہ مقالے میں، اوپن اے آئی کے محققین نے خبردار کیا ہے کہ AI کی "خیالات" پر نظر رکھنے کی صلاحیت مرکوز تحقیقی کوششوں کے بغیر ختم ہو سکتی ہے۔
یہ خاص طور پر اہم ہے کیونکہ AI ماڈل تیزی سے طاقتور ہوتے جاتے ہیں اور معاشرے پر سنگین اثرات مرتب کرنے کی صلاحیت رکھتے ہیں۔
اوپن اے آئی کے o-3 اور ڈیپ سیک کے R1 جیسے ریجننگ AI ماڈلز کی ایک اہم خصوصیت "سوچ کا سلسلہ" ( CoT) ہے – وہ عمل جس کے ذریعے AI اپنے استدلال کے مراحل کو قدرتی زبان میں ظاہر کرتا ہے، جیسا کہ انسان اسکریچ پیپر پر ریاضی کے مسئلے کے ہر مرحلے کو لکھتے ہیں۔
یہ صلاحیت ہمیں ایک نادر جھلک دیتی ہے کہ AI فیصلے کیسے کرتا ہے۔
یہ AI کی حفاظت پر تحقیق کو آگے بڑھانے کے لیے AI صنعت میں بہت سے رہنماؤں کے درمیان اتحاد کا ایک نادر لمحہ ہے۔
AI کی ترقی میں ٹیک کمپنیوں کے درمیان سخت مقابلے کے پیش نظر یہ خاص طور پر متعلقہ ہے۔ کاغذ پر قابل ذکر دستخط کنندگان میں اوپن اے آئی کے ڈائریکٹر ریسرچ مارک چن، سیف سپر انٹیلی جنس کے سی ای او الیا سوٹسکیور، نوبل انعام یافتہ جیفری ہنٹن، گوگل ڈیپ مائنڈ کے شریک بانی شین لیگ اور xAI کے حفاظتی مشیر ڈین ہینڈریکس شامل ہیں۔
ان اعلیٰ ناموں کی شمولیت اس مسئلے کی اہمیت کو ظاہر کرتی ہے۔
نیز مسٹر بوون بیکر کے جائزے کے مطابق، "ہم ایک نازک لمحے پر ہیں جب یہ نام نہاد نیا 'سوچ کا سلسلہ' ہے جو اگلے چند سالوں میں ختم ہو سکتا ہے اگر لوگ واقعی اس پر توجہ نہیں دیتے ہیں۔"

"AI سوچ" کی نگرانی کیوں ضروری ہے؟
موجودہ AI سسٹمز کو اکثر "بلیک باکسز" کے طور پر سمجھا جاتا ہے - ہم ان پٹ اور آؤٹ پٹس کو جانتے ہیں لیکن اندر سے فیصلہ سازی کے عمل کو نہیں سمجھتے۔
یہ خطرناک ہو جائے گا جب AI کو صحت کی دیکھ بھال ، مالیات اور قومی سلامتی جیسے اہم شعبوں میں لاگو کیا جائے گا۔
CoT مانیٹرنگ ایک خودکار نظام ہے جو ذہنی ماڈل کی ذہنی زنجیر اور دیگر متعلقہ معلومات کو مشکوک یا ممکنہ طور پر نقصان دہ تعاملات کی نشاندہی کرنے کے لیے پڑھتا ہے۔ یہ ایک مکمل حل نہیں ہے، لیکن یہ حفاظتی تحفظ کی ایک قیمتی تہہ بن سکتا ہے۔
OpenAI کی تحقیق سے پتہ چلتا ہے کہ AI ماڈلز اپنی سوچ کے سلسلے میں اپنے ارادوں کے بارے میں بہت واضح ہوتے ہیں۔
مثال کے طور پر، وہ اکثر کسی مشن کو سبوتاژ کرنے کے اپنے منصوبوں کے بارے میں بہت واضح تھے جب انہوں نے سوچا کہ "آئیے ہیک کریں۔" یہ AI کی بد سلوکی کی نگرانی اور پتہ لگانے کی صلاحیت کو ظاہر کرتا ہے۔
"چلو ہیک کریں" وہ جملہ ہے جو AI ماڈلز اکثر "سوچتے ہیں" جب "وہ" کسی کام کو انجام دینے کے دوران قوانین کو سبوتاژ کرنے یا ان کی خلاف ورزی کرنے کا ارادہ کرتے ہیں۔
حقیقت یہ ہے کہ AIs اپنے سوچنے کے عمل میں "ہیکنگ" کا ارادہ ظاہر کرتے ہیں اس سے پتہ چلتا ہے کہ ہم خراب AI رویے کا پتہ لگا سکتے ہیں اس سے پہلے کہ ایسا ہو۔ یہی وجہ ہے کہ سوچ کے عمل کی نگرانی ضروری ہے۔
دوسرے لفظوں میں، "آئیے ہیک کریں" ایک "انتباہی سگنل" کی طرح ہے جو انسانوں کو بتاتا ہے کہ AI کچھ غلط کرنے والا ہے۔
ویتنام اور AI پر قانونی ضوابط
درحقیقت، ویتنام نے AI کے لیے قانونی ڈھانچہ بنانے میں اہم پیش رفت کی ہے۔
14 جون کو، ویتنام کی قومی اسمبلی نے ڈیجیٹل ٹیکنالوجی کی صنعت سے متعلق قانون منظور کیا، جس میں باب IV مصنوعی ذہانت سے متعلق تفصیلی ضوابط پر مشتمل ہے - جو آج جنوب مشرقی ایشیا میں AI پر سب سے زیادہ جامع قانونی فریم ورک میں سے ایک ہے۔
قانون کا آرٹیکل 41 ویتنام میں AI کی ترقی، فراہمی اور تعیناتی کے لیے بنیادی اصول متعین کرتا ہے۔
خاص طور پر، نقطہ بی، شق 1 میں کہا گیا ہے: "شفافیت، جوابدہی، وضاحت کو یقینی بنائیں؛ اس بات کو یقینی بنائیں کہ یہ انسانی کنٹرول سے تجاوز نہ کرے"۔

قومی اسمبلی نے ڈیجیٹل ٹیکنالوجی انڈسٹری سے متعلق قانون منظور کر لیا (تصویر: Nhat Bac)
یہ وہ اصول ہیں جن کا بین الاقوامی سائنس دان اے آئی چین کی نگرانی پر بحث کرتے وقت مطالبہ کر رہے ہیں۔
اس کے علاوہ، پوائنٹ ڈی، شق 1، آرٹیکل 41 میں یہ شرط رکھی گئی ہے: "الگورتھمز اور مصنوعی ذہانت کے ماڈلز کو کنٹرول کرنے کی صلاحیت کو یقینی بنائیں"۔ یہ CoT نگرانی کی روح سے پوری طرح مطابقت رکھتا ہے جسے بین الاقوامی ماہرین تجویز کر رہے ہیں۔
اس سے بھی اہم بات یہ ہے کہ آرٹیکل 41، شق 1، پوائنٹ اے ایک اعلی اخلاقی معیار بھی طے کرتا ہے جب یہ یہ بتاتا ہے کہ AI کو "مرکز میں لوگوں کے ساتھ، انسانی خوشحالی اور خوشی کی خدمت کرنی چاہیے"۔
اس کا مطلب یہ ہے کہ AI تھیٹ چین کی نگرانی کرنا صرف ایک تکنیکی ضرورت نہیں ہے بلکہ ایک اخلاقی ذمہ داری بھی ہے – اس بات کو یقینی بنانا کہ AI ہمیشہ انسانی فائدے کی طرف ہو، نہ کہ مشین کے اپنے مقاصد کی طرف۔
خطرے کی سطح کے لحاظ سے AI کی درجہ بندی اور نظم کریں۔
ویتنام کا ڈیجیٹل ٹیکنالوجی انڈسٹری قانون واضح اور سائنسی تعریفوں کے ساتھ AI کو مختلف رسک گروپس میں درجہ بندی کرکے ایک قدم آگے بڑھا ہے۔
آرٹیکل 43 "ہائی رسک مصنوعی ذہانت کے نظام" کو ایسے نظام کے طور پر بیان کرتا ہے جو انسانی صحت، انسانی حقوق اور امن عامہ کے لیے سنگین خطرات یا نقصان کا امکان رکھتے ہیں۔
دلچسپ بات یہ ہے کہ یہ ایکٹ ہائی رسک AI کے لیے مخصوص مستثنیات فراہم کرتا ہے، بشمول سسٹم "کام کے نتائج کو بہتر بنانے میں انسانوں کی مدد کرنا" اور "انسانی فیصلہ سازی کو تبدیل کرنے کا ارادہ نہیں"۔
یہ اختراع کی حوصلہ افزائی اور حفاظت کو یقینی بنانے کے درمیان متوازن ذہنیت کو ظاہر کرتا ہے۔

خطرے کی سطح کے لحاظ سے AI کی درجہ بندی کرنے سے ایک کثیر پرتوں والا مانیٹرنگ سسٹم بنانے میں مدد ملے گی (مثال: LinkedIn)۔
خاص طور پر، "ہائی رسک AI" اور "ہائی امپیکٹ AI" (ایسے سسٹم جو متعدد مقاصد کے لیے استعمال ہوتے ہیں اور جن میں صارفین کی ایک بڑی تعداد ہوتی ہے) کے درمیان فرق کرنا نقطہ نظر کی اہمیت کو ظاہر کرتا ہے۔
یہ یورپی یونین (EU) کے مصنوعی ذہانت کے ایکٹ سے زیادہ ترقی پسند درجہ بندی ہے، جو نہ صرف خطرے کی سطح کو بلکہ اثرات کے پیمانے اور دائرہ کار پر بھی غور کرتا ہے۔
اس درجہ بندی سے ایک کثیر سطحی نگرانی کے نظام کو بنانے میں مدد ملے گی، جس میں زیادہ خطرہ والے اور زیادہ اثر والے AI نظاموں کے لیے چین آف سائٹ نگرانی خاص طور پر اہم ہوگی۔
AI نگرانی کے لیے پلیٹ فارم
ویتنام کے صنعت اور ڈیجیٹل ٹکنالوجی کے قانون کے نمایاں اور اہم نکات میں سے ایک شفافیت اور شناختی نشانات کی ضرورت ہے۔
آرٹیکل 44 میں کہا گیا ہے کہ AI نظام جو انسانوں کے ساتھ براہ راست تعامل کرتے ہیں انہیں صارفین کو مطلع کرنا چاہیے کہ وہ AI نظام کے ساتھ تعامل کر رہے ہیں۔ ایک ہی وقت میں، AI کی طرف سے تیار کردہ مصنوعات میں شناختی نشانات ہونے چاہئیں۔
CoT نگرانی کے نفاذ کے لیے اس کے اہم مضمرات ہیں۔ جب صارفین جانتے ہیں کہ وہ AI کے ساتھ تعامل کر رہے ہیں، تو انہیں فیصلہ سازی کے عمل کی وضاحت طلب کرنے کا حق حاصل ہو گا، جس سے AI ڈویلپرز پر AI کے سوچنے کے عمل کی نگرانی کرنے کی صلاحیت کو برقرار رکھنے کے لیے مثبت دباؤ پیدا ہو گا۔
خاص طور پر، یہ حقیقت کہ سائنس اور ٹیکنالوجی کی وزارت کو "مصنوعی ذہانت سے تیار کردہ ڈیجیٹل ٹیکنالوجی پروڈکٹس کی فہرست جاری کرنے" کی ذمہ داری سونپی گئی تھی، اس سے ظاہر ہوتا ہے کہ فعال انتظام ہے۔
یہ بہت سے دوسرے ممالک سے ایک اہم فرق ہے، جہاں AI کے ضوابط اکثر عام ہوتے ہیں۔
مزید برآں، شناخت کنندہ کی ضرورت "صارف یا مشین کے ذریعے پہچانا جائے" ایک ایسے AI ماحولیاتی نظام کے وژن کی نمائندگی کرتا ہے جو خود پولیس کر سکتا ہے — جو کہ خودکار سلسلہ کی نظر کی نگرانی کے خیال کے ساتھ بالکل فٹ بیٹھتا ہے۔
جامع انتظامی ماڈل
مندرجہ بالا قانون کا آرٹیکل 45 ایک ترقی پسند انتظامی فلسفہ کو ظاہر کرتا ہے جب AI پروڈکٹ لائف سائیکل کے مطابق مضامین کے تین گروہوں کی ذمہ داریوں کی واضح طور پر وضاحت کرتا ہے: ترقی کا موضوع، فراہمی کا موضوع اور AI نظام کے استعمال کو نافذ کرنے والا مضمون۔
یہ بغیر کسی رکاوٹ کے آخر سے آخر تک احتساب کا نظام بناتا ہے، اس بات کو یقینی بناتا ہے کہ AI کی نگرانی صرف ایک فریق کی ذمہ داری نہیں ہے۔
خاص طور پر، "ترقی پذیر" اور "فراہم کرنے" AI کے درمیان لطیف فرق؛ ڈویلپرز وہ ہیں جو "تحقیق اور ترقی" کرتے ہیں، جبکہ فراہم کنندہ وہ ہوتے ہیں جو اسے برانڈ نام کے تحت مارکیٹ میں لاتے ہیں۔
اس کا مطلب یہ ہے کہ اگر کوئی کمپنی صرف موجودہ AI ماڈل کو دوبارہ برانڈ کرتی ہے، تب بھی وہ شفافیت اور وضاحت کے لیے ذمہ دار ہیں۔

یہاں خاص طور پر دلچسپ بات یہ ہے کہ قانون مختلف اداروں کو مختلف ذمہ داریاں کیسے مختص کرتا ہے۔
ڈویلپر کو تمام اصولوں کی تعمیل کرنی چاہیے، فراہم کنندہ کو شناخت اور اعلی خطرے کے انتظام کے لیے اضافی ذمہ داری لینا چاہیے، اور صارف کو جزوی طور پر ذمہ داری سے "استثنیٰ" حاصل ہے لیکن پھر بھی اسے شفافیت اور رسک کنٹرول کو یقینی بنانا چاہیے۔
یہ ماڈل ایک "ذمہ داری کا سلسلہ" بناتا ہے جہاں ہر لنک کو AI تھنکنگ چین کی نگرانی کو برقرار رکھنے کی ترغیب ملتی ہے، کیونکہ سبھی آخری صارف کے لیے جوابدہ ہوتے ہیں۔
نگرانی کی صلاحیتوں کو برقرار رکھنے کا چیلنج
تاہم، AI سوچ کی زنجیروں کی نگرانی کرنے کی صلاحیت نازک اور کمزور رہ سکتی ہے۔ نئے AI فن تعمیرات کو دیگر خطرات بھی لاحق ہو سکتے ہیں۔
بہت سے محققین مجرد الفاظ کی بجائے مسلسل ریاضی کی جگہ میں استدلال کے نظام تیار کر رہے ہیں، جو سوچ میں زبان کے استعمال کی ضرورت کو مکمل طور پر ختم کر سکتے ہیں۔
مزید برآں، AI "فلٹرڈ" بن سکتا ہے - یعنی یہ صرف انسانوں کے مثبت خیالات دکھاتا ہے جس کی تعریف کی جاتی ہے، جبکہ جان بوجھ کر اپنے حقیقی ارادوں کو چھپاتا ہے۔
یہاں خطرہ یہ ہے کہ ایک بار جب کسی AI کو معلوم ہو جاتا ہے کہ اس کی نگرانی کی جا رہی ہے، تو وہ اپنی سوچ کی حقیقی ٹرین کو چھپانا سیکھ سکتا ہے۔
اس تناظر میں، پوائنٹ ای، شق 1، ویتنامی قانون کے آرٹیکل 41 میں "مصنوعی ذہانت کے نظام کے پورے زندگی کے دوران خطرے پر قابو پانے" کی فراہمی خاص طور پر اہم ہو جاتی ہے۔ اس کے لیے ایک مسلسل نگرانی کے طریقہ کار کی ضرورت ہے، نہ کہ صرف تعیناتی کے وقت۔
AI کی ترقی کے مستقبل پر اثر
سوچ کے سلسلہ کی نگرانی ایک اہم ذریعہ بن سکتا ہے تاکہ یہ یقینی بنایا جاسکے کہ AI ان طریقوں سے کام کرتا ہے جس سے انسانوں کو فائدہ ہوتا ہے۔
اگر ماڈلز فطری زبان میں استدلال جاری رکھتے ہیں، اور اگر ایسے طرز عمل جو سب سے زیادہ سنگین خطرات لاحق ہوتے ہیں، وسیع استدلال کی ضرورت ہوتی ہے، تو یہ سنگین بدانتظامی کا قابل بھروسہ پتہ لگانے کے قابل ہو سکتا ہے۔
ویتنام کے لیے، CoT مانیٹرنگ تکنیک کو لاگو کرنے سے قانون کی دفعات کو مؤثر طریقے سے نافذ کرنے میں مدد ملے گی۔
مثال کے طور پر، آرٹیکل 41 میں "وضاحت" کی ضرورت کو پورا کرنا آسان ہوگا اگر AI کی سوچ کی ٹرین قابل رسائی ہو۔ اسی طرح، "الگورتھمز، مصنوعی ذہانت کے ماڈلز کا کنٹرول" زیادہ قابل عمل ہو جائے گا۔
ویتنام میں اے آئی چین مانیٹرنگ کے نفاذ کو کئی چیلنجوں کا سامنا کرنا پڑے گا۔ سب سے پہلے، انسانی وسائل کا مسئلہ ہے - AI ماہرین کی کمی جو نگرانی کے نظام کو تیار کرنے اور چلانے کی صلاحیت رکھتے ہیں۔
اس کے لیے تربیت اور ہنر کی کشش میں بھاری سرمایہ کاری کی ضرورت ہے۔
مستقبل کے لیے ہدایات
محققین AI ماڈل کے سرکردہ ڈویلپرز سے یہ تحقیق کرنے کے لیے کہتے ہیں کہ CoT کو کون سی چیز "مانیٹر کرنے کے قابل" بناتی ہے — وہ عوامل جو AI ماڈلز کے استعمال کے بارے میں شفافیت کو بڑھا یا کم کر سکتے ہیں — اور جلد ہی جوابات کے ساتھ سامنے آئیں گے۔
AI "سوچ" کی نگرانی کرنے کا موقع آج کے تیزی سے طاقتور مصنوعی ذہانت کے نظاموں پر کنٹرول برقرار رکھنے کے لیے ہماری آخری ونڈو ہو سکتا ہے۔

ویتنام کے لیے، ڈیجیٹل ٹیکنالوجی انڈسٹری کے قانون کے ذریعے AI پر ایک جامع قانونی فریم ورک کا ہونا ایک بہت بڑا فائدہ ہے۔ شفافیت، الگورتھم کنٹرول اور رسک کی درجہ بندی سے متعلق ضوابط نے AI چین کی سوچ کی نگرانی کی تکنیکوں کو لاگو کرنے کے لیے ایک ٹھوس قانونی بنیاد بنائی ہے۔
جدید بین الاقوامی تحقیق اور ایک ترقی پسند گھریلو قانونی فریم ورک کے امتزاج سے ویتنام کو نہ صرف AI کو محفوظ طریقے سے تیار کرنے میں مدد ملے گی بلکہ خطے کے دیگر ممالک کے لیے بھی ایک ماڈل بن جائے گا۔
یہ ویتنام کو "علاقائی اور عالمی ڈیجیٹل ٹیکنالوجی کے مرکز" میں تبدیل کرنے کے ہدف کے مطابق ہے جیسا کہ قومی ترقی کی حکمت عملیوں میں بیان کیا گیا ہے۔
موجودہ قانونی بنیاد کے ساتھ، ویتنام کو AI چین آف سوچ کی نگرانی پر تحقیق اور عملی ایپلی کیشنز کو تیزی سے تعینات کرنے کی ضرورت ہے۔ صرف ایسا کرنے سے ہی ہم اس بات کو یقینی بنا سکتے ہیں کہ AI "انسانی خوشحالی اور خوشی" کی خدمت کرے گا جیسا کہ ڈیجیٹل ٹیکنالوجی انڈسٹری قانون کی روح نے ہدایت کی ہے۔
ماخذ: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm
تبصرہ (0)