VinFuture 2025 سائنس اور ٹیکنالوجی ویک کے فریم ورک کے اندر پینل ڈسکشن "AI for humanity: AI اخلاقیات اور نئے دور میں حفاظت" سائنس دانوں، سیاست دانوں اور موجدوں کو ایک ساتھ لاتی ہے تاکہ انسانی اقدار کی طرف ذمہ دار AI ترقی پر تبادلہ خیال کیا جا سکے۔
بحث کے موقع پر، پروفیسر ٹوبی والش - یونیورسٹی آف نیو ساؤتھ ویلز (آسٹریلیا)، امریکن ایسوسی ایشن فار کمپیوٹنگ مشینری کے ماہر تعلیم نے AI کے اخلاقی اور ذمہ دارانہ استعمال کے بارے میں بتایا۔
AI کا ذمہ دارانہ استعمال لازمی ہونا چاہیے۔
- پروفیسر کے مطابق، کیا AI کا ذمہ دارانہ استعمال رضاکارانہ یا لازمی ہونا چاہیے؟ اور ہمیں اصل میں AI کے ساتھ کیسا برتاؤ کرنا چاہئے؟
پروفیسر ٹوبی والش: میں پختہ یقین رکھتا ہوں کہ AI کا ذمہ دارانہ استعمال لازمی ہونا چاہیے۔ اس وقت ٹیڑھی ترغیبات ہیں، جس میں AI کے ساتھ بہت زیادہ رقم کمائی جا رہی ہے، اور اچھے رویے کو یقینی بنانے کا واحد طریقہ یہ ہے کہ سخت ضابطے بنائے جائیں، تاکہ عوامی مفاد ہمیشہ تجارتی مفادات کے مقابلے میں متوازن رہے۔
- کیا آپ ذمہ دار اور اخلاقی AI ایپلی کیشنز کی مختلف ممالک سے مخصوص مثالیں دے سکتے ہیں؟
پروفیسر ٹوبی والش: ایک بہترین مثال اعلیٰ داؤ پر لگائے گئے فیصلے ہیں، جیسے کہ ریاستہائے متحدہ میں سزا اور سزا، جہاں ایک AI نظام کو کسی شخص کی قید کی سزا اور دوبارہ جرم کرنے کے امکان کے بارے میں سفارشات کرنے کے لیے استعمال کیا جاتا ہے۔
بدقسمتی سے، یہ نظام تاریخی ڈیٹا پر تربیت یافتہ تھا اور غیر ارادی طور پر ماضی کے نسلی تعصبات کی عکاسی کرتا ہے جو سیاہ فام لوگوں کے خلاف امتیازی سلوک کا باعث بنتے ہیں۔ ہمیں اس طرح کے نظام کو یہ فیصلہ نہیں کرنے دینا چاہیے کہ کس کو قید کیا جائے۔
- جب AI غلطی کرتا ہے، کون ذمہ دار ہے؟ خاص طور پر AI ایجنٹوں کے ساتھ، کیا ہمارے پاس ان کے آپریٹنگ میکانزم کو ٹھیک کرنے کی صلاحیت ہے؟
پروفیسر ٹوبی والش: جب AI غلطیاں کرتا ہے تو بنیادی مسئلہ یہ ہے کہ ہم AI کو جوابدہ نہیں ٹھہرا سکتے۔ AI انسان نہیں ہے اور یہ دنیا کے ہر قانونی نظام میں ایک خامی ہے۔ صرف انسان اپنے فیصلوں اور اعمال کے ذمہ دار ہیں۔
اچانک، ہمارے پاس ایک نیا "ایجنٹ" ہے جسے AI کہا جاتا ہے، جو - اگر ہم اسے اجازت دیں تو - فیصلے کر سکتے ہیں اور ہماری دنیا میں اقدامات کر سکتے ہیں، جو ایک چیلنج ہے: ہم کس کا جوابدہ ہوں گے؟
اس کا جواب یہ ہے کہ ان کمپنیوں کو ذمہ دار ٹھہرایا جائے جو AI سسٹمز کو تعینات اور چلاتی ہیں ان نتائج کے لیے جو ان "مشینوں" کا سبب بنتی ہیں۔

پروفیسر ٹوبی والش - نیو ساؤتھ ویلز یونیورسٹی نے VinFuture 2025 سائنس اور ٹیکنالوجی ہفتہ کے فریم ورک کے اندر "AI for humanity: AI اخلاقیات اور نئے دور میں حفاظت" کے سیمینار میں اشتراک کیا۔ (تصویر: من سون/ویتنام+)
- بہت سی کمپنیاں ذمہ دار AI کے بارے میں بھی بات کرتی ہیں۔ ہم ان پر کیسے بھروسہ کر سکتے ہیں؟ ہم کیسے جانتے ہیں کہ وہ سنجیدہ اور جامع ہیں، اور صرف "ذمہ دار AI" کو مارکیٹنگ کی چال کے طور پر استعمال نہیں کر رہے؟
پروفیسر ٹوبی والش: ہمیں شفافیت بڑھانے کی ضرورت ہے۔ AI سسٹمز کی صلاحیتوں اور حدود کو سمجھنا ضروری ہے۔ ہمیں "کر کر ووٹ" بھی دینا چاہیے - خدمات کو ذمہ داری سے استعمال کرنے کا انتخاب کرنا۔
مجھے یقین ہے کہ کاروبار کس طرح AI کو ذمہ داری کے ساتھ استعمال کرتے ہیں وہ مارکیٹ پلیس میں فرق کرنے والا بن جائے گا، جس سے انہیں تجارتی فائدہ ملے گا۔ اگر کوئی کمپنی کسٹمر کے ڈیٹا کا احترام کرتی ہے، تو اس سے فائدہ ہوگا اور صارفین کو اپنی طرف متوجہ کیا جائے گا۔
کاروباری اداروں کو احساس ہوگا کہ صحیح کام کرنا نہ صرف اخلاقی ہے، بلکہ یہ انہیں مزید کامیاب بھی بنائے گا۔ میں اسے کاروبار کے درمیان فرق کرنے کے طریقے کے طور پر دیکھتا ہوں، اور ذمہ دار کاروبار وہ ہیں جن کے ساتھ ہم کاروبار کرنے میں آسانی محسوس کر سکتے ہیں۔
'اگر ہم محتاط نہیں رہے تو ہم ڈیجیٹل کالونائزیشن کے دور کا تجربہ کر سکتے ہیں'
- ویتنام ان چند ممالک میں سے ایک ہے جو مصنوعی ذہانت کے قانون کو نافذ کرنے پر غور کر رہے ہیں۔ اس کے بارے میں آپ کا کیا اندازہ ہے؟ آپ کی رائے میں، ویتنام جیسے ترقی پذیر ممالک کے لیے، AI کی ترقی میں اخلاقیات اور سلامتی کے حوالے سے کیا چیلنجز ہیں؟ پروفیسر کے پاس ویتنام کو AI حکمت عملی میں اپنے اہداف حاصل کرنے کے لیے کیا سفارشات ہیں - AI تحقیق اور مہارت میں خطے اور دنیا میں سرفہرست رہنے کے لیے؟
پروفیسر ٹوبی والش: مجھے خوشی ہے کہ ویتنام ان پیشرو ممالک میں سے ایک ہے جہاں مصنوعی ذہانت سے متعلق ایک وقف قانون ہوگا۔ یہ ضروری ہے کیونکہ ہر ملک کی اپنی اقدار اور ثقافت ہوتی ہے اور ان اقدار کے تحفظ کے لیے قوانین کی ضرورت ہوتی ہے۔
ویتنامی اقدار اور ثقافت آسٹریلیا، چین اور امریکہ سے مختلف ہیں۔ ہم چین یا امریکہ سے ٹیکنالوجی کمپنیوں سے خود بخود ویتنامی ثقافت اور زبان کی حفاظت کی توقع نہیں کر سکتے۔ ویتنام کو ان چیزوں کے تحفظ کے لیے پہل کرنی چاہیے۔

پروفیسر ٹوبی والش نے خبردار کیا ہے کہ اگر ہم محتاط نہیں رہے تو ہم ڈیجیٹل کالونائزیشن کے دور کا سامنا کر سکتے ہیں۔ (تصویر: من سون/ویتنام+)
مجھے یاد ہے کہ ماضی میں، بہت سے ترقی پذیر ممالک جسمانی نوآبادیات کے دور سے گزرے۔ اگر ہم محتاط نہیں رہے تو ہم "ڈیجیٹل کالونائزیشن" کے دور سے گزر سکتے ہیں۔ آپ کے ڈیٹا کا استحصال کیا جائے گا اور آپ ایک سستا وسیلہ بن جائیں گے۔
یہ خطرے میں ہے اگر ترقی پذیر ممالک AI صنعت کو اس طریقے سے تیار کریں جو صرف اپنے مفادات کو کنٹرول یا تحفظ کیے بغیر ڈیٹا کا استحصال کریں۔
- تو اس صورت حال پر کیسے قابو پایا جائے، پروفیسر؟
پروفیسر ٹوبی والش: یہ آسان ہے، لوگوں میں سرمایہ کاری کریں۔ ہنر مند لوگ، یقینی بنائیں کہ وہ AI کو سمجھتے ہیں۔ AI کاروباری افراد، کمپنیوں، سپورٹ یونیورسٹیوں کی حمایت کریں۔ متحرک رہیں۔ دوسرے ممالک تکنالوجی کی منتقلی یا ہماری رہنمائی کا انتظار کرنے کے بجائے، ہمیں متحرک رہنا ہوگا اور ٹیکنالوجی کا مالک ہونا ہوگا۔
مزید اہم بات یہ ہے کہ ہمیں سوشل میڈیا پلیٹ فارمز کی بھرپور وکالت کرنے کی ضرورت ہے تاکہ ویتنام میں صارفین کے لیے ایک محفوظ ماحول پیدا کیا جا سکے، جبکہ ملک کی جمہوریت پر کوئی اثر نہ پڑے۔
درحقیقت، اس بات کی بے شمار مثالیں موجود ہیں کہ کس طرح سوشل میڈیا کے مواد نے انتخابی نتائج کو متاثر کیا، ممالک کو منقسم کیا، اور یہاں تک کہ دہشت گردی کو ہوا دی۔
- ویتنام میں AI بہت ترقی یافتہ ہے۔ حالیہ دنوں میں، ویتنام میں AI کو فروغ دینے کے لیے بہت سی پالیسیاں ہیں، لیکن ویتنام کو ایک مسئلہ کا بھی سامنا ہے، جو کہ AI کی وجہ سے ہونے والا فراڈ ہے۔ تو، پروفیسر کے مطابق، ویتنام کو اس صورت حال سے کیسے نمٹنا چاہیے؟
پروفیسر ٹوبی والش: افراد کے لیے، میرے خیال میں سب سے آسان طریقہ معلومات کی تصدیق کرنا ہے۔ مثال کے طور پر، جب ہمیں فون کال یا ای میل موصول ہوتی ہے، مثال کے طور پر کسی بینک سے، ہمیں اسے دوبارہ چیک کرنے کی ضرورت ہے: ہم اس فون نمبر پر واپس کال کر سکتے ہیں یا معلومات کی تصدیق کے لیے براہ راست بینک سے رابطہ کر سکتے ہیں۔ آج کل، بہت سے جعلی ای میلز، جعلی فون نمبرز، یہاں تک کہ زوم کالز بھی جعلی ہو سکتی ہیں۔ یہ گھوٹالے بہت آسان، سستے ہیں اور زیادہ وقت نہیں لیتے ہیں۔
میرے خاندان میں، ہمارا اپنا حفاظتی اقدام بھی ہے: ایک "خفیہ سوال" جسے صرف خاندان کے افراد ہی جانتے ہیں، جیسے کہ ہمارے پالتو خرگوش کا نام۔ یہ اس بات کو یقینی بناتا ہے کہ اہم معلومات خاندان کے اندر رہیں اور باہر نہ جائیں۔
- بہت بہت شکریہ./.
پروفیسر ٹوبی والش یونیورسٹی آف نیو ساؤتھ ویلز سڈنی (UNSW) میں آرٹیفیشل انٹیلی جنس (AI) میں ARC کے اعزازی اسکالر اور سائنسی پروفیسر ہیں۔ وہ لوگوں کی زندگیوں کو بہتر بنانے کے لیے AI کا استعمال یقینی بنانے کے لیے حدود طے کرنے کا ایک مضبوط وکیل ہے۔
وہ آسٹریلین اکیڈمی آف سائنس کے فیلو بھی ہیں اور انہیں "AI میں بااثر افراد" کی بین الاقوامی فہرست میں شامل کیا گیا ہے۔
(ویتنام+)
ماخذ: https://www.vietnamplus.vn/doanh-nghiep-su-dung-ai-co-trach-nhiem-se-mang-lai-loi-the-thuong-mai-post1080681.vnp






تبصرہ (0)