Vietnam.vn - Nền tảng quảng bá Việt Nam

سستے وسائل بننے کے خطرے سے بچنے کے لیے ویتنام کو کیا کرنا چاہیے؟

(ڈین ٹری) - اس تناظر میں کہ ویتنام AI قانون کو نافذ کرنے پر غور کرنے والے پیش قدمی کرنے والے ممالک میں سے ایک ہے، مسئلہ نہ صرف ٹیکنالوجی کو فروغ دینا ہے بلکہ ڈیجیٹل خودمختاری اور لوگوں کی حفاظت کا بھی ہے۔

Báo Dân tríBáo Dân trí03/12/2025


مصنوعی ذہانت (AI) کا دھماکہ انسانیت کے لیے بہت زیادہ فائدے لاتا ہے لیکن اس کے لاتعداد نتائج بھی شامل ہیں: نسلی تعصب، جدید ترین آن لائن فراڈ سے لے کر ترقی پذیر ممالک کے سستے "ڈیٹا مائنز" بننے کے خطرے تک۔

اس حقیقت کو دیکھتے ہوئے، کیا AI کا ذمہ دارانہ استعمال رضاکارانہ یا لازمی ہونا چاہیے؟ اس میدان کے لیے قانونی راہداری کی تعمیر کرتے وقت ویتنام کو کیا کرنا چاہیے؟

ون فیوچر سائنس اینڈ ٹیکنالوجی ویک ایونٹ کے موقع پر، رپورٹر نے پروفیسر ٹوبی والش - یونیورسٹی آف نیو ساؤتھ ویلز (آسٹریلیا)، امریکن کمپیوٹر سوسائٹی کے ماہر تعلیم کے ساتھ بات چیت کی۔

پروفیسر اس بارے میں بصیرت پیش کرتا ہے کہ ہم AI کے ساتھ کیسے "رویہ" کرتے ہیں، "مشینوں" کو جوابدہ رکھنے سے لے کر خاندانوں کو ہائی ٹیک گھوٹالوں کی لہر سے بچانے کے لیے تجاویز تک۔

AI کا ذمہ دار کون ہے؟

پروفیسر، کیا AI کا ذمہ دارانہ استعمال رضاکارانہ یا لازمی ہونا چاہیے؟ اور ہمیں اصل میں AI کے ساتھ کیسا برتاؤ کرنا چاہئے؟

- میں پختہ یقین رکھتا ہوں کہ AI کا ذمہ دارانہ استعمال لازمی ہونا چاہیے ۔ ٹیڑھی ترغیبات ہیں ، جس میں AI کے ساتھ بہت زیادہ رقم کمائی جا رہی ہے، اور مناسب رویے کو یقینی بنانے کا واحد طریقہ سخت ضوابط نافذ کرنا ہے ، تاکہ عوامی مفاد ہمیشہ تجارتی مفادات کے ساتھ متوازن رہے ۔

جب AI غلطی کرتا ہے، کون ذمہ دار ہے؟ خاص طور پر AI ایجنٹوں کے ساتھ، کیا ہمارے پاس ان کے آپریٹنگ میکانزم کو ٹھیک کرنے کی صلاحیت ہے؟

AI سے غلطیاں کرنے کا بنیادی مسئلہ یہ ہے کہ ہم AI کو جوابدہ نہیں ٹھہرا سکتے۔ AI انسان نہیں ہے - اور یہ دنیا کے ہر قانونی نظام میں ایک خامی ہے۔ صرف انسانوں کو ان کے فیصلوں اور اعمال کا جوابدہ ٹھہرایا جا سکتا ہے۔

سستے وسائل بننے کے خطرے سے بچنے کے لیے ویتنام کو کیا کرنا چاہیے؟ - 1

اچانک، ہمارے پاس ایک نیا "ایجنٹ،" اے آئی ہے، جو کہ اگر ہم اسے اجازت دیں تو ہماری دنیا میں فیصلے کر سکتے ہیں اور اقدامات کر سکتے ہیں، جو ایک چیلنج بنتا ہے: ہم کس کو جوابدہ ہوں گے؟

جواب یہ ہے کہ: وہ کمپنیاں جو AI سسٹمز کو تعینات اور چلاتی ہیں ان "مشینوں" کی وجہ سے ہونے والے نتائج کے لیے ذمہ دار ٹھہرایا جانا چاہیے۔

بہت سی کمپنیاں ذمہ دار AI کے بارے میں بھی بات کرتی ہیں۔ ہم ان پر کیسے بھروسہ کر سکتے ہیں؟ ہم کیسے جانتے ہیں کہ وہ سنجیدہ اور جامع ہیں، اور صرف "ذمہ دار AI" کو مارکیٹنگ کی چال کے طور پر استعمال نہیں کر رہے؟

- ہمیں شفافیت کو بڑھانے کی ضرورت ہے۔ AI سسٹمز کی صلاحیتوں اور حدود کو سمجھنا ضروری ہے۔ ہمیں "کر کر ووٹ" بھی دینا چاہیے، یعنی خدمات کو ذمہ داری سے استعمال کرنے کا انتخاب کریں۔

مجھے یقین ہے کہ کاروبار کس طرح AI کو ذمہ داری کے ساتھ استعمال کرتے ہیں وہ مارکیٹ پلیس میں فرق کرنے والا بن جائے گا، جس سے انہیں تجارتی فائدہ ملے گا۔

اگر کوئی کمپنی کسٹمر کے ڈیٹا کا احترام کرتی ہے، تو اس سے فائدہ ہوگا اور صارفین کو اپنی طرف متوجہ کیا جائے گا۔ کاروباری اداروں کو یہ احساس ہوگا کہ صحیح کام کرنا نہ صرف اخلاقی ہے، بلکہ اس سے انہیں زیادہ کامیاب ہونے میں بھی مدد ملے گی۔ میں اسے کاروبار کے درمیان فرق کرنے کے طریقے کے طور پر دیکھتا ہوں، اور ذمہ دار کاروبار وہ ہیں جن کے ساتھ ہم کاروبار کرنے میں آسانی محسوس کر سکتے ہیں۔

ویتنام کو ثقافتی اقدار کا فعال طور پر تحفظ کرنے کی ضرورت ہے۔

ویتنام ان چند ممالک میں سے ایک ہے جو مصنوعی ذہانت کے قانون کو نافذ کرنے پر غور کر رہے ہیں۔ اس کے بارے میں آپ کا کیا اندازہ ہے؟ آپ کی رائے میں، ویتنام جیسے ترقی پذیر ممالک کے لیے، AI کی ترقی میں اخلاقیات اور حفاظت کے حوالے سے کیا چیلنجز ہیں؟

- مجھے بہت خوشی ہے کہ ویتنام ان پیشرو ممالک میں سے ایک ہے جس کے پاس مصنوعی ذہانت سے متعلق خصوصی قانون ہوگا۔ یہ ضروری ہے کیونکہ ہر ملک کی اپنی اقدار اور ثقافت ہوتی ہے اور ان اقدار کے تحفظ کے لیے قوانین کی ضرورت ہوتی ہے۔

ویتنامی اقدار اور ثقافت آسٹریلیا، چین اور امریکہ سے مختلف ہیں۔ ہم چین یا امریکہ سے ٹیکنالوجی کمپنیوں سے خود بخود ویتنامی ثقافت اور زبان کی حفاظت کی توقع نہیں کر سکتے۔ ویتنام کو ان چیزوں کے تحفظ کے لیے پہل کرنی چاہیے۔

مجھے یاد ہے کہ ماضی میں بہت سے ترقی پذیر ممالک جسمانی نوآبادیات کے دور سے گزر چکے ہیں۔ اگر ہم محتاط نہیں رہے تو ہم "ڈیجیٹل کالونائزیشن" کے دور سے گزر سکتے ہیں۔ آپ کے ڈیٹا کا استحصال کیا جائے گا اور آپ ایک سستا وسیلہ بن جائیں گے۔

یہ خطرے میں ہے اگر ترقی پذیر ممالک AI صنعت کو اس طریقے سے تیار کریں جو صرف اپنے مفادات کو کنٹرول یا تحفظ کیے بغیر ڈیٹا کا استحصال کریں۔

تو اس صورتحال پر کیسے قابو پایا جائے؟

- یہ آسان ہے: لوگوں میں سرمایہ کاری کریں۔ ہنر مند لوگ، یقینی بنائیں کہ وہ AI کو سمجھتے ہیں۔ کاروباری افراد، AI کمپنیوں، سپورٹ یونیورسٹیوں کی حمایت کریں۔ متحرک رہیں۔ دوسرے ممالک کا ٹیکنالوجی کی منتقلی یا ہماری رہنمائی کا انتظار کرنے کے بجائے، ہمیں فعال ہونا چاہیے اور ٹیکنالوجی میں مہارت حاصل کرنی چاہیے۔

سستے وسائل بننے کے خطرے سے بچنے کے لیے ویتنام کو کیا کرنا چاہیے؟ - 2

پروفیسر ٹوبی والش ون فیوچر سائنس اینڈ ٹیکنالوجی ویک میں شریک ہیں (تصویر: آرگنائزنگ کمیٹی)۔

دوسرا، ہمیں ملک کی جمہوریت کو متاثر نہ کرتے ہوئے، ویتنام میں صارفین کے لیے ایک محفوظ ماحول پیدا کرنے کے لیے سوشل میڈیا پلیٹ فارمز کی بھرپور وکالت کرنے کی ضرورت ہے۔

درحقیقت، اس بات کی بے شمار مثالیں موجود ہیں کہ کس طرح سوشل میڈیا کے مواد نے انتخابی نتائج کو متاثر کیا، ممالک کو منقسم کیا، اور یہاں تک کہ دہشت گردی کو ہوا دی۔

میں نے 40 سال مصنوعی ذہانت پر کام کرتے ہوئے گزارے ہیں۔ پہلے 30 سالوں تک، میں اس بات سے پریشان تھا کہ AI کو مزید طاقتور کیسے بنایا جائے۔ پچھلے 10 سالوں میں، میں AI کو ذمہ داری کے ساتھ تیار کرنے کے بارے میں تیزی سے دلچسپی اور آواز اٹھا رہا ہوں۔

کیا آپ کچھ مشورہ دے سکتے ہیں کیونکہ ویتنام مصنوعی ذہانت سے متعلق قانون کا مسودہ تیار کرنے کے عمل میں ہے؟

- بہت سے ایسے معاملات ہیں جہاں نئے قوانین کی ضرورت نہیں ہے۔ ہمارے پاس پہلے سے ہی رازداری کے قوانین ہیں، ہمارے پاس پہلے سے ہی مسابقتی قوانین ہیں۔ یہ موجودہ قوانین ڈیجیٹل اسپیس پر لاگو ہوتے ہیں، بالکل اسی طرح جیسے وہ طبعی دنیا پر لاگو ہوتے ہیں۔

ڈیجیٹل ماحول میں ان قوانین کو اتنی ہی سختی سے نافذ کرنا ضروری ہے جیسا کہ ہم جسمانی ماحول میں کرتے ہیں۔

تاہم، کچھ نئے خطرات ہیں جو ابھر رہے ہیں اور ہم اسے دیکھنا شروع کر رہے ہیں۔ لوگ AI کے ساتھ تعلقات بنانا شروع کر رہے ہیں، AI کو بطور معالج استعمال کر رہے ہیں اور بعض اوقات یہ صارفین کو نقصان پہنچاتا ہے، اس لیے ہمیں محتاط رہنے کی ضرورت ہے۔

ہم ہمیشہ مینوفیکچررز کو ذمہ دار ٹھہراتے ہیں جب وہ مصنوعات جاری کرتے ہیں۔ مثال کے طور پر، اگر AI کمپنیاں AI مصنوعات جاری کرتی ہیں جو انسانوں کو نقصان پہنچاتی ہیں، تو انہیں بھی ذمہ دار ٹھہرایا جانا چاہیے۔

تو ہم کیسے AI کو بچوں پر نقصان دہ اثرات پیدا کرنے سے روک سکتے ہیں اور جب بھی AI ظاہر ہوتا ہے بچوں کے لیے ایک محفوظ ماحول پیدا کر سکتے ہیں، جناب؟

- مجھے لگتا ہے کہ ہم نے سوشل میڈیا سے بہت سے سبق نہیں سیکھے ہیں۔ بہت سے ممالک کو اب یہ احساس ہونے لگا ہے کہ سوشل میڈیا کے بہت سے فوائد ہیں لیکن اس کے بہت سے نقصانات بھی ہیں، خاص طور پر نوجوانوں، خاص طور پر لڑکیوں کی ذہنی صحت، بے چینی کی سطح اور جسمانی امیج پر اثرات۔

بہت سے ممالک نے اس مسئلے سے نمٹنے کے لیے اقدامات پر عمل درآمد شروع کر دیا ہے۔ آسٹریلیا میں، سوشل میڈیا استعمال کرنے کے لیے عمر کی حد 10 دسمبر سے نافذ العمل ہو گی۔ میرے خیال میں ہمیں AI کے لیے بھی ایسے ہی اقدامات کی ضرورت ہے۔

ہم ایسے اوزار بنا رہے ہیں جن کے مثبت اثرات تو ہو سکتے ہیں لیکن نقصان بھی ہو سکتے ہیں، اور ہمیں اپنے بچوں کے ذہنوں اور دلوں کو ان منفی اثرات سے بچانے کی ضرورت ہے۔

اس کے علاوہ، مجھے امید ہے کہ ممالک سوشل نیٹ ورکس کو منظم کرنے کے لیے سخت ضابطے بھی جاری کریں گے، اس طرح AI استعمال کرتے وقت ہر ایک کے لیے واقعی ایک محفوظ ماحول پیدا ہوگا۔

درحقیقت، نہ صرف بچے بلکہ بڑوں کو بھی خود AI کی وجہ سے ہونے والے خطرات کا سامنا ہے۔ تو لوگ کیسے اپنی زندگی کو بہتر بنانے کے لیے AI کا استعمال کر سکتے ہیں اور خطرہ نہیں بن سکتے؟

- AI کا اطلاق بہت سے شعبوں میں ہوتا ہے، جو ہماری زندگی کے معیار کو بہتر بنانے میں مدد کرتا ہے۔ طب میں، AI نئی ادویات دریافت کرنے میں مدد کرتا ہے۔ تعلیم میں، AI بہت سے مثبت فوائد بھی لاتا ہے۔

تاہم، مناسب حفاظتی اقدامات کے بغیر AI تک رسائی دینا بہت خطرناک ہے۔ ہم نے امریکہ میں مقدمے دیکھے ہیں جہاں والدین نے ٹیک کمپنیوں کے خلاف مقدمہ دائر کیا جنہوں نے AI چیٹ بوٹس کے ساتھ بات چیت کے بعد اپنے بچوں کو خودکشی پر مجبور کیا۔

اگرچہ ChatGPT کے صارفین کی فیصد جو ذہنی صحت کے مسائل کا سامنا کر رہی ہے صرف چند فیصد ہے، لاکھوں صارفین کے ساتھ، اصل تعداد لاکھوں میں ہے۔

AI کی ترقی کے لیے ڈیٹا بہت اہم ہے، لیکن انتظامی نقطہ نظر سے، اگر ڈیٹا کا انتظام بہت سخت ہے، تو یہ AI کی ترقی میں رکاوٹ بنے گا۔ آپ کی رائے میں، ڈیٹا مینجمنٹ کو ڈھیل دینے سے کیا خطرات پیدا ہو سکتے ہیں؟ ڈیٹا اکٹھا کرنے، محفوظ ڈیٹا مینجمنٹ کو AI کے لیے ڈیولپمنٹ بنانے کے ساتھ توازن کیسے بنایا جائے؟

- میں بالکل متفق ہوں. ڈیٹا AI کی ترقی کے مرکز میں ہے ، کیونکہ یہ ڈیٹا ہے جو اسے چلاتا ہے۔ اعداد و شمار کے بغیر، ہم کوئی ترقی نہیں کریں گے. ہم جو کچھ بھی کرتے ہیں اس میں اعلیٰ معیار کا ڈیٹا ہوتا ہے۔ درحقیقت، تجارتی قدر اور مسابقتی فائدہ جو کمپنیوں کو حاصل ہوتا ہے وہ ڈیٹا سے حاصل ہوتا ہے۔ ہمارے پاس معیاری ڈیٹا ہے یا نہیں، یہ اہم مسئلہ ہے۔

دنیا بھر کے مصنفین کی کتابیں - بشمول میری - بغیر اجازت اور معاوضے کے استعمال ہوتے دیکھ کر غصہ آتا ہے۔ یہ دوسرے لوگوں کی محنت کا پھل چوری کرنے کا عمل ہے۔ اگر یہ صورتحال جاری رہی تو مصنفین کتابیں لکھنے کا حوصلہ کھو دیں گے اور ہم ان ثقافتی اقدار سے محروم ہو جائیں گے جن کی ہم قدر کرتے ہیں۔

ہمیں اس سے زیادہ مساوی حل تلاش کرنے کی ضرورت ہے جو ہمارے پاس اب ہے۔

ابھی، "سلیکون ویلی" مصنفین سے مواد اور تخلیقی صلاحیتوں کو بغیر کسی معاوضے کے لیتی ہے – یہ غیر پائیدار ہے۔ میں موجودہ صورتحال کا موازنہ نیپسٹر اور 2000 کی دہائی میں آن لائن موسیقی کے ابتدائی دنوں سے کرتا ہوں۔ اس وقت، آن لائن موسیقی تمام "چوری" تھی، لیکن یہ ہمیشہ قائم نہیں رہ سکتی، کیونکہ موسیقاروں کو تخلیق جاری رکھنے کے لیے آمدنی کی ضرورت ہوتی ہے۔

آخر میں، ہم نے ادا کردہ اسٹریمنگ سسٹمز ، جیسے Spotify یا Apple Music، یا اشتہار سے تعاون یافتہ موسیقی، جس کی آمدنی کا ایک حصہ فنکار کو واپس جاتا ہے۔ ہمیں کتابوں کے ساتھ بھی ایسا ہی کرنے کی ضرورت ہے، تاکہ مصنفین کو ان کے ڈیٹا سے قدر ملے۔ دوسری صورت میں، کوئی بھی کتابیں لکھنے کے لئے حوصلہ افزائی نہیں کرے گا، اور دنیا نئی کتابوں کے بغیر بہت خراب ہو جائے گی.

سستے وسائل بننے کے خطرے سے بچنے کے لیے ویتنام کو کیا کرنا چاہیے؟ - 3

VinFuture سائنس اور ٹیکنالوجی ہفتہ کے فریم ورک کے اندر، نمائش "Toa V - Touchpoint of Science" Vincom Royal City Contemporary Art Center (تصویر: آرگنائزنگ کمیٹی) میں بھی منعقد ہوگی۔

ویتنام میں AI بہت ترقی یافتہ ہے۔ حالیہ دنوں میں، ویتنام میں AI کو فروغ دینے کے لیے بہت سی پالیسیاں ہیں، لیکن ویتنام کو ایک مسئلہ کا بھی سامنا ہے، جو کہ AI کی وجہ سے ہونے والا فراڈ ہے۔ تو، پروفیسر کے مطابق، ویتنام کو اس صورت حال سے کیسے نمٹنا چاہیے؟ ان لوگوں کے لیے پروفیسر کا کیا مشورہ ہے جو آج کل AI استعمال کر رہے ہیں تاکہ حفاظت کو یقینی بنایا جا سکے اور اپنے ڈیٹا کی حفاظت کی جا سکے۔

- ہر فرد کے لیے، میرے خیال میں سب سے آسان طریقہ معلومات کی تصدیق کرنا ہے۔ مثال کے طور پر، فون کال یا ای میل موصول ہونے پر، مثال کے طور پر کسی بینک سے، ہمیں دوبارہ چیک کرنے کی ضرورت ہے: ہم اس سبسکرائبر نمبر کو واپس کال کر سکتے ہیں یا معلومات کی تصدیق کے لیے براہ راست بینک سے رابطہ کر سکتے ہیں۔

ان دنوں بہت ساری جعلی ای میلز، جعلی فون نمبرز، یہاں تک کہ جعلی زوم کالز بھی ہیں۔ یہ گھوٹالے سادہ، سستے ہیں، اور زیادہ وقت نہیں لیتے ہیں۔

میرے خاندان میں، ہمارا اپنا حفاظتی اقدام بھی ہے: ایک "خفیہ سوال" جسے صرف خاندان کے افراد ہی جانتے ہیں، جیسے کہ ہمارے پالتو خرگوش کا نام۔ یہ اس بات کو یقینی بناتا ہے کہ اہم معلومات خاندان کے اندر رہیں اور باہر نہ جائیں۔

ویتنام نے بھی AI تعلیم کو عام تعلیم میں شامل کیا ہے، تو اس عمل میں کس چیز کا خیال رکھا جائے؟

- AI جو کچھ پڑھایا جاتا ہے اور اسے کیسے پڑھایا جاتا ہے اسے تبدیل کرتا ہے۔ یہ مستقبل کی اہم مہارتوں کو متاثر کرتا ہے، جیسے تنقیدی سوچ، مواصلات کی مہارت، سماجی ذہانت اور جذباتی ذہانت۔ یہ مہارتیں ضروری ہو جائیں گی۔

AI ان مہارتوں کو سکھانے میں مدد کر سکتا ہے، مثال کے طور پر ذاتی ٹیوٹر، پرسنل اسٹڈی اسسٹنٹ، AI ایپلی کیشنز کے ذریعے بہت موثر تعلیمی ٹولز فراہم کرنا۔

ہماری بات چیت کے لیے وقت نکالنے کے لیے پروفیسر کا شکریہ!

ماخذ: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm


تبصرہ (0)

برائے مہربانی اپنی جذبات کا اظہار کرنے کے لیے تبصرہ کریں!

اسی موضوع میں

اسی زمرے میں

ہو چی منہ شہر میں نوٹری ڈیم کیتھیڈرل کرسمس 2025 کے استقبال کے لیے روشن ہے
ہنوئی کی لڑکیاں کرسمس کے موسم کے لیے خوبصورتی سے "ڈریس اپ" کرتی ہیں۔
طوفان اور سیلاب کے بعد روشن، گیا لائی کے ٹیٹ کرسنتھیمم گاؤں کو امید ہے کہ پودوں کو بچانے کے لیے بجلی کی بندش نہیں ہوگی۔
وسطی علاقے میں زرد خوبانی کے دارالحکومت کو دہری قدرتی آفات کے بعد بھاری نقصان اٹھانا پڑا

اسی مصنف کی

ورثہ

پیکر

کاروبار

دلات کافی شاپ کے صارفین میں 300 فیصد اضافہ دیکھا گیا کیونکہ مالک 'مارشل آرٹ فلم' کا کردار ادا کرتا ہے

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ