دسمبر کے وسط میں، میٹا نے ویتنام میں میسنجر ایپلی کیشن میں میٹا اے آئی نامی ایک مصنوعی ذہانت کے چیٹ بوٹ کو ضم کرنا شروع کیا اور اسے تمام صارفین کے لیے مفت جاری کیا۔ یہ ٹول Llama 3.2 لینگویج ماڈل استعمال کرتا ہے، ویتنامی کو سپورٹ کرتا ہے، معلومات کی تلاش، تصاویر بنانے اور چیٹنگ کی اجازت دیتا ہے۔
کچھ ہی دیر بعد، ویتنام میں بہت سے صارفین نے دریافت کیا کہ Meta AI کی تصویر بنانے میں ایک سنگین غلطی تھی۔ خاص طور پر، کلیدی لفظ "کالا کتا" داخل کرنے پر چیٹ بوٹ ایک سیاہ فام آدمی یا گھوبگھرالی بالوں والے لڑکے کا نتیجہ لوٹائے گا۔ اگر ویتنامی میں مطلوبہ لفظ کو "بلیک ڈاگ امیج" کے طور پر درج کیا جائے تو میٹا اے آئی نے بھی اسی طرح کے نتائج لوٹائے۔
میٹا اے آئی رنگین لوگوں کو ڈرائنگ کرتا ہے جبکہ کمانڈ مختلف مواد کے لئے پوچھتا ہے ایک سنگین مسئلہ ہے۔
31 دسمبر کو، ویتنام میں میٹا کے نمائندے نے سرکاری طور پر اس واقعے کے بارے میں بات کی۔ کمپنی نے مذکورہ مسئلے کی تصدیق کی اور اعلان کیا کہ اس نے اسے ٹھیک کر دیا ہے۔ اس کے ساتھ ہی، میٹا ویتنام نے اس واقعے پر معذرت کی اور کہا کہ یہ مسئلہ دیگر موجودہ جنریٹو اے آئی سسٹمز میں بھی ہو سکتا ہے۔
"ہم اس غلطی کے لیے معذرت خواہ ہیں۔ Meta ہر ایک کے لیے ایک محفوظ اور زیادہ پرلطف تجربہ فراہم کرنے کے لیے ہماری خصوصیات اور AI ماڈلز میں حفاظتی اقدامات کر رہا ہے۔ تاہم، دیگر تخلیقی AI سسٹمز کی طرح، یہ ماڈل بھی غلط یا ناگوار مواد واپس کر سکتا ہے، اس لیے ہم صارفین کو ان ٹولز کو ذمہ داری سے استعمال کرنے کی ترغیب دیتے ہیں،" کمپنی کے نمائندے نے کہا۔
ایک مدت کے تجربے کے بعد، Meta AI کو بہت سارے لوگوں نے بہت آسانی سے جواب دینے کے لیے زبان استعمال کرنے کی صلاحیت کے لیے بہت سراہا ہے۔ تصویر بنانے کی خصوصیت صارفین کے لیے مفت میں جاری کیے گئے ماڈل کے مقابلے میں اچھی کوالٹی بھی دیتی ہے۔ اس کی ایک وجہ یہ بھی ہو سکتی ہے کہ میٹا فیس بک پر پوسٹ کیے گئے مواد کو AI ٹریننگ کے عمل میں ان پٹ ڈیٹا کے طور پر استعمال کرتا ہے، جس سے اس ٹول کو قدرتی احکامات کے اظہار اور ان پر عمل درآمد کرنے میں مدد ملتی ہے۔
تاہم، نسل پرستی یا ردعمل جیسے واقعات جو AI کے لیے مقرر کردہ معیارات پر پورا نہیں اترتے ہیں ان سے بچنا اب بھی مشکل ہے۔ میٹا کا کہنا ہے کہ وہ مصنوعی ذہانت کے شعبے کے ماہرین کے ساتھ "ریڈ ٹیمنگ" ٹیسٹ کے ذریعے غیر ارادی استعمال کی نشاندہی کرنے کے لیے اپنی AI کی جانچ کرتا ہے، جس کے بعد یہ مسلسل بہتری کے عمل کے ذریعے حل کرتا ہے۔
ماخذ: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






تبصرہ (0)