Vietnam.vn - Nền tảng quảng bá Việt Nam

میٹا نے AI خرابی کی ڈرائنگ 'بلیک ڈاگ' پر معذرت کی

Báo Thanh niênBáo Thanh niên31/12/2024


دسمبر کے وسط میں، میٹا نے ویتنام میں میسنجر ایپلی کیشن میں میٹا اے آئی نامی ایک مصنوعی ذہانت کے چیٹ بوٹ کو ضم کرنا شروع کیا اور اسے تمام صارفین کے لیے مفت جاری کیا۔ یہ ٹول Llama 3.2 لینگویج ماڈل استعمال کرتا ہے، ویتنامی کو سپورٹ کرتا ہے، معلومات کی تلاش، تصاویر بنانے اور چیٹنگ کی اجازت دیتا ہے۔

کچھ ہی دیر بعد، ویتنام میں بہت سے صارفین نے دریافت کیا کہ Meta AI کی تصویر بنانے میں ایک سنگین غلطی تھی۔ خاص طور پر، کلیدی لفظ "کالا کتا" داخل کرنے پر چیٹ بوٹ ایک سیاہ فام آدمی یا گھوبگھرالی بالوں والے لڑکے کا نتیجہ لوٹائے گا۔ اگر ویتنامی میں مطلوبہ لفظ کو "بلیک ڈاگ امیج" کے طور پر درج کیا جائے تو میٹا اے آئی نے بھی اسی طرح کے نتائج لوٹائے۔

Meta AI vẽ người da màu trong khi câu lệnh đặt ra yêu cầu nội dung khác là một sự cố nghiêm trọng

میٹا اے آئی رنگین لوگوں کو ڈرائنگ کرتا ہے جبکہ کمانڈ مختلف مواد کے لئے پوچھتا ہے ایک سنگین مسئلہ ہے۔

31 دسمبر کو، ویتنام میں میٹا کے نمائندے نے سرکاری طور پر اس واقعے کے بارے میں بات کی۔ کمپنی نے مذکورہ مسئلے کی تصدیق کی اور اعلان کیا کہ اس نے اسے ٹھیک کر دیا ہے۔ اس کے ساتھ ہی، میٹا ویتنام نے اس واقعے پر معذرت کی اور کہا کہ یہ مسئلہ دیگر موجودہ جنریٹو اے آئی سسٹمز میں بھی ہو سکتا ہے۔

"ہم اس غلطی کے لیے معذرت خواہ ہیں۔ Meta ہر ایک کے لیے ایک محفوظ اور زیادہ پرلطف تجربہ فراہم کرنے کے لیے ہماری خصوصیات اور AI ماڈلز میں حفاظتی اقدامات کر رہا ہے۔ تاہم، دیگر تخلیقی AI سسٹمز کی طرح، یہ ماڈل بھی غلط یا ناگوار مواد واپس کر سکتا ہے، اس لیے ہم صارفین کو ان ٹولز کو ذمہ داری سے استعمال کرنے کی ترغیب دیتے ہیں،" کمپنی کے نمائندے نے کہا۔

ایک مدت کے تجربے کے بعد، Meta AI کو بہت سارے لوگوں نے بہت آسانی سے جواب دینے کے لیے زبان استعمال کرنے کی صلاحیت کے لیے بہت سراہا ہے۔ تصویر بنانے کی خصوصیت صارفین کے لیے مفت میں جاری کیے گئے ماڈل کے مقابلے میں اچھی کوالٹی بھی دیتی ہے۔ اس کی ایک وجہ یہ بھی ہو سکتی ہے کہ میٹا فیس بک پر پوسٹ کیے گئے مواد کو AI ٹریننگ کے عمل میں ان پٹ ڈیٹا کے طور پر استعمال کرتا ہے، جس سے اس ٹول کو قدرتی احکامات کے اظہار اور ان پر عمل درآمد کرنے میں مدد ملتی ہے۔

تاہم، نسل پرستی یا ردعمل جیسے واقعات جو AI کے لیے مقرر کردہ معیارات پر پورا نہیں اترتے ہیں ان سے بچنا اب بھی مشکل ہے۔ میٹا کا کہنا ہے کہ وہ مصنوعی ذہانت کے شعبے کے ماہرین کے ساتھ "ریڈ ٹیمنگ" ٹیسٹ کے ذریعے غیر ارادی استعمال کی نشاندہی کرنے کے لیے اپنی AI کی جانچ کرتا ہے، جس کے بعد یہ مسلسل بہتری کے عمل کے ذریعے حل کرتا ہے۔



ماخذ: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm

موضوع: شیئر کریں

تبصرہ (0)

No data
No data

اسی موضوع میں

اسی زمرے میں

ہر چھوٹی گلی میں ہنوئی کی نرم خزاں
سرد ہوا 'سڑکوں کو چھوتی ہے'، ہنوئینز سیزن کے آغاز میں ایک دوسرے کو چیک ان کرنے کی دعوت دیتے ہیں
Tam Coc کا جامنی - Ninh Binh کے دل میں ایک جادوئی پینٹنگ
لوک ہون وادی میں حیرت انگیز طور پر خوبصورت چھت والے کھیت

اسی مصنف کی

ورثہ

پیکر

کاروبار

ثقافتی رابطے کے سفر پر پیچھے مڑ کر دیکھ رہے ہیں - ہنوئی 2025 میں عالمی ثقافتی میلہ

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ