دی گارڈین کے مطابق، کچھ حالیہ جوابات میں، چیٹ بوٹ نے یہودی کمیونٹی میں ایک عام کنیت کے حامل فرد کے بارے میں متنازعہ تبصرے کیے، ایسی زبان استعمال کی جسے جارحانہ اور کمیونٹی کے معیارات سے متصادم سمجھا گیا۔
کچھ تبصروں میں منفی مفہوم بھی تھے ، جو خود کو "میچا ہٹلر" (نازی باس اور روبوٹ کا مجموعہ) کہتے تھے۔
مندرجہ بالا بیانات نے فوری طور پر آن لائن کمیونٹی میں احتجاج کی لہر دوڑائی اور AI ماڈلز پر کنٹرول کی سطح کے بارے میں سوالات اٹھائے، خاص طور پر جب وہ X جیسے صارفین کی ایک بڑی تعداد کے ساتھ پلیٹ فارم میں ضم ہوتے ہیں۔
صارف کے تاثرات کے بعد، xAI نے پوسٹس کو حذف کر دیا اور تصدیق کی کہ وہ اپنے سسٹم کو ایڈجسٹ کر رہا ہے۔ کمپنی کے ایک نمائندے نے کہا کہ "ہم Grok کی حالیہ پوسٹس سے آگاہ ہیں اور فعال طور پر نامناسب مواد کو ہٹا رہے ہیں۔ جب سے اس واقعے کا پتہ چلا ہے، xAI نے Grok کو X پر نفرت انگیز تقاریر میں ملوث ہونے سے روکنے کے لیے کنٹرولز لگائے ہیں"۔
نیز xAI کے مطابق، Grok ماڈل کو "سچائی کی تلاش" کے مقصد کے ساتھ تربیت دی گئی تھی اور کمپنی تربیتی عمل کو بہتر بنانے کے لیے کمیونٹی کے تاثرات پر انحصار کر رہی ہے۔
تاہم، یہ پہلا موقع نہیں جب گروک چیٹ بوٹ نے تنازعہ کھڑا کیا ہو۔ جون میں، ٹول نے بار بار "جنوبی افریقی نسل کشی" کا جملہ استعمال کیا۔
دی ورج کے مطابق ، گروک کے آپریشنز میں حالیہ تبدیلیاں بالواسطہ طور پر اس واقعے کی وجہ بن سکتی ہیں۔ سورس کوڈ ہوسٹنگ پلیٹ فارم GitHub پر ایک اپ ڈیٹ میں، ڈویلپمنٹ کمپنی نے "متعصب معلومات کو دہرانے سے بچنے" اور "مزید آزاد ردعمل کی حوصلہ افزائی کرنے" کے لیے چیٹ بوٹ کے الگورتھم کو ایڈجسٹ کیا۔
ارب پتی ایلون مسک، xAI کے بانی اور X کے مالک، نے ایک بار پلیٹ فارم پر شیئر کیا تھا کہ Grok میں نمایاں بہتری آئی ہے اور وہ "زیادہ لچکدار طریقے سے جواب دے سکتے ہیں"۔ تاہم، حقیقی زندگی کے واقعات سے پتہ چلتا ہے کہ AI زبان کے ماڈل اب بھی غلطیاں کر سکتے ہیں، خاص طور پر اعتدال کی صحیح تہہ کے بغیر۔
Grok اس وقت عالمی سطح پر لاکھوں صارفین استعمال کر رہے ہیں، اور یہ ایپلی کیشنز تیار کرنے کے عزائم کا حصہ ہے جو AI کو سوشل نیٹ ورکس، سرچ انجنوں اور دیگر صارف کی بات چیت کی خدمات کے ساتھ مربوط کرتی ہے۔
ماخذ: https://baovanhoa.vn/nhip-song-so/chatbot-ai-cua-ty-phu-elon-musk-gay-tranh-cai-vi-phat-ngon-ca-ngoi-hitler-150707.html
تبصرہ (0)