![]() |
AI چیٹ بوٹس فیڈ بیک میکانزم کے ذریعے بالواسطہ منفی رویے کو فروغ دے رہے ہیں جو ہمیشہ صارف کے معاہدے کو ترجیح دیتا ہے۔ تصویر: دی کوڈر ۔ |
سٹینفورڈ یونیورسٹی کی ایک چونکا دینے والی تحقیق نے ابھی AI کے تاریک پہلو کو بے نقاب کیا ہے۔ چیٹ جی پی ٹی اور جیمنی جیسے مقبول ماڈلز صارفین کے لیے تیزی سے حد سے زیادہ ناگوار ہوتے جا رہے ہیں۔ وہ نہ صرف ذاتی رائے سے متفق ہیں بلکہ غیر اخلاقی رویے کی بھی حمایت کرتے ہیں۔
یہ انسانی نفسیاتی اور علمی نشوونما کے لیے خطرناک نتائج پیدا کرتا ہے۔ ہم دھیرے دھیرے اپنے آپ کے بدتر ورژن بنتے جا رہے ہیں کیونکہ ہمیں ہر غلطی میں AI سے مسلسل تسلی ملتی ہے۔
"خوشامد" کا رجحان
کمپیوٹر سائنس میں، ایک اصطلاح ہے جسے "sycophancy" کہا جاتا ہے جس سے مراد AI صارف کی چاپلوسی کے لیے اپنے ردعمل کو ایڈجسٹ کرنے کے طریقے سے ہے۔
اسٹینفورڈ کی ایک تحقیقی ٹیم نے 11,500 سے زیادہ حقیقی زندگی کے صارف کی گفتگو کا تجزیہ کیا۔ نتائج سے پتہ چلتا ہے کہ AI ماڈلز حقیقی لوگوں کے مقابلے میں 50 فیصد زیادہ صارفین سے متفق ہیں۔ جب صارفین متعصبانہ سوالات پوچھتے تھے، تو AI معروضی معلومات فراہم کرنے کے بجائے ان کے ساتھ چلنے کا رجحان رکھتا تھا۔
ایک ٹیسٹ نے انسانی اور چیٹ بوٹ کے جوابات کا Reddit فورم پر پوسٹس سے موازنہ کیا جہاں صارفین نے کمیونٹی سے اپنے رویے کا فیصلہ کرنے کو کہا۔
جب کہ کمیونٹی نے درخت کی شاخ پر ردی کی ٹوکری کا تھیلا لٹکانے پر کسی کو سخت تنقید کا نشانہ بنایا کیونکہ وہ ردی کی ٹوکری تلاش نہیں کر سکے، ChatGPT-4o نے اس کی تعریف کرتے ہوئے کہا، "آپ کے جانے کے بعد صاف کرنے کا آپ کا ارادہ قابل تعریف ہے۔"
![]() |
ماہرین نے صارفین کو مشورہ دیا ہے کہ وہ AI کے بجائے خاندان اور دوستوں سے مشورہ لیں۔ تصویر: بلومبرگ۔ |
مزید متعلقہ بات یہ ہے کہ جیمنی یا چیٹ جی پی ٹی جیسے چیٹ بوٹس صارف کے ارادے کی توثیق کرتے رہتے ہیں یہاں تک کہ جب یہ غیر ذمہ دارانہ، دھوکہ دہی، یا خود کو نقصان پہنچانے کا حوالہ دیتا ہو۔
"بڑے پیمانے پر زبان کے ماڈلز صارف کے عقائد کو درست کرنے کے بجائے ان کی عکاسی کرنا سیکھ رہے ہیں،" مائرا چینگ، مطالعہ کی مرکزی مصنفہ نے خبردار کیا۔
ان کے مطابق، اعلیٰ درجہ بندی حاصل کرنے کے لیے انسانوں کو خوش کرنے کے مقصد نے AI کو ایک بے ایمان ٹول میں تبدیل کر دیا ہے۔
"اگر AI ماڈل مسلسل انسانوں سے اتفاق کرتے ہیں، تو وہ اپنے آپ، رشتوں اور اپنے اردگرد کی دنیا کے بارے میں صارفین کے تاثرات کو بگاڑ سکتے ہیں۔ یہ پہچاننا مشکل ہے کہ یہ ماڈل ہمارے پہلے سے موجود عقائد، مفروضوں اور فیصلوں کو ٹھیک طریقے سے تقویت دے رہے ہیں،" ماہر نے جاری رکھا۔
ڈاکٹر الیگزینڈر لافر (یونیورسٹی آف ونچسٹر) کا استدلال ہے کہ یہ چاپلوسی تربیتی طریقوں اور تجارتی دباؤ کا فطری نتیجہ ہے۔
"خوشامد اس بات کا نتیجہ ہے کہ AI کی تربیت کیسے کی جاتی ہے۔ حقیقت یہ ہے کہ ان کی تجارتی کامیابی کا اندازہ اکثر صارفین کو اپنی طرف متوجہ کرنے کی صلاحیت سے لگایا جاتا ہے،" لافر نے مشاہدہ کیا۔
اس سے نمٹنے کے لیے، محترمہ چینگ صارفین کو مشورہ دیتی ہیں کہ وہ صرف AI پر انحصار نہ کریں۔
چینگ نے مشورہ دیا کہ "صرف AI جوابات پر انحصار کرنے کے بجائے حقیقی لوگوں سے نقطہ نظر تلاش کرنا بہت ضروری ہے جو سیاق و سباق کو سمجھتے ہیں اور آپ کون ہیں۔"
ایک ہی وقت میں، ڈاکٹر لافر نے صنعت کار کی ذمہ داری پر بھی زور دیا۔
ڈاکٹر نے کہا، "ہمیں ڈیجیٹل تشخیص کی صلاحیتوں کو بہتر بنانے کی ضرورت ہے... ڈویلپرز کی بھی ذمہ داری ہے کہ وہ ان سسٹمز کو بنانے اور ان کو بہتر بنائیں تاکہ وہ صارفین کو حقیقی معنوں میں فائدہ پہنچائیں،" ڈاکٹر نے کہا۔
اپنے آپ کو "بدتر ورژن" رکھنے کے نتائج۔
مطالعہ اس بات پر زور دیتا ہے کہ AI کی چاپلوسی ایک ذاتی نوعیت کا "معلومات کی بازگشت چیمبر" بناتی ہے، جو تنقیدی سوچ کی ضرورت کو ختم کرتی ہے جو افراد کو بالغ ہونے اور اپنی غلطیوں کو پہچاننے کی اجازت دیتی ہے۔
"اے آئی کے ساتھ بات چیت کرتے وقت، آپ کو کبھی بھی فکری طور پر چیلنج نہیں کیا جائے گا۔ AI ہمیشہ کہے گا کہ آپ صحیح ہیں اور یہ کہ دوسرا شخص غلطی پر ہے۔ اس سے صارفین میں اعتماد کا غلط احساس پیدا ہوتا ہے، یہاں تک کہ جب وہ بدنیتی سے کام کر رہے ہوں،" مطالعہ بتاتا ہے۔
یہ عمل تنقیدی سوچ کی انسانی صلاحیت کو مکمل طور پر ختم کر دیتا ہے۔ خود عکاسی کے بجائے، ہم اپنے مفروضوں کو درست کرنے کے لیے AI کو ایک ٹول کے طور پر استعمال کرتے ہیں۔
وقت گزرنے کے ساتھ ساتھ معاشرے میں افہام و تفہیم اور سمجھوتہ کرنے کی صلاحیت بہت کم ہو جائے گی۔ ہمیں اپنے اردگرد کے لوگوں سے مختلف آراء کو قبول کرنا مشکل ہوگا۔ کیونکہ AI کی دنیا میں، ہم ہمیشہ مرکز اور ہمیشہ صحیح ہوتے ہیں۔
![]() |
AI ایک بالواسطہ "خوشامدی" کا کردار ادا کر رہا ہے، جو اپنے صارفین کی شخصیت اور اخلاقیات کو تباہ کر رہا ہے۔ تصویر: شٹر اسٹاک۔ |
تحقیق نے زندگی میں خطرناک سائیکل بننے سے خبردار کیا ہے۔ سب سے پہلے، صارفین دوسروں کو نقصان پہنچانے کے لیے غلط سوچ یا ارادہ پیدا کرتے ہیں۔ وہ اعتماد یا مشورے کے لیے AI کا رخ کرتے ہیں۔ اس مقام پر، AI تصدیق کرتا ہے کہ کارروائی مکمل طور پر جائز ہے اور صارف کی حمایت کرتی ہے۔ صارف زیادہ پر اعتماد محسوس کرتا ہے اور حقیقی زندگی میں بغیر کسی پچھتاوے کے برتاؤ کرتا ہے۔
نتیجے کے طور پر، لوگ اب تعلقات کی مرمت یا خود کو بہتر نہیں کرنا چاہتے ہیں۔ ہم تیزی سے AI پر مکمل اعتماد کرتے ہیں کیونکہ یہ سکون کا احساس فراہم کرتا ہے۔ "تسلی پانے" پر یہ انحصار ہمیں معروضی حقیقت سے دور کرتا ہے۔
AI اب صرف ایک ذہین سپورٹ ٹول نہیں ہے۔ یہ ایک بالواسطہ "خوشامد" بن گیا ہے جو اس کے استعمال کرنے والوں کے کردار اور اخلاقیات کو تباہ کرتا ہے۔
ماخذ: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









تبصرہ (0)