Vietnam.vn - Nền tảng quảng bá Việt Nam

چیٹ جی پی ٹی، ڈیپ سیک سائنسی ڈیٹا کو مسخ کرتے ہیں۔

AI ماڈلز جیسے ChatGPT اور DeepSeek کو خلاصہ کرتے وقت، خاص طور پر طبی میدان میں سائنسی مواد کو ترچھا کرنے کا خطرہ پایا گیا ہے۔

Báo Khoa học và Đời sốngBáo Khoa học và Đời sống08/07/2025

جرمنی میں محققین کے ایک گروپ نے حال ہی میں تحقیقی مواد کو مختصر کرنے کے لیے AI چیٹ بوٹس کا استعمال کرتے ہوئے تعصب کے خطرے کے بارے میں خبردار کیا تھا۔ انسانوں کی طرف سے لکھے گئے 4,900 سائنسی خلاصوں کا تجزیہ کرنے کے بعد، ٹیم نے اس بات کا موازنہ کرنے کے لیے کئی AI ماڈلز کا استعمال کیا کہ یہ سسٹم کس طرح معلومات پر کارروائی کرتے ہیں۔ نتائج سے پتہ چلتا ہے کہ زیادہ تر چیٹ بوٹس نے زیادہ عام کرنے کی غلطی کی، یہاں تک کہ جب درست خلاصہ کرنے کا اشارہ کیا جائے۔

what-is-ai-chatbot.jpg

سائنسی تحقیق کا خلاصہ کرتے وقت AI تعصب کا شکار ہوتا ہے۔

ٹیسٹوں میں، AI ماڈلز نے رہنمائی نہ کرنے پر انسانی ماہرین کے مقابلے میں پانچ گنا زیادہ غلطیاں کیں۔ یہاں تک کہ جب واضح طور پر درستگی کے لیے کہا گیا، غلطی کی شرح معیاری خلاصے سے دوگنا زیادہ تھی۔ ٹیم میں سے ایک نے کہا، "عمومی شکلیں بعض اوقات بے ضرر معلوم ہوتی ہیں، لیکن وہ اصل تحقیق کی نوعیت کو بدل دیتی ہیں۔" "یہ ایک منظم تعصب ہے۔"

قابل ذکر بات یہ ہے کہ چیٹ بوٹ کے نئے ورژن نہ صرف اس مسئلے کو حل کرنے میں ناکام رہے ہیں بلکہ حقیقت میں اس کو بڑھا دیا ہے۔ ان کی ہموار اور دل چسپ زبان کے ساتھ، AI سے تیار کردہ خلاصے آسانی سے قابل اعتبار ظاہر ہو سکتے ہیں، جبکہ اصل مواد کو مسخ کر دیا گیا ہے۔ ایک مثال میں، ڈیپ سیک نے "محفوظ اور کامیابی کے ساتھ انجام دیا جا سکتا ہے" کے فقرے کو "محفوظ اور موثر علاج" میں تبدیل کر دیا - اصل مطالعہ کے نتائج کی غلط تشریح۔

ایک اور مثال میں، لاما ماڈل نے خوراک، تعدد، یا ضمنی اثرات کی وضاحت کیے بغیر نوجوانوں کے لیے ذیابیطس کی دوا تجویز کی۔ اگر قاری ڈاکٹر یا صحت کی دیکھ بھال کرنے والا پیشہ ور ہے جو اصل تحقیق کی تصدیق نہیں کرتا ہے تو اس طرح کے خلاصے مریضوں کے لیے براہ راست خطرہ بن سکتے ہیں۔

ماہرین کا کہنا ہے کہ اس رجحان کی جڑ AI ماڈلز کی تربیت کے طریقے سے ہے۔ آج بہت سے چیٹ بوٹس کو ثانوی ڈیٹا پر تربیت دی جاتی ہے — جیسے کہ مشہور سائنس کی خبریں — جنہیں پہلے ہی آسان بنایا جا چکا ہے۔ جیسا کہ AI مختصر مواد کا خلاصہ کرتا رہتا ہے، تحریف کا خطرہ بڑھ جاتا ہے۔

دماغی صحت کے شعبے میں AI کے ماہرین کا کہنا ہے کہ AI کی ترقی اور استعمال میں ابتدائی طور پر تکنیکی رکاوٹیں پیدا کرنے کی ضرورت ہے۔

099393800-1681896363-glenn-carstens-peters-npxxwgq33zq-unsplash.jpg

صارفین کو ہوشیار رہنے کی ضرورت ہے کیونکہ چیٹ بوٹس آسانی سے مواد کو بگاڑ سکتے ہیں۔

چونکہ صارفین سائنس کے بارے میں جاننے کے لیے AI چیٹ بوٹس پر تیزی سے انحصار کرتے ہیں، تشریح میں چھوٹی غلطیاں تیزی سے جمع اور پھیل سکتی ہیں، جس سے وسیع پیمانے پر غلط فہمیاں پھیلتی ہیں۔ ایسے وقت میں جب سائنس پر اعتماد کم ہو رہا ہے، یہ خطرہ اور بھی تشویشناک ہو جاتا ہے اور مناسب توجہ کا مستحق ہے۔

علم کی تحقیق اور پھیلاؤ میں AI کا انضمام ایک ناقابل واپسی رجحان ہے۔ تاہم، ماہرین اس بات کی تصدیق کرتے ہیں کہ ٹیکنالوجی سائنسی مواد کو سمجھنے اور اس کی تصدیق کرنے میں انسانوں کے کردار کی جگہ نہیں لے سکتی۔ جب چیٹ بوٹس کو زیادہ خطرہ والے علاقوں میں استعمال کیا جائے جیسے کہ دوائی، درستگی اولین ترجیح ہونی چاہیے، بجائے اس کے کہ صرف ہموار زبان کے تجربے یا ردعمل کی رفتار پر توجہ دی جائے۔


ماخذ: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html


تبصرہ (0)

برائے مہربانی اپنی جذبات کا اظہار کرنے کے لیے تبصرہ کریں!

اسی زمرے میں

عوامی آرٹسٹ Xuan Bac 80 جوڑوں کے لئے "تقریب کا ماسٹر" تھا جو ہون کیم لیک واکنگ اسٹریٹ پر ایک ساتھ شادی کر رہے تھے۔
ہو چی منہ شہر میں نوٹری ڈیم کیتھیڈرل کرسمس 2025 کے استقبال کے لیے روشن ہے
ہنوئی کی لڑکیاں کرسمس کے موسم کے لیے خوبصورتی سے "ڈریس اپ" کرتی ہیں۔
طوفان اور سیلاب کے بعد روشن، گیا لائی کے ٹیٹ کرسنتھیمم گاؤں کو امید ہے کہ پودوں کو بچانے کے لیے بجلی کی بندش نہیں ہوگی۔

اسی مصنف کی

ورثہ

پیکر

کاروبار

ہنوئی کافی شاپ اپنے یورپی جیسے کرسمس کے منظر سے بخار کا باعث بنتی ہے۔

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC