Vietnam.vn - Nền tảng quảng bá Việt Nam

اے آئی چیٹ بوٹس 'پاگل' ہو رہے ہیں

OpenAI جیسی کمپنیوں کی جانب سے "تشخیص" کے نظام کی ایک نئی لہر غلط معلومات کو کثرت سے پیش کر رہی ہے۔ خطرہ یہ ہے کہ کمپنیاں نہیں جانتی کہ کیوں۔

ZNewsZNews08/05/2025

اپریل میں، ایک AI بوٹ جو پروگرامرز کے لیے ایک ابھرتا ہوا ٹول کرسر کے لیے تکنیکی مدد کرتا ہے، نے کچھ صارفین کو کمپنی کی پالیسی میں تبدیلی کے بارے میں مطلع کیا، خاص طور پر یہ کہتے ہوئے کہ انہیں اب ایک سے زیادہ کمپیوٹر پر کرسر استعمال کرنے کی اجازت نہیں ہے۔

صارفین نے اپنا غصہ فورمز اور سوشل میڈیا پر پوسٹ کیا۔ کچھ نے اپنے کرسر اکاؤنٹس کو بھی منسوخ کر دیا۔ لیکن کچھ اور بھی غصے میں تھے جب انہیں احساس ہوا کہ کیا ہوا ہے: AI بوٹ نے پالیسی میں تبدیلی کی اطلاع دی تھی جو موجود نہیں تھی۔

"ہمارے پاس ایسی کوئی پالیسی نہیں ہے۔ آپ یقیناً ایک سے زیادہ مشینوں پر کرسر استعمال کر سکتے ہیں۔ بدقسمتی سے، یہ AI سے چلنے والے بوٹ کی طرف سے غلط جواب تھا،" کمپنی کے سی ای او اور شریک بانی مائیکل ٹرویل نے ایک Reddit پوسٹ میں لکھا۔

جعلی معلومات قابو سے باہر ہیں۔

ChatGPT کے آغاز کے دو سال سے زیادہ کے بعد، ٹیک کمپنیاں، دفتری کارکنان، اور روزمرہ کے صارفین بڑھتی ہوئی تعدد کے ساتھ مختلف کاموں کے لیے AI بوٹس استعمال کر رہے ہیں۔

اس کے باوجود یہ یقینی بنانے کا کوئی طریقہ نہیں ہے کہ یہ سسٹم درست معلومات پیدا کر رہے ہیں۔ متضاد طور پر، سب سے طاقتور نئی ٹیکنالوجیز، جنہیں OpenAI، Google، اور DeepSeek جیسی کمپنیوں کے "انفرنس" سسٹم کے نام سے جانا جاتا ہے، زیادہ غلطیاں کر رہی ہیں۔

AI anh 1

بیہودہ چیٹ جی پی ٹی گفتگو جہاں صارف پوچھتا ہے کہ کیا کتوں کو اناج کھانا چاہیے۔ تصویر: Reddit.

جبکہ ریاضی کی مہارتوں میں ڈرامائی طور پر بہتری آئی ہے، بڑے لینگویج ماڈلز (LLMs) کی سچائی کو پکڑنے کی صلاحیت مزید متزلزل ہو گئی ہے۔ حیرت کی بات یہ ہے کہ خود انجینئر بھی مکمل طور پر واضح نہیں ہیں کہ کیوں۔

نیو یارک ٹائمز کے مطابق، آج کے AI چیٹ بوٹس بھاری مقدار میں ڈیجیٹل ڈیٹا کا تجزیہ کرکے مہارتیں سیکھنے کے لیے پیچیدہ ریاضیاتی نظام پر انحصار کرتے ہیں۔ تاہم، وہ فیصلہ نہیں کر سکتے کہ کیا صحیح ہے اور کیا غلط۔

وہاں سے، "ہیلوسینیشن" یا معلومات کی خود ساختہ حالت ظاہر ہوتی ہے۔ درحقیقت، تحقیق کے مطابق، ایل ایل ایم کی تازہ ترین نسل کچھ پرانے ماڈلز کے مقابلے میں بھی زیادہ "ہیلوسینیٹ" کرتی ہے۔

خاص طور پر، تازہ ترین رپورٹ میں، OpenAI نے دریافت کیا کہ o3 ماڈل پرسن کیو اے پر 33% سوالات کے جوابات دیتے وقت "ہیلوسینیٹ" ہوا، جو کہ انسانوں کے بارے میں ماڈل کے علم کی درستگی کی پیمائش کے لیے کمپنی کا اندرونی معیار ہے۔

مقابلے کے لیے، یہ اوپن اے آئی کے سابقہ ​​استدلال کے ماڈلز، o1 اور o3-mini کی "ہیلوسینیشن" کی شرح سے دوگنا ہے، جس میں بالترتیب 16% اور 14.8% کا سامنا کرنا پڑا۔ دریں اثنا، o4-mini ماڈل نے PersonQA پر اس سے بھی بدتر کارکردگی کا مظاہرہ کیا، 48% وقت "ہیلوسینیشن" کا شکار ہوا۔

مزید تشویشناک بات یہ ہے کہ "ChatGPT کے والد" کو حقیقت میں نہیں معلوم کہ ایسا کیوں ہوتا ہے۔ خاص طور پر، o3 اور o4-mini پر تکنیکی رپورٹ میں، OpenAI لکھتا ہے کہ "مزید تحقیق کی ضرورت ہے یہ سمجھنے کے لیے کہ کیوں "وہم" خراب ہو جاتا ہے جیسا کہ استدلال کے ماڈلز کے پیمانے ہیں۔

o3 اور o4-mini نے کچھ شعبوں میں بہتر کارکردگی کا مظاہرہ کیا، بشمول پروگرامنگ اور ریاضی سے متعلق کام۔ تاہم، کیونکہ انہیں "عام کرنے سے زیادہ بیانات دینے کی ضرورت تھی،" دونوں ماڈلز کو "زیادہ درست بیانات، بلکہ زیادہ غلط بیانات" پیدا کرنے کا سامنا کرنا پڑا۔

"یہ کبھی نہیں جائے گا"

انسانی انجینئرز کی طرف سے مقرر کردہ قوانین کے سخت سیٹ کے بجائے، LLM سسٹم بہترین ردعمل کا اندازہ لگانے کے لیے ریاضیاتی امکان کا استعمال کرتے ہیں۔ تو وہ ہمیشہ کچھ نہ کچھ غلطی کرتے ہیں۔

"ہماری بہترین کوششوں کے باوجود، AI ماڈلز ہمیشہ فریب کا شکار رہیں گے۔ یہ کبھی ختم نہیں ہوں گے،" امر عواد اللہ، گوگل کے ایک سابق ایگزیکٹو نے کہا۔

AI anh 2

IBM کے مطابق، ہیلوسینیشن ایک ایسا رجحان ہے جہاں بڑے لینگویج ماڈل (LLMs) - عام طور پر چیٹ بوٹس یا کمپیوٹر ویژن ٹولز - ایسے ڈیٹا پیٹرن حاصل کرتے ہیں جو موجود نہیں ہوتے یا انسانوں کے لیے ناقابل شناخت ہوتے ہیں، اس طرح بے معنی یا گمراہ کن نتائج برآمد ہوتے ہیں۔ تصویر: iStock.

تجربات کے بارے میں ایک تفصیلی مقالے میں، OpenAI نے کہا کہ ان نتائج کی وجوہات کو سمجھنے کے لیے اسے مزید تحقیق کی ضرورت ہے۔

ماہرین کا کہنا ہے کہ چونکہ AI نظام انسانوں کی سمجھ سے کہیں زیادہ ڈیٹا سے سیکھتے ہیں، اس لیے یہ تعین کرنا مشکل ہو سکتا ہے کہ وہ اس طرح کا برتاؤ کیوں کرتے ہیں۔

اوپن اے آئی کے ترجمان گیبی ریلا نے کہا، "تخلیقی ماڈلز میں وہم فطری طور پر زیادہ عام ہے، حالانکہ ہم o3 اور o4-mini میں نظر آنے والے واقعات کو کم کرنے کے لیے سرگرمی سے کام کر رہے ہیں۔ ہم درستگی اور وشوسنییتا کو بہتر بنانے کے لیے تمام ماڈلز پر بھرموں پر کام جاری رکھیں گے۔"

متعدد آزاد کمپنیوں اور محققین کے ٹیسٹ سے پتہ چلتا ہے کہ گوگل یا ڈیپ سیک جیسی کمپنیوں کے انفرنس ماڈلز کے لیے فریب کی شرح بھی بڑھ رہی ہے۔

2023 کے آخر سے، عواد اللہ کی کمپنی، ویکٹرا، اس بات کا سراغ لگا رہی ہے کہ کتنی بار چیٹ بوٹس معلومات کو غلط انداز میں پیش کر رہے ہیں۔ کمپنی نے سسٹمز سے کہا کہ وہ مخصوص خبروں کے مضامین کا خلاصہ کرنے کا ایک سادہ، آسانی سے قابل تصدیق کام انجام دیں۔ تب بھی، چیٹ بوٹس معلومات کو گھڑتے رہے۔

خاص طور پر، ویکٹرا کی ابتدائی تحقیق کا اندازہ لگایا گیا ہے کہ اس منظر نامے میں، چیٹ بوٹس نے کم از کم 3% وقت، اور بعض اوقات 27% تک معلومات کو گھڑ لیا تھا۔

پچھلے ڈیڑھ سال کے دوران، OpenAI اور Google جیسی کمپنیوں نے ان نمبروں کو کم کر کے تقریباً 1 یا 2% کر دیا ہے۔ دوسرے، جیسے سان فرانسسکو اسٹارٹ اپ اینتھروپک، تقریباً 4% منڈلاتے ہیں۔

تاہم، انفرنس سسٹمز کے لیے اس ٹیسٹ میں ہیلوسینیشن کی شرح میں اضافہ ہوتا رہا۔ ڈیپ سیک کے R1 انفرنس سسٹم کے لیے فریکوئنسی کی فریکوئنسی میں 14.3 فیصد اضافہ ہوا، جبکہ اوپن اے آئی کے o3 میں 6.8 فیصد اضافہ ہوا۔

ایک اور مسئلہ یہ ہے کہ انفرنس ماڈلز کو حتمی جواب دینے سے پہلے پیچیدہ مسائل کے بارے میں "سوچنے" میں وقت گزارنے کے لیے ڈیزائن کیا گیا ہے۔

AI anh 3

ایپل کی طرف سے میک او ایس 15.1 کے پہلے ٹیسٹ ورژن میں اے آئی کو من گھڑت معلومات سے روکنے کا اشارہ دیا گیا تھا۔ تصویر: Reddit/devanxd2000۔

تاہم، منفی پہلو یہ ہے کہ جیسا کہ AI ماڈل مرحلہ وار مسئلے کو حل کرنے کی کوشش کرتا ہے، یہ ہر قدم پر فریب کا شکار ہو جاتا ہے۔ زیادہ اہم بات یہ ہے کہ غلطیاں جمع ہو سکتی ہیں کیونکہ ماڈل زیادہ وقت سوچنے میں صرف کرتا ہے۔

تازہ ترین بوٹس صارفین کو ہر قدم دکھاتے ہیں، جس کا مطلب ہے کہ صارف ہر غلطی کو بھی دیکھ سکتے ہیں۔ محققین نے یہ بھی پایا کہ بہت سے معاملات میں، چیٹ بوٹ کے ذریعے دکھائے جانے والے سوچنے کا عمل درحقیقت اس کے حتمی جواب سے متعلق نہیں ہے۔

ایڈنبرا یونیورسٹی میں اے آئی کے محقق اور اینتھروپک کے ایک ایسوسی ایٹ آریو پردیپتا گیما کہتے ہیں، "یہ سسٹم جو کہتا ہے کہ یہ جو اندازہ لگا رہا ہے وہ ضروری نہیں کہ وہ اصل میں کیا سوچ رہا ہو۔"

ماخذ: https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html


تبصرہ (0)

برائے مہربانی اپنی جذبات کا اظہار کرنے کے لیے تبصرہ کریں!

اسی زمرے میں

ہو چی منہ شہر میں نوٹری ڈیم کیتھیڈرل کرسمس 2025 کے استقبال کے لیے روشن ہے
ہنوئی کی لڑکیاں کرسمس کے موسم کے لیے خوبصورتی سے "ڈریس اپ" کرتی ہیں۔
طوفان اور سیلاب کے بعد روشن، گیا لائی کے ٹیٹ کرسنتھیمم گاؤں کو امید ہے کہ پودوں کو بچانے کے لیے بجلی کی بندش نہیں ہوگی۔
وسطی علاقے میں زرد خوبانی کے دارالحکومت کو دہری قدرتی آفات کے بعد بھاری نقصان اٹھانا پڑا

اسی مصنف کی

ورثہ

پیکر

کاروبار

دلات کافی شاپ کے صارفین میں 300 فیصد اضافہ دیکھا گیا کیونکہ مالک 'مارشل آرٹ فلم' کا کردار ادا کرتا ہے

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC