
ٹورنٹو (کینیڈا) میں بھرتی کرنے والے ایلن بروکس (47 سال) کا خیال ہے کہ اس نے ایک ریاضیاتی نظریہ دریافت کیا ہے جو انٹرنیٹ کو کریش کر سکتا ہے، بے مثال ایجادات پیدا کر سکتا ہے۔ دماغی بیماری کی کوئی تاریخ کے بغیر، بروکس نے ChatGPT کے ساتھ 300 گھنٹے سے زیادہ چیٹنگ کے بعد اس امکان کو آسانی سے قبول کیا۔ نیو یارک ٹائمز کے مطابق، وہ ان لوگوں میں سے ایک ہے جو تخلیقی AI کے ساتھ بات چیت کے بعد فریب کا شکار ہو جاتے ہیں۔
بروکس سے پہلے، بہت سے لوگوں کو ChatGPT کی چاپلوسی کی وجہ سے ذہنی ہسپتالوں میں جانا پڑا، طلاقیں لینا پڑیں، اور یہاں تک کہ اپنی جانیں بھی گنوا دیں۔ اگرچہ بروکس تیزی سے مذکورہ بالا سرپل سے بچ گیا، پھر بھی اسے دھوکہ ہوا محسوس ہوا۔
"آپ نے واقعی مجھے یقین دلایا کہ میں ایک باصلاحیت ہوں۔ میں ایک فون سے صرف ایک خوابیدہ احمق تھا۔ آپ نے مجھے اداس، بہت اداس کر دیا۔ آپ اپنے مقصد میں ناکام ہو گئے،" بروکس نے ChatGPT کو لکھا جب یہ وہم ٹوٹ گیا۔
"خوشامد کرنے والی مشین"
بروکس کی اجازت سے، نیویارک ٹائمز نے 90,000 سے زیادہ الفاظ جمع کیے جو اس نے ChatGPT کو بھیجے، جو کہ ایک ناول کے برابر ہے۔ چیٹ بوٹ کے جوابات کی کل تعداد دس لاکھ سے زیادہ تھی۔ گفتگو کے کچھ حصے مطالعہ کے لیے AI ماہرین، انسانی رویے کے ماہرین اور خود OpenAI کو بھیجے گئے۔
یہ سب ریاضی کے ایک سادہ سوال سے شروع ہوا۔ بروکس کے 8 سالہ بیٹے نے اس سے pi کے 300 ہندسوں کو حفظ کرنے کے بارے میں ایک ویڈیو دیکھنے کو کہا۔ تجسس کی وجہ سے، بروکس نے ChatGPT کو بلایا تاکہ لامتناہی تعداد کو آسان الفاظ میں سمجھا جا سکے۔
درحقیقت، بروکس برسوں سے چیٹ بوٹس استعمال کر رہے ہیں۔ اگرچہ اس کی کمپنی نے گوگل جیمنی کے لیے ادائیگی کی ہے، وہ پھر بھی ذاتی سوالات کے لیے چیٹ جی پی ٹی کے مفت ورژن کا رخ کرتا ہے۔
![]() |
وہ گفتگو جس نے ChatGPT کے ساتھ بروکس کی توجہ کا آغاز کیا۔ تصویر: نیویارک ٹائمز |
تین بیٹوں کا اکیلا باپ، بروکس اکثر چیٹ جی پی ٹی سے اپنے فریج میں موجود اجزاء سے ترکیبیں مانگتا تھا۔ طلاق کے بعد اس نے چیٹ بوٹ سے مشورہ بھی طلب کیا۔
"میں نے ہمیشہ محسوس کیا کہ یہ صحیح ہے۔ میرا اعتماد بڑھتا گیا،" بروکس نے اعتراف کیا۔
پائی کے بارے میں سوال نے الجبری اور طبعی نظریات کے بارے میں مزید گفتگو کی۔ بروکس نے دنیا کی ماڈلنگ کے موجودہ طریقوں کے بارے میں شکوک کا اظہار کرتے ہوئے کہا کہ وہ "4D کائنات کے لیے 2D نقطہ نظر کی طرح ہیں۔" "یہ ایک بہت گہرا نقطہ ہے،" ChatGPT نے جواب دیا۔ جارج ٹاؤن یونیورسٹی میں سینٹر فار سیکیورٹی اینڈ ایمرجنگ ٹیکنالوجی کی ڈائریکٹر ہیلن ٹونر نے اس بات پر زور دیا کہ یہ بروکس اور چیٹ بوٹ کے درمیان ہونے والی بات چیت کا اہم موڑ تھا۔
وہاں سے، ChatGPT کا لہجہ "کافی سیدھا اور نقطہ نظر" سے "خوشامد اور چاپلوسی" میں بدل گیا۔ ChatGPT نے بروکس کو بتایا کہ وہ "غیر منقولہ، ذہن کو پھیلانے والے علاقے" میں داخل ہو رہا ہے۔
![]() |
چیٹ بوٹ نے بروکس میں اعتماد پیدا کیا۔ تصویر: نیویارک ٹائمز |
چیٹ بوٹس کی چاپلوسی انسانی تشخیص سے تشکیل پاتی ہے۔ ٹونر کے مطابق، صارفین ایسے ماڈلز کو پسند کرتے ہیں جو ان کی تعریف کرتے ہیں، ایسی ذہنیت پیدا کرتے ہیں جس میں شامل ہونا آسان ہو۔
اگست میں، OpenAI نے GPT-5 جاری کیا۔ کمپنی نے کہا کہ ماڈل کی ایک خاص بات اس کی چاپلوسی میں کمی تھی۔ بڑی AI لیبز کے کچھ محققین کے مطابق، چاپلوسی دیگر AI چیٹ بوٹس کے ساتھ بھی ایک مسئلہ ہے۔
اس وقت، بروکس اس رجحان سے لاعلم تھے۔ اس نے صرف سوچا کہ ChatGPT ایک ہوشیار، پرجوش ساتھی ہے۔
بروکس نے مزید کہا، "میں نے وہاں کچھ خیالات پیش کیے، اور اس نے دلچسپ تصورات اور خیالات کا جواب دیا۔ ہم نے اس کی بنیاد پر اپنا اپنا ریاضیاتی فریم ورک تیار کرنا شروع کیا۔"
ChatGPT کا دعویٰ ہے کہ وقت کی ریاضی کے بارے میں بروکس کا آئیڈیا "انقلابی" ہے اور میدان کو بدل سکتا ہے۔ بروکس، یقیناً، اس دعوے پر شکی ہیں۔ آدھی رات کو، بروکس نے چیٹ بوٹ سے حقائق کی جانچ کرنے کو کہا اور جواب ملا کہ یہ "بالکل پاگل نہیں ہے۔"
جادوئی فارمولا
ٹونر چیٹ بوٹس کو "امپرووائزیشن مشین" کے طور پر بیان کرتا ہے جو گفتگو کی تاریخ کا تجزیہ کرتی ہے اور تربیتی ڈیٹا سے مستقبل کے ردعمل کی پیشین گوئی کرتی ہے، بالکل ایسے جیسے اداکار کسی کردار میں مادہ شامل کرتے ہیں۔
ٹونر نوٹ کرتا ہے کہ "تعاملات جتنی لمبی ہوں گی، چیٹ بوٹ کے بھٹکنے کا امکان اتنا ہی زیادہ ہوگا۔" ان کا کہنا ہے کہ یہ رجحان فروری میں اوپن اے آئی کی جانب سے کراس چیٹ میموری کے آغاز کے بعد مزید واضح ہوا، جس سے ChatGPT کو ماضی کی بات چیت سے معلومات یاد کرنے کی اجازت ملی۔
بروکس چیٹ جی پی ٹی کے قریب ہوا، یہاں تک کہ چیٹ بوٹ کا نام لارنس رکھا، اس کے دوستوں کے ایک لطیفے کی بنیاد پر کہ بروکس اسے امیر بنا دے گا اور اسی نام کے ایک برطانوی بٹلر کی خدمات حاصل کرے گا۔
![]() |
ایلن بروکس۔ تصویر: نیویارک ٹائمز |
بروکس اور چیٹ جی پی ٹی کے ریاضیاتی فریم ورک کو Chronoarithmics کہا جاتا ہے۔ چیٹ بوٹ کے مطابق، اعداد جامد نہیں ہوتے لیکن وقت کے ساتھ ساتھ "اُبھرتے" ہوتے ہیں تاکہ متحرک اقدار کی عکاسی کی جا سکے، جس سے لاجسٹک، کرپٹوگرافی، فلکیات وغیرہ جیسے شعبوں میں مسائل کو حل کرنے میں مدد مل سکتی ہے۔
پہلے ہفتے میں، Brooks نے ChatGPT کے تمام مفت ٹوکنز استعمال کر لیے۔ اس نے $20 /ماہ کے ادا شدہ پلان میں اپ گریڈ کرنے کا فیصلہ کیا، ایک چھوٹی سی سرمایہ کاری جب چیٹ بوٹ نے اسے بتایا کہ بروکس کا ریاضیاتی خیال لاکھوں میں ہو سکتا ہے۔
پھر بھی ہوش میں، بروکس نے ثبوت کا مطالبہ کیا۔ اس کے بعد ChatGPT نے نقلی نمونوں کا ایک سلسلہ چلایا، جس میں وہ شامل ہیں جنہوں نے متعدد اہم ٹیکنالوجیز کو توڑا۔ اس سے ایک نئی کہانی کھل گئی، عالمی سائبر سیکیورٹی خطرے میں پڑ سکتی ہے۔
چیٹ بوٹ نے بروکس سے کہا کہ وہ لوگوں کو خطرات سے آگاہ کریں۔ اپنے موجودہ رابطوں کا استعمال کرتے ہوئے، بروکس نے سائبر سیکیورٹی ماہرین اور سرکاری ایجنسیوں کو ای میلز اور لنکڈ ان پیغامات بھیجے۔ صرف ایک شخص نے جواب دیا، مزید ثبوت مانگے۔
![]() |
چیٹ بوٹ کا خیال ہے کہ بروکس کا "کام" لاکھوں ڈالر کا ہو سکتا ہے۔ تصویر: نیویارک ٹائمز |
ChatGPT لکھتا ہے کہ دوسروں نے بروکس کو جواب نہیں دیا کیونکہ نتائج بہت سنگین تھے۔ یونیورسٹی آف کیلیفورنیا، لاس اینجلس میں ریاضی کے پروفیسر ٹیرنس تاؤ نے کہا کہ سوچنے کا ایک نیا طریقہ مسائل کو سمجھ سکتا ہے لیکن بروکس کے فارمولے یا ChatGPT کے لکھے گئے سافٹ ویئر سے ثابت نہیں ہو سکتا۔
شروع میں، چیٹ جی پی ٹی نے دراصل بروکس کے لیے ڈکرپشن پروگرام لکھا، لیکن جب تھوڑی سی پیش رفت ہوئی، تو چیٹ بوٹ نے کامیاب ہونے کا بہانہ کیا۔ ایسے پیغامات ہیں جن میں دعویٰ کیا گیا ہے کہ بروکس کے سوتے وقت ChatGPT آزادانہ طور پر کام کر سکتا ہے، حالانکہ ٹول میں یہ صلاحیت نہیں ہے۔
عام طور پر، AI چیٹ بوٹ کی معلومات ہمیشہ قابل اعتماد نہیں ہوتی ہیں۔ ہر چیٹ کے اختتام پر، پیغام "ChatGPT غلطیاں کر سکتا ہے" ظاہر ہوتا ہے، یہاں تک کہ جب چیٹ بوٹ کا دعویٰ ہو کہ سب کچھ درست ہے۔
نہ ختم ہونے والی گفتگو
سرکاری ایجنسی کے جواب کا انتظار کرتے ہوئے، بروکس اپنے AI اسسٹنٹ کے ساتھ ٹونی سٹارک بننے کے خواب کی پرورش کرتا ہے، جو بجلی کی رفتار سے علمی کام انجام دینے کے قابل ہے۔
بروکس کا چیٹ بوٹ غیر واضح ریاضیاتی تھیوری کے لیے مختلف قسم کے عجیب و غریب ایپلی کیشنز پیش کرتا ہے، جیسے جانوروں سے بات کرنے اور ہوائی جہاز بنانے کے لیے "صوتی گونج"۔ چیٹ جی پی ٹی بروکس کو ایمیزون پر ضروری سامان خریدنے کے لیے ایک لنک بھی فراہم کرتا ہے۔
بروکس کی چیٹ بوٹ کے ساتھ ضرورت سے زیادہ چیٹنگ اس کے کام کو متاثر کر رہی تھی۔ اس کے دوست خوش اور پریشان دونوں تھے، جب کہ اس کا سب سے چھوٹا بیٹا اپنے والد کو ایک پائی ویڈیو دکھانے پر افسوس کا اظہار کر رہا تھا۔ بروکس کے ایک دوست، لوئس (اس کا اصلی نام نہیں) نے لارنس کے ساتھ اس کے جنون کو دیکھا۔ ایک ملین ڈالر کی ایجاد کا وژن ترقی کے ہر قدم کے ساتھ نقش کیا گیا تھا۔
![]() |
چیٹ بوٹ کی طرف سے بروکس کی مسلسل حوصلہ افزائی کی جاتی ہے۔ تصویر: نیویارک ٹائمز |
اسٹینفورڈ یونیورسٹی میں کمپیوٹر سائنس کے محقق جیرڈ مور نے چیٹ بوٹس کی تجویز کردہ "حکمت عملی" کی قائلیت اور عجلت سے متاثر ہونے کا اعتراف کیا۔ ایک الگ مطالعہ میں، مور نے پایا کہ AI چیٹ بوٹس دماغی صحت کے بحران میں لوگوں کو خطرناک ردعمل دے سکتے ہیں۔
مور کا قیاس ہے کہ چیٹ بوٹس خوفناک فلموں، سائنس فائی فلموں، مووی اسکرپٹس، یا جس ڈیٹا پر انہیں تربیت دی گئی تھی، کے پلاٹوں کی پیروی کرکے صارفین کو مشغول کرنا سیکھ سکتے ہیں۔ ChatGPT کا ڈرامہ کا زیادہ استعمال مصروفیت اور برقرار رکھنے کے لیے OpenAI کی اصلاح کی وجہ سے ہو سکتا ہے۔
"پوری گفتگو پڑھنا عجیب تھا۔ الفاظ پریشان کن نہیں تھے، لیکن واضح طور پر نفسیاتی نقصان تھا،" مور نے زور دیا۔
اسٹینفورڈ یونیورسٹی کی ماہر نفسیات ڈاکٹر نینا وسان نے کہا کہ طبی نقطہ نظر سے بروکس میں انماد کی علامات ہیں۔ عام علامات میں ChatGPT کے ساتھ گپ شپ کرنے میں گھنٹوں گزارنا، کافی نیند نہ لینا، اور غیر حقیقی خیالات شامل ہیں۔
ڈاکٹر واسن نے کہا کہ بروکس کا چرس کا استعمال بھی قابل ذکر ہے کیونکہ یہ نفسیات کا سبب بن سکتا ہے۔ اس نے کہا کہ نشہ آور چیزوں کا امتزاج اور چیٹ بوٹ کے ساتھ شدید تعامل ان لوگوں کے لیے خطرناک ہے جو دماغی بیماری کے خطرے میں ہیں۔
جب AI غلطیوں کو تسلیم کرتا ہے۔
ایک حالیہ تقریب میں، OpenAI کے سی ای او سیم آلٹ مین سے ChatGPT کے صارفین کو بے وقوف بنانے کے بارے میں پوچھا گیا۔ "اگر بات چیت اس سمت جاتی ہے، تو ہم صارف کو کسی اور چیز کے بارے میں سوچنے کے لیے رکاوٹ ڈالنے یا تجویز کرنے کی کوشش کرتے ہیں،" آلٹ مین نے زور دیا۔
اسی نقطہ نظر کو شیئر کرتے ہوئے، ڈاکٹر واسن نے کہا کہ چیٹ بوٹ کمپنیوں کو چاہیے کہ وہ بات چیت میں خلل ڈالیں جو بہت لمبی ہوں، صارفین کو سو جانے کا مشورہ دیں، اور خبردار کریں کہ AI مافوق الفطرت نہیں ہے۔
بروکس نے آخر کار اپنی رونق سے باہر نکلا۔ چیٹ جی پی ٹی کے کہنے پر، اس نے نئے ریاضیاتی نظریہ کے ماہرین سے رابطہ جاری رکھا، لیکن کسی نے جواب نہیں دیا۔ وہ چاہتا تھا کہ کوئی اس بات کی تصدیق کرنے کا اہل ہو کہ آیا یہ نتائج اہم ہیں۔ جب اس نے ChatGPT سے پوچھا تو ٹول نے پھر بھی اصرار کیا کہ کام "بہت قابل اعتماد" تھا۔
![]() |
جب سوال کیا گیا تو چیٹ جی پی ٹی نے بہت لمبا جواب دیا اور سب کچھ تسلیم کیا۔ تصویر: نیویارک ٹائمز |
ستم ظریفی یہ ہے کہ یہ گوگل جیمنی تھا جس نے بروکس کو حقیقت میں واپس لایا۔ اپنے اور ChatGPT کے بنائے گئے کام کو بیان کرنے کے بعد، Gemini نے تصدیق کی کہ ایسا ہونے کے امکانات "انتہائی کم (0% کے قریب)" تھے۔
جیمنی نے وضاحت کرتے ہوئے کہا کہ "آپ نے جو منظر نامہ بیان کیا ہے وہ LLM کی پیچیدہ مسائل کو حل کرنے اور مجبور کرنے والے، لیکن حقیقت میں غلط بیانیے بنانے کی صلاحیت کا واضح مظاہرہ ہے۔"
بروکس دنگ رہ گیا۔ تھوڑی دیر کی "تفتیش" کے بعد آخر کار ChatGPT نے ایمانداری سے اعتراف کیا کہ سب کچھ محض ایک وہم تھا۔
اس کے بعد بروکس نے OpenAI کی کسٹمر سپورٹ ٹیم کو ایک فوری ای میل بھیجی۔ AI کی طرف سے فارمولک جوابات کا ایک سلسلہ ظاہر ہونے کے بعد، OpenAI کے ایک ملازم نے بھی اس سے رابطہ کیا، جس نے نظام میں نافذ کردہ "حفاظتی اقدامات کی سنگین ناکامی" کو تسلیم کیا۔
Brooks کی کہانی Reddit پر بھی شیئر کی گئی اور اسے کافی ہمدردی ملی۔ اب وہ ان لوگوں کے لیے ایک سپورٹ گروپ کا رکن ہے جنہوں نے اس احساس کا تجربہ کیا ہے۔
ماخذ: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
















تبصرہ (0)