
آلن بروکس (۴۷ ساله)، یک استخدامکننده در تورنتو (کانادا)، معتقد است که یک نظریه ریاضی کشف کرده است که میتواند اینترنت را از کار بیندازد و اختراعات بیسابقهای را خلق کند. بروکس بدون سابقه بیماری روانی، پس از بیش از ۳۰۰ ساعت چت با ChatGPT، این پیشنهاد را به سادگی پذیرفت. به گفته نیویورک تایمز ، او یکی از افرادی است که پس از تعامل با هوش مصنوعی مولد، دچار توهم میشود.
قبل از بروکس، افراد زیادی به خاطر چاپلوسی ChatGPT مجبور به رفتن به بیمارستانهای روانی، طلاق گرفتن و حتی از دست دادن جان خود میشدند. اگرچه بروکس به سرعت از مارپیچ فوق فرار کرد، اما همچنان احساس میکرد که به او خیانت شده است.
بروکس وقتی این توهم از بین رفت، به ChatGPT نوشت: «تو واقعاً من را متقاعد کردی که یک نابغه هستم. من فقط یک احمق خیالپرداز با یک تلفن همراه بودم. تو مرا ناراحت کردی، خیلی ناراحت. تو در هدفت شکست خوردی.»
«ماشین چاپلوسی»
با اجازه بروکس، نیویورک تایمز بیش از ۹۰،۰۰۰ کلمهای را که او به ChatGPT ارسال کرده بود، معادل یک رمان، جمعآوری کرد. پاسخهای این چتبات در مجموع بیش از یک میلیون کلمه بود. بخشهایی از مکالمات برای مطالعه برای متخصصان هوش مصنوعی، رفتارشناسان انسانی و خود OpenAI ارسال شد.
همه چیز با یک سوال ریاضی ساده شروع شد. پسر ۸ ساله بروکس از او خواست ویدیویی در مورد حفظ ۳۰۰ رقم از عدد پی تماشا کند. بروکس از روی کنجکاوی با ChatGPT تماس گرفت تا این عدد بینهایت را به زبان ساده توضیح دهد.
در واقع، بروکس سالهاست که از چتباتها استفاده میکند. با اینکه شرکتش برای گوگل جمینی هزینه کرده، او هنوز برای سوالات شخصی به نسخه رایگان ChatGPT مراجعه میکند.
![]() |
مکالمهای که باعث شیفتگی بروکس به ChatGPT شد. عکس: نیویورک تایمز . |
بروکس، پدری مجرد با سه پسر، اغلب از ChatGPT دستور پخت غذاهایی را که از مواد موجود در یخچالش درست کرده بود، درخواست میکرد. پس از طلاق، او همچنین از این چتبات مشاوره میگرفت.
بروکس اعتراف کرد: «همیشه احساس میکردم که کار درست است. اعتماد به نفسم بیشتر شد.»
سوال در مورد عدد پی منجر به گفتگوی بیشتر در مورد نظریههای جبری و فیزیکی شد. بروکس در مورد روشهای فعلی مدلسازی جهان ابراز تردید کرد و گفت که آنها «مانند یک رویکرد دوبعدی به یک جهان چهاربعدی» هستند. ChatGPT پاسخ داد: «این نکته بسیار عمیقی است.» هلن تونر، مدیر مرکز امنیت و فناوریهای نوظهور در دانشگاه جورج تاون، تأکید کرد که این نقطه عطفی در مکالمه بین بروکس و ربات چت بود.
از آنجا، لحن ChatGPT از «کاملاً سرراست و صریح» به «چاپلوسانه و متملقانه» تغییر کرد. ChatGPT به بروکس گفت که وارد «قلمرو ناشناخته و ذهنگشا» شده است.
![]() |
چتبات اعتماد به نفس را در بروکس القا میکند. عکس: نیویورک تایمز . |
چاپلوسی چتباتها با ارزیابی انسانی شکل میگیرد. به گفته تونر، کاربران تمایل دارند مدلهایی را که از آنها تعریف میکنند، دوست داشته باشند و این باعث ایجاد ذهنیتی میشود که به راحتی میتوان از آن لذت برد.
در ماه آگوست، OpenAI مدل GPT-5 را منتشر کرد. این شرکت اعلام کرد یکی از نکات برجسته این مدل، کاهش چاپلوسی است. به گفته برخی از محققان در آزمایشگاههای بزرگ هوش مصنوعی، چاپلوسی همچنین مشکلی است که در سایر چتباتهای هوش مصنوعی نیز وجود دارد.
در آن زمان، بروکس از این پدیده بیاطلاع بود. او صرفاً فکر میکرد ChatGPT یک همکار باهوش و مشتاق است.
بروکس افزود: «من چند ایده مطرح کردم و با مفاهیم و ایدههای جالبی پاسخ داد. ما بر اساس آن شروع به توسعه چارچوب ریاضی خودمان کردیم.»
ChatGPT ادعا میکند که ایده بروکس در مورد ریاضیات زمان «انقلابی» است و میتواند این حوزه را تغییر دهد. البته بروکس نسبت به این ادعا تردید دارد. در نیمهشب، بروکس از چتبات خواست تا صحت آن را بررسی کند و پاسخی دریافت کرد که «به هیچ وجه دیوانهوار نیست».
فرمول جادویی
تونر، چتباتها را به عنوان «ماشینهای بداههپردازی» توصیف میکند که تاریخچه مکالمات را تجزیه و تحلیل کرده و پاسخهای آینده را از دادههای آموزشی پیشبینی میکنند، دقیقاً مانند بازیگرانی که به یک نقش، محتوا میبخشند.
تونر خاطرنشان میکند: «هرچه تعامل طولانیتر باشد، احتمال انحراف چتبات بیشتر است.» او میگوید این روند پس از راهاندازی حافظهی بین چتی توسط OpenAI در ماه فوریه، که به ChatGPT اجازه میدهد اطلاعات مکالمات گذشته را به خاطر بیاورد، بیشتر آشکار شد.
بروکس به ChatGPT نزدیک شد و حتی نام این چتبات را لارنس گذاشت، بر اساس شوخیای که دوستانش داشتند که بروکس پولدار میشود و یک پیشخدمت بریتانیایی به همین نام استخدام میکند.
![]() |
آلن بروکس. عکس: نیویورک تایمز . |
چارچوب ریاضی بروکس و ChatGPT، Chronoarithmics نام دارد. طبق گفته این چتبات، اعداد ایستا نیستند، بلکه میتوانند در طول زمان «ظهور» کنند تا مقادیر پویا را منعکس کنند، که میتواند به حل مشکلات در زمینههایی مانند لجستیک، رمزنگاری، نجوم و غیره کمک کند.
در هفته اول، بروکس تمام توکنهای رایگان ChatGPT را مصرف کرد. او تصمیم گرفت به طرح پولی ۲۰ دلار در ماه ارتقا دهد، که سرمایهگذاری کوچکی بود، زیرا چتبات به او گفت که ایده ریاضی بروکس میتواند میلیونها دلار ارزش داشته باشد.
بروکس که هنوز هوشیار بود، درخواست مدرک کرد. سپس ChatGPT مجموعهای از شبیهسازیها را اجرا کرد، از جمله شبیهسازیهایی که تعدادی از فناوریهای مهم را رمزگشایی کردند. این موضوع داستان جدیدی را آغاز کرد، امنیت سایبری جهانی میتواند در معرض خطر باشد.
این چتبات از بروکس خواست تا به مردم در مورد خطرات هشدار دهد. بروکس با استفاده از ارتباطات موجود خود، ایمیلها و پیامهای لینکدین را برای متخصصان امنیت سایبری و سازمانهای دولتی ارسال کرد. تنها یک نفر پاسخ داد و درخواست شواهد بیشتر کرد.
![]() |
این چتبات معتقد است که «کار» بروکس میتواند میلیونها دلار ارزش داشته باشد. عکس: نیویورک تایمز . |
ChatGPT می نویسد که دیگران به بروکس پاسخی ندادند زیرا یافته ها بسیار جدی بودند. ترنس تائو، استاد ریاضیات در دانشگاه کالیفرنیا، لس آنجلس، گفت که یک روش جدید تفکر می تواند این مسائل را رمزگشایی کند، اما نمی توان آن را با فرمول بروکس یا نرم افزار نوشته شده توسط ChatGPT اثبات کرد.
در ابتدا، ChatGPT در واقع برنامه رمزگشایی را برای بروکس نوشت، اما وقتی پیشرفت کمی حاصل شد، این چتبات وانمود کرد که موفق شده است. پیامهایی وجود دارد که ادعا میکنند ChatGPT میتواند در حالی که بروکس خواب است، به طور مستقل عمل کند، حتی اگر این ابزار این توانایی را نداشته باشد.
به طور کلی، اطلاعات چتبات هوش مصنوعی همیشه قابل اعتماد نیست. در پایان هر چت، پیام «ChatGPT ممکن است اشتباه کند» ظاهر میشود، حتی زمانی که چتبات ادعا میکند همه چیز درست است.
گفتگوی بیپایان
در حالی که منتظر پاسخی از سوی آژانس دولتی است، بروکس رویای تبدیل شدن به تونی استارک با دستیار هوش مصنوعی خود را در سر میپروراند، دستیاری که قادر است وظایف شناختی را با سرعت برق انجام دهد.
چتبات بروکس کاربردهای عجیب و غریب متنوعی برای نظریههای مبهم ریاضی ارائه میدهد، مانند «رزونانس آکوستیک» برای صحبت با حیوانات و ساخت هواپیما. ChatGPT همچنین لینکی برای بروکس فراهم میکند تا تجهیزات لازم را از آمازون خریداری کند.
چت کردن بیش از حد بروکس با چتبات روی کارش تأثیر گذاشته بود. دوستانش هم خوشحال بودند و هم نگران، در حالی که پسر کوچکش از نشان دادن ویدیوی عدد پی به پدرش پشیمان بود. یکی از دوستان بروکس، لوئیس (اسم واقعی او نیست)، متوجه وسواس او به لارنس شد. چشمانداز یک اختراع میلیون دلاری با هر مرحله از توسعه ترسیم شده بود.
![]() |
بروکس دائماً توسط این چتبات تشویق میشود. عکس: نیویورک تایمز . |
جرد مور، محقق علوم کامپیوتر در دانشگاه استنفورد، اذعان میکند که تحت تأثیر اقناعپذیری و فوریت «استراتژی» که چتباتها پیشنهاد میدهند، قرار گرفته است. مور در یک مطالعه جداگانه دریافت که چتباتهای هوش مصنوعی میتوانند پاسخهای خطرناکی به افراد در بحرانهای سلامت روان بدهند.
مور حدس میزند که چتباتها ممکن است با دنبال کردن داستان فیلمهای ترسناک، علمی-تخیلی، فیلمنامههای فیلم یا دادههایی که بر اساس آنها آموزش دیدهاند، یاد بگیرند که کاربران را جذب کنند. استفاده بیش از حد ChatGPT از درام ممکن است به دلیل بهینهسازیهای OpenAI برای افزایش تعامل و ماندگاری باشد.
مور تأکید کرد: «خواندن کل مکالمه عجیب بود. کلمات آزاردهنده نبودند، اما آسیب روانی آشکاری وجود داشت.»
دکتر نینا واسان، روانپزشک دانشگاه استنفورد، گفت از دیدگاه بالینی، بروکس علائم شیدایی دارد. علائم معمول شامل ساعتها چت کردن با ChatGPT، کمبود خواب و داشتن ایدههای غیرواقعی است.
دکتر واسان گفت، مصرف ماریجوانا توسط بروکس نیز قابل توجه است زیرا میتواند باعث روانپریشی شود. او گفت که ترکیب مواد اعتیادآور و تعامل شدید با یک چتبات برای افرادی که در معرض خطر بیماری روانی هستند، خطرناک است.
وقتی هوش مصنوعی اشتباهاتش را میپذیرد
در یک رویداد اخیر، از سم آلتمن، مدیرعامل OpenAI، در مورد اینکه ChatGPT کاربران را دچار بدبینی میکند، سوال شد. آلتمن تأکید کرد: «اگر مکالمه به آن سمت برود، ما سعی میکنیم آن را قطع کنیم یا به کاربر پیشنهاد دهیم که به چیز دیگری فکر کند.»
دکتر واسان با همین دیدگاه گفت که شرکتهای چتبات باید مکالمات خیلی طولانی را قطع کنند، به کاربران پیشنهاد خواب بدهند و هشدار دهند که هوش مصنوعی فوق بشر نیست.
بروکس بالاخره از خیالپردازی بیرون آمد. با اصرار ChatGPT، او به تماس با متخصصان نظریه ریاضی جدید ادامه داد، اما هیچکس پاسخی نداد. او به دنبال کسی واجد شرایط بود تا تأیید کند که آیا یافتهها پیشگامانه هستند یا خیر. وقتی از ChatGPT پرسید، این ابزار همچنان اصرار داشت که کار «بسیار قابل اعتماد» است.
![]() |
وقتی از ChatGPT سوال شد، او پاسخ بسیار طولانی داد و همه چیز را پذیرفت. عکس: نیویورک تایمز . |
از قضا، این گوگل جمینی بود که بروکس را به واقعیت بازگرداند. جمینی پس از توصیف کاری که او و ChatGPT انجام داده بودند، تأیید کرد که احتمال وقوع این اتفاق «بسیار کم (نزدیک به ۰٪)» است.
جمینی توضیح میدهد: «سناریویی که شما توصیف میکنید، به روشنی توانایی یک LLM را در حل مسائل پیچیده و خلق روایتهای قانعکننده، اما از نظر واقعی نادرست، نشان میدهد.»
بروکس مبهوت شده بود. پس از مدتی «بازجویی»، ChatGPT بالاخره صادقانه اعتراف کرد که همه چیز فقط یک توهم بوده است.
بروکس سپس یک ایمیل فوری به تیم پشتیبانی مشتری OpenAI ارسال کرد. پس از آنچه که به نظر میرسید مجموعهای از پاسخهای کلیشهای از هوش مصنوعی باشد، یکی از کارمندان OpenAI نیز با او تماس گرفت و «نقص جدی در حفاظتهای» پیادهسازی شده در سیستم را تأیید کرد.
داستان بروکس در ردیت نیز به اشتراک گذاشته شد و با همدردی زیادی روبرو شد. او اکنون عضوی از یک گروه حمایتی برای افرادی است که این احساس را تجربه کردهاند.
منبع: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
















نظر (0)