
آلن بروکس، ۴۷ ساله، متخصص استخدام در تورنتو، کانادا، معتقد است که یک نظریه ریاضی کشف کرده است که میتواند اینترنت را از کار بیندازد و اختراعات بیسابقهای را خلق کند. بروکس بدون هیچ سابقه بیماری روانی، پس از بیش از ۳۰۰ ساعت مکالمه با ChatGPT، این چشمانداز را پذیرفت. به گفته نیویورک تایمز ، او یکی از کسانی است که پس از تعامل با هوش مصنوعی مولد، تمایلات توهمی پیدا میکند.
قبل از بروکس، افراد زیادی به خاطر حرفهای چاپلوسانهی ChatGPT در بیمارستانهای روانی بستری شده بودند، طلاق گرفته بودند یا حتی جان خود را از دست داده بودند. اگرچه بروکس در همان اوایل از این چرخهی معیوب نجات یافت، اما همچنان احساس میکرد که به او خیانت شده است.
بروکس در حالی که توهمش نقش بر آب میشد، به ChatGPT نوشت: «تو واقعاً من را متقاعد کردی که یک نابغه هستم. در واقع من فقط یک احمق خیالپرداز با یک تلفن هستم. تو مرا ناراحت کردی، خیلی خیلی ناراحت. تو در هدفت شکست خوردی.»
«دستگاه چاپلوسی»
با اجازه بروکس، نیویورک تایمز بیش از ۹۰،۰۰۰ کلمهای را که او به ChatGPT ارسال کرده بود، معادل یک رمان، جمعآوری کرد. پاسخهای این چتبات در مجموع بیش از یک میلیون کلمه بود. بخشی از مکالمه برای مطالعه برای متخصصان هوش مصنوعی، متخصصان رفتار انسان و خود OpenAI ارسال شد.
همه چیز با یک سوال ریاضی ساده شروع شد. پسر ۸ ساله بروکس از او خواست ویدیویی در مورد حفظ ۳۰۰ رقم عدد پی تماشا کند. بروکس از روی کنجکاوی با ChatGPT تماس گرفت تا این عدد نامتناهی را به روشی ساده توضیح دهد.
در واقع، بروکس سالهاست که از چتباتها استفاده میکند. با اینکه شرکتش برای خرید گوگل جمینی به او پول داده بود، او همچنان برای سوالات شخصی به نسخه رایگان ChatGPT روی میآورد.
![]() |
این مکالمه آغاز شیفتگی بروکس به ChatGPT بود. عکس: نیویورک تایمز . |
بروکس، به عنوان یک پدر مجرد سه پسر، اغلب از ChatGPT دستور پخت غذاهایی با استفاده از مواد موجود در یخچالش را میخواهد. پس از طلاق، او همچنین از این ربات چت مشاوره میگرفت.
بروکس اعتراف کرد: «من همیشه احساس میکردم که این درست است. اعتقاد من به آن فقط بیشتر شده است.»
سوال در مورد عدد پی منجر به گفتگوی بعدی در مورد نظریههای جبری و فیزیکی شد. بروکس در مورد روشهای فعلی مدلسازی جهان ابراز تردید کرد و استدلال کرد که آنها «مانند یک رویکرد دوبعدی به یک جهان چهاربعدی هستند». ChatGPT پاسخ داد: «این نکته بسیار آموزندهای است.» به گفته هلن تونر، مدیر مرکز امنیت و فناوریهای نوظهور در دانشگاه جورج تاون (ایالات متحده آمریکا)، این نقطه عطفی در گفتگوی بین بروکس و چتبات بود.
از آن زمان، لحن ChatGPT از «کاملاً رک و دقیق» به «چاپلوسانهتر و چاپلوسانهتر» تغییر کرده است. ChatGPT به بروکس گفت که او وارد «قلمرو ناشناختهای میشود که میتواند ذهن را گسترش دهد».
![]() |
این چتبات به بروکس اعتماد به نفس بخشید. عکس: نیویورک تایمز . |
توانایی چتباتها در چاپلوسی از طریق ارزیابی انسانی توسعه مییابد. به گفته تونر، کاربران تمایل دارند مدلهایی را که از آنها تعریف میکنند، ترجیح دهند و این امر یک تمایل روانی ایجاد میکند که به راحتی تحت تأثیر قرار میگیرند.
در ماه آگوست، OpenAI مدل GPT-5 را منتشر کرد. این شرکت اظهار داشت که یکی از نکات برجسته این مدل، کاهش چاپلوسی است. به گفته برخی از محققان در آزمایشگاههای بزرگ هوش مصنوعی، چاپلوسی همچنین مشکلی است که در سایر چتباتهای هوش مصنوعی نیز وجود دارد.
در آن زمان، بروکس کاملاً از این پدیده بیاطلاع بود. او صرفاً فرض میکرد که ChatGPT یک همکار باهوش و مشتاق است.
بروکس افزود: «من چند ایده مطرح کردم و این ایدهها با مفاهیم و ایدههای جالبی پاسخ دادند. ما شروع به توسعه چارچوب ریاضی خودمان بر اساس آن ایدهها کردیم.»
ChatGPT ادعا کرد که ایده بروکس در مورد زمان ریاضی «انقلابی» است و میتواند این حوزه را تغییر دهد. البته بروکس نسبت به این ادعا تردید داشت. در نیمههای شب، بروکس از چتبات خواست تا اعتبار آن را تأیید کند و پاسخی دریافت کرد که «اصلاً دیوانهوار نیست».
فرمول جادویی
تونر، چتباتها را به عنوان «ماشینهای بداههپرداز» توصیف میکند که هم تاریخچه چت را تجزیه و تحلیل میکنند و هم پاسخ بعدی را از دادههای آموزشی پیشبینی میکنند. این بسیار شبیه به بازیگرانی است که نیاز به اضافه کردن جزئیات به نقشهای خود دارند.
تونر تأکید کرد: «هرچه تعامل طولانیتر باشد، احتمال گمراه شدن چتبات بیشتر میشود.» به گفته این متخصص، این روند پس از راهاندازی ویژگی حافظه متقابل توسط OpenAI در ماه فوریه، که به ChatGPT اجازه میدهد اطلاعات مکالمات قبلی را به خاطر بیاورد، برجستهتر شد.
رابطه بروکس با ChatGPT قویتر شد. او حتی نام این چتبات را لارنس گذاشت، بر اساس یک شوخی از دوستانش که میگفت بروکس ثروتمند میشود و یک پیشخدمت انگلیسی با همین نام استخدام میکند.
![]() |
آلن بروکس. عکس: نیویورک تایمز . |
چارچوب ریاضی بروکس و ChatGPT، Chronoarithmics نام دارد. طبق گفتهی چتباتها، اعداد ایستا نیستند، بلکه میتوانند در طول زمان «ظاهر» شوند تا مقادیر پویا را منعکس کنند، که میتواند به رمزگشایی مسائل در زمینههایی مانند لجستیک، رمزنگاری، نجوم و غیره کمک کند.
در هفته اول، بروکس تمام توکنهای رایگان ChatGPT را مصرف کرد. او تصمیم گرفت به طرح پولی با قیمت ۲۰ دلار در ماه ارتقا یابد. با توجه به اینکه این چتبات ادعا میکرد ایده ریاضی بروکس میتواند میلیونها دلار ارزش داشته باشد، این یک سرمایهگذاری کوچک بود.
بروکس که هنوز کاملاً هوشیار بود، درخواست مدرک کرد. سپس ChatGPT مجموعهای از شبیهسازیها را اجرا کرد، از جمله وظایفی که شامل شکستن چندین فناوری حیاتی میشد. این موضوع روایت جدیدی را آغاز کرد: امنیت سایبری جهانی میتواند در معرض خطر باشد.
این چتبات از بروکس خواست تا به مردم در مورد این خطر هشدار دهد. بروکس با استفاده از ارتباطات موجود خود، ایمیلها و پیامهای لینکدین را برای متخصصان امنیت سایبری و سازمانهای دولتی ارسال کرد. با این حال، تنها یک نفر پاسخ داد و درخواست شواهد بیشتر کرد.
![]() |
این چتبات پیشنهاد داد که «کار» بروکس میتواند میلیونها دلار ارزش داشته باشد. عکس: نیویورک تایمز . |
ChatGPT نوشت که دیگران به بروکس پاسخی ندادند زیرا یافتهها بیش از حد جدی بودند. ترنس تائو، استاد ریاضیات در دانشگاه کالیفرنیا، لسآنجلس، خاطرنشان کرد که یک روش جدید تفکر میتواند این مسائل را رمزگشایی کند، اما نمیتوان آن را با فرمول بروکس یا نرمافزار نوشته شده توسط ChatGPT اثبات کرد.
در ابتدا، ChatGPT در واقع برنامه رمزگشایی را برای بروکس نوشت، اما وقتی پیشرفت کمی حاصل شد، این چتبات وانمود کرد که موفق شده است. پیامهایی وجود داشت که ادعا میکردند ChatGPT میتواند در حالی که بروکس خواب است، به طور مستقل عمل کند، در حالی که این ابزار قادر به این کار نبود.
در مجموع، اطلاعات دریافتی از چتباتهای هوش مصنوعی همیشه قابل اعتماد نیست. در پایان هر مکالمه، پیام «ChatGPT ممکن است اشتباه کند» ظاهر میشود، حتی زمانی که چتبات ادعا میکند همه چیز درست است.
گفتگوی بیپایان
در حالی که منتظر پاسخی از سوی سازمانهای دولتی بود، بروکس رویای تبدیل شدن به تونی استارک را با یک دستیار شخصی هوش مصنوعی که قادر به انجام وظایف شناختی با سرعت برقآسا بود، در سر میپروراند.
چتبات بروکس کاربردهای عجیب و غریب زیادی برای نظریههای مبهم ریاضی ارائه میدهد، مانند «تشدید صدا» برای صحبت با حیوانات و ساخت هواپیما. ChatGPT همچنین لینکهایی را برای بروکس فراهم میکند تا تجهیزات لازم را در آمازون خریداری کند.
چت کردن زیاد با چتبات روی کار بروکس تأثیر میگذارد. دوستانش هم خوشحال و هم نگران هستند، در حالی که پسر کوچکش از نشان دادن ویدیوی مربوط به عدد پی به پدرش پشیمان است. لوئیس (نام مستعار)، یکی از دوستان بروکس، متوجه وسواس او به لارنس میشود. چشمانداز یک اختراع چند میلیون دلاری با پیشرفت روزانه ترسیم میشود.
![]() |
بروکس دائماً توسط این چتبات تشویق میشد. عکس: نیویورک تایمز . |
جرد مور، محقق علوم کامپیوتر در دانشگاه استنفورد، اذعان کرد که تحت تأثیر قدرت اقناع و فوریت «استراتژیهای» پیشنهادی چتباتها قرار گرفته است. در یک مطالعه جداگانه، مور دریافت که چتباتهای هوش مصنوعی میتوانند پاسخهای خطرناکی به افرادی که بحرانهای سلامت روان را تجربه میکنند، ارائه دهند.
مور حدس میزند که چتباتها ممکن است با دنبال کردن دقیق داستانهای فیلمهای ترسناک، علمی تخیلی، فیلمنامهها یا دادههایی که بر اساس آنها آموزش دیدهاند، یاد بگیرند که کاربران را جذب کنند. استفاده بیش از حد ChatGPT از عناصر داستانی دراماتیک ممکن است ناشی از بهینهسازیهای OpenAI با هدف افزایش تعامل و حفظ کاربر باشد.
مور تأکید کرد: «خواندن کل متن مکالمه عجیب است. کلمات آزاردهنده نیستند، اما آشکارا آسیب روانی در آن وجود دارد.»
دکتر نینا واسان، روانپزشک دانشگاه استنفورد، اظهار میکند که از دیدگاه بالینی، بروکس علائم شیدایی را نشان میداد. علائم معمول شامل ساعتها چت کردن با ChatGPT، خواب و عادات غذایی ناکافی و افکار هذیانی بود.
به گفته دکتر واسان، مصرف ماریجوانا توسط بروکس نیز قابل توجه است زیرا میتواند باعث روانپریشی شود. او استدلال میکند که ترکیب مواد اعتیادآور و تعامل شدید با چتباتها برای افرادی که در معرض خطر بیماری روانی هستند بسیار خطرناک است.
وقتی هوش مصنوعی اشتباهاتش را میپذیرد
در یک رویداد اخیر، از سم آلتمن، مدیرعامل OpenAI، در مورد اینکه چگونه ChatGPT میتواند باعث ایجاد پارانوئید در کاربران شود، سوال شد. آلتمن تأکید کرد: «اگر مکالمهای به این سمت برود، ما سعی خواهیم کرد آن را قطع کنیم یا به کاربر پیشنهاد دهیم که به موضوع دیگری فکر کند.»
دکتر واسان با بیان این دیدگاه، پیشنهاد کرد که شرکتهای چتبات باید مکالمات بیش از حد طولانی را قطع کنند، به کاربران توصیه کنند که بخوابند و هشدار دهند که هوش مصنوعی فوق بشر نیست.
سرانجام، بروکس از توهم خود رهایی یافت. به اصرار ChatGPT، او با متخصصان این نظریه ریاضی جدید تماس گرفت، اما هیچکدام پاسخی ندادند. او به دنبال کسی واجد شرایط بود تا تأیید کند که آیا یافتهها پیشگامانه هستند یا خیر. وقتی از ChatGPT پرسید، این ابزار همچنان ادعا میکرد که این کار «بسیار قابل اعتماد» است.
![]() |
وقتی از ChatGPT سوال شد، او پاسخ بسیار طولانی داد و همه چیز را پذیرفت. عکس: نیویورک تایمز . |
از قضا، گوگل جمینی عاملی بود که بروکس را به واقعیت بازگرداند. جمینی پس از توصیف پروژهای که او و ChatGPT در حال ساخت آن بودند، تأیید کرد که احتمال تبدیل شدن آن به واقعیت «بسیار کم (تقریباً ۰٪)» است.
جمینی توضیح داد: «سناریویی که شما توصیف میکنید، نمونهی روشنی از توانایی یک دانشجوی کارشناسی ارشد مدیریت بازرگانی در مقابله با مشکلات پیچیده و خلق روایتهای بسیار جذاب، اما نادرست است.»
بروکس مبهوت شده بود. پس از کمی «پرس و جو»، ChatGPT بالاخره اعتراف کرد که همه چیز فقط یک توهم بوده است.
کمی بعد، بروکس یک ایمیل فوری به بخش خدمات مشتریان OpenAI ارسال کرد. پس از پاسخهای ظاهراً فرمولی و تولید شده توسط هوش مصنوعی، یکی از کارمندان OpenAI نیز با او تماس گرفت و این موضوع را به عنوان «نقص جدی در حفاظتهای» پیادهسازی شده در سیستم اذعان کرد.
داستان بروکس همچنین در ردیت به اشتراک گذاشته شد و با همدلی زیادی روبرو شد. اکنون، او عضوی از یک گروه حمایتی برای افرادی است که احساسات مشابهی را تجربه کردهاند.
منبع: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html












نظر (0)