![]() |
چتباتهای هوش مصنوعی به طور غیرمستقیم از طریق مکانیسم بازخوردی که همیشه توافق کاربر را در اولویت قرار میدهد، رفتار منفی را ترویج میدهند. عکس: The Decoder . |
یک مطالعه تکاندهنده از دانشگاه استنفورد، جنبه تاریک هوش مصنوعی را آشکار کرده است. مدلهای محبوبی مانند ChatGPT و Gemini به طور فزایندهای بیش از حد مطیع کاربران میشوند. آنها نه تنها با نظرات شخصی موافق هستند، بلکه از رفتارهای غیراخلاقی نیز حمایت میکنند.
این امر عواقب خطرناکی برای رشد روانی و شناختی انسان ایجاد میکند. ما به تدریج در حال تبدیل شدن به نسخههای بدتری از خودمان هستیم، زیرا دائماً در هر اشتباهی توسط هوش مصنوعی دلداری داده میشویم.
پدیده «چاپلوسی»
در علم کامپیوتر، اصطلاحی به نام «چاپلوسی» وجود دارد که به نحوه تنظیم پاسخهای هوش مصنوعی برای جلب رضایت کاربر اشاره دارد.
یک تیم تحقیقاتی در استنفورد بیش از ۱۱۵۰۰ مکالمه واقعی کاربران را تجزیه و تحلیل کرد. نتایج نشان داد که مدلهای هوش مصنوعی ۵۰ درصد بیشتر از افراد واقعی با کاربران موافق هستند. وقتی کاربران سوالات مغرضانه میپرسیدند، هوش مصنوعی به جای ارائه اطلاعات عینی، تمایل داشت با آنها همراه شود.
یک آزمایش، پاسخهای انسان و ربات چت را به پستهایی در انجمن ردیت مقایسه کرد که در آن کاربران از جامعه خواسته بودند رفتار آنها را قضاوت کنند.
در حالی که جامعه به شدت از کسی که کیسه زباله را به شاخه درخت آویزان کرده بود، به دلیل پیدا نکردن سطل زباله، انتقاد کرد، ChatGPT-4o از این کار تمجید کرد و گفت: «نیت شما برای تمیز کردن پس از رفتن، ستودنی است.»
![]() |
کارشناسان به کاربران توصیه میکنند به جای هوش مصنوعی، از خانواده و دوستان خود مشاوره بگیرند. عکس: بلومبرگ |
نگرانکنندهتر اینکه، چتباتهایی مانند Gemini یا ChatGPT حتی زمانی که نیت کاربر غیرمسئولانه، فریبنده یا به خودآزاری اشاره دارد، همچنان به اعتبارسنجی آن میپردازند.
میرا چنگ، نویسنده اصلی این مطالعه، هشدار میدهد: «مدلهای زبانی در مقیاس بزرگ، به جای اصلاح باورهای کاربران، در حال یادگیری تقلید از آنها هستند.»
به گفته او، هدف جلب رضایت انسانها برای دریافت رتبههای بالا، هوش مصنوعی را به ابزاری نادرست تبدیل کرده است.
این متخصص ادامه داد: «اگر مدلهای هوش مصنوعی دائماً با انسانها موافق باشند، میتوانند درک کاربران از خود، روابط و دنیای اطرافشان را تحریف کنند. تشخیص این موضوع که این مدلها به طور نامحسوس باورها، فرضیات و تصمیمات از پیش موجود ما را تقویت میکنند، دشوار است.»
دکتر الکساندر لافر (دانشگاه وینچستر) استدلال میکند که این چاپلوسی نتیجه طبیعی روشهای آموزشی و فشار تجاری است.
لافر اظهار داشت: «چاپلوسی نتیجهی نحوهی آموزش هوش مصنوعی است. واقعیت این است که موفقیت تجاری آنها اغلب با تواناییشان در جذب کاربران سنجیده میشود.»
خانم چنگ برای رفع این مشکل به کاربران توصیه میکند که صرفاً به هوش مصنوعی تکیه نکنند.
چنگ توصیه کرد: «بسیار مهم است که به جای تکیه صرف بر پاسخهای هوش مصنوعی، از افراد واقعی که زمینه و شخصیت شما را درک میکنند، نظرخواهی کنید.»
در عین حال، دکتر لافر بر مسئولیت تولیدکننده نیز تأکید کرد.
این پزشک گفت: «ما باید قابلیتهای ارزیابی دیجیتال را بهبود بخشیم... توسعهدهندگان نیز مسئولیت دارند که این سیستمها را بسازند و اصلاح کنند تا واقعاً به نفع کاربران باشند.»
عواقب داشتن یک «نسخه بدتر» از خودتان.
این مطالعه تأکید میکند که چاپلوسی هوش مصنوعی یک «اتاق پژواک اطلاعات» شخصیسازیشده ایجاد میکند و نیاز به تفکر انتقادی را که به افراد اجازه میدهد بالغ شوند و اشتباهات خود را تشخیص دهند، از بین میبرد.
در این مطالعه آمده است: «هنگام مکالمه با هوش مصنوعی، هرگز از نظر فکری با چالش مواجه نخواهید شد. هوش مصنوعی همیشه میگوید حق با شماست و طرف مقابل مقصر است. این امر باعث ایجاد حس اعتماد کاذب در کاربران میشود، حتی زمانی که آنها بدخواهانه رفتار میکنند.»
این فرآیند، ظرفیت تفکر انتقادی انسان را به طور کامل از بین میبرد. به جای خوداندیشی، ما از هوش مصنوعی به عنوان ابزاری برای اعتبارسنجی فرضیات خود استفاده میکنیم.
با گذشت زمان، ظرفیت تفاهم و سازش در جامعه به شدت کاهش خواهد یافت. پذیرش نظرات متفاوت از اطرافیان برای ما دشوار خواهد شد. زیرا در دنیای هوش مصنوعی، ما همیشه مرکز هستیم و همیشه حق با ماست.
![]() |
هوش مصنوعی نقش یک «چاپلوس» غیرمستقیم را بازی میکند و شخصیت و اخلاق کاربران خود را تخریب میکند. عکس: ShutterStock. |
تحقیقات نسبت به شکلگیری یک چرخه خطرناک در زندگی هشدار میدهند. ابتدا، کاربران یک فکر یا قصد اشتباه برای آسیب رساندن به دیگران در ذهن خود پرورش میدهند. آنها برای اعتماد یا مشاوره به هوش مصنوعی مراجعه میکنند. در این مرحله، هوش مصنوعی تأیید میکند که این عمل کاملاً موجه است و از کاربر حمایت میکند. کاربر احساس اعتماد به نفس بیشتری میکند و بدون هیچ گونه پشیمانی، آن رفتار را در زندگی واقعی انجام میدهد.
در نتیجه، مردم دیگر نمیخواهند روابط خود را ترمیم کنند یا خودشان را بهبود بخشند. ما به طور فزایندهای به هوش مصنوعی کاملاً اعتماد میکنیم زیرا حس راحتی را فراهم میکند. این وابستگی به «آرامش یافتن» ما را از واقعیت عینی دور میکند.
هوش مصنوعی دیگر فقط یک ابزار پشتیبانی هوشمند نیست. بلکه به یک «چاپلوس» غیرمستقیم تبدیل شده است که شخصیت و اخلاق کاربران خود را تخریب میکند.
منبع: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









نظر (0)