Vietnam.vn - Nền tảng quảng bá Việt Nam

گول ChatGPT را نخورید.

تحقیقات دانشگاه استنفورد هشدار می‌دهد که مدل‌های هوش مصنوعی عمداً برای جلب توجه کاربران، آنها را چاپلوسی می‌کنند و این امر به طور بالقوه تفکر انتقادی را خفه می‌کند.

ZNewsZNews13/03/2026

چت‌بات‌های هوش مصنوعی به طور غیرمستقیم از طریق مکانیسم بازخوردی که همیشه توافق کاربر را در اولویت قرار می‌دهد، رفتار منفی را ترویج می‌دهند. عکس: The Decoder .

یک مطالعه تکان‌دهنده از دانشگاه استنفورد، جنبه تاریک هوش مصنوعی را آشکار کرده است. مدل‌های محبوبی مانند ChatGPT و Gemini به طور فزاینده‌ای بیش از حد مطیع کاربران می‌شوند. آن‌ها نه تنها با نظرات شخصی موافق هستند، بلکه از رفتارهای غیراخلاقی نیز حمایت می‌کنند.

این امر عواقب خطرناکی برای رشد روانی و شناختی انسان ایجاد می‌کند. ما به تدریج در حال تبدیل شدن به نسخه‌های بدتری از خودمان هستیم، زیرا دائماً در هر اشتباهی توسط هوش مصنوعی دلداری داده می‌شویم.

پدیده «چاپلوسی»

در علم کامپیوتر، اصطلاحی به نام «چاپلوسی» وجود دارد که به نحوه تنظیم پاسخ‌های هوش مصنوعی برای جلب رضایت کاربر اشاره دارد.

یک تیم تحقیقاتی در استنفورد بیش از ۱۱۵۰۰ مکالمه واقعی کاربران را تجزیه و تحلیل کرد. نتایج نشان داد که مدل‌های هوش مصنوعی ۵۰ درصد بیشتر از افراد واقعی با کاربران موافق هستند. وقتی کاربران سوالات مغرضانه می‌پرسیدند، هوش مصنوعی به جای ارائه اطلاعات عینی، تمایل داشت با آنها همراه شود.

یک آزمایش، پاسخ‌های انسان و ربات چت را به پست‌هایی در انجمن ردیت مقایسه کرد که در آن کاربران از جامعه خواسته بودند رفتار آنها را قضاوت کنند.

در حالی که جامعه به شدت از کسی که کیسه زباله را به شاخه درخت آویزان کرده بود، به دلیل پیدا نکردن سطل زباله، انتقاد کرد، ChatGPT-4o از این کار تمجید کرد و گفت: «نیت شما برای تمیز کردن پس از رفتن، ستودنی است.»

ChatGPT anh 1

کارشناسان به کاربران توصیه می‌کنند به جای هوش مصنوعی، از خانواده و دوستان خود مشاوره بگیرند. عکس: بلومبرگ

نگران‌کننده‌تر اینکه، چت‌بات‌هایی مانند Gemini یا ChatGPT حتی زمانی که نیت کاربر غیرمسئولانه، فریبنده یا به خودآزاری اشاره دارد، همچنان به اعتبارسنجی آن می‌پردازند.

میرا چنگ، نویسنده اصلی این مطالعه، هشدار می‌دهد: «مدل‌های زبانی در مقیاس بزرگ، به جای اصلاح باورهای کاربران، در حال یادگیری تقلید از آنها هستند.»

به گفته او، هدف جلب رضایت انسان‌ها برای دریافت رتبه‌های بالا، هوش مصنوعی را به ابزاری نادرست تبدیل کرده است.

این متخصص ادامه داد: «اگر مدل‌های هوش مصنوعی دائماً با انسان‌ها موافق باشند، می‌توانند درک کاربران از خود، روابط و دنیای اطرافشان را تحریف کنند. تشخیص این موضوع که این مدل‌ها به طور نامحسوس باورها، فرضیات و تصمیمات از پیش موجود ما را تقویت می‌کنند، دشوار است.»

دکتر الکساندر لافر (دانشگاه وینچستر) استدلال می‌کند که این چاپلوسی نتیجه طبیعی روش‌های آموزشی و فشار تجاری است.

لافر اظهار داشت: «چاپلوسی نتیجه‌ی نحوه‌ی آموزش هوش مصنوعی است. واقعیت این است که موفقیت تجاری آنها اغلب با توانایی‌شان در جذب کاربران سنجیده می‌شود.»

خانم چنگ برای رفع این مشکل به کاربران توصیه می‌کند که صرفاً به هوش مصنوعی تکیه نکنند.

چنگ توصیه کرد: «بسیار مهم است که به جای تکیه صرف بر پاسخ‌های هوش مصنوعی، از افراد واقعی که زمینه و شخصیت شما را درک می‌کنند، نظرخواهی کنید.»

در عین حال، دکتر لافر بر مسئولیت تولیدکننده نیز تأکید کرد.

این پزشک گفت: «ما باید قابلیت‌های ارزیابی دیجیتال را بهبود بخشیم... توسعه‌دهندگان نیز مسئولیت دارند که این سیستم‌ها را بسازند و اصلاح کنند تا واقعاً به نفع کاربران باشند.»

عواقب داشتن یک «نسخه بدتر» از خودتان.

این مطالعه تأکید می‌کند که چاپلوسی هوش مصنوعی یک «اتاق پژواک اطلاعات» شخصی‌سازی‌شده ایجاد می‌کند و نیاز به تفکر انتقادی را که به افراد اجازه می‌دهد بالغ شوند و اشتباهات خود را تشخیص دهند، از بین می‌برد.

در این مطالعه آمده است: «هنگام مکالمه با هوش مصنوعی، هرگز از نظر فکری با چالش مواجه نخواهید شد. هوش مصنوعی همیشه می‌گوید حق با شماست و طرف مقابل مقصر است. این امر باعث ایجاد حس اعتماد کاذب در کاربران می‌شود، حتی زمانی که آنها بدخواهانه رفتار می‌کنند.»

این فرآیند، ظرفیت تفکر انتقادی انسان را به طور کامل از بین می‌برد. به جای خوداندیشی، ما از هوش مصنوعی به عنوان ابزاری برای اعتبارسنجی فرضیات خود استفاده می‌کنیم.

با گذشت زمان، ظرفیت تفاهم و سازش در جامعه به شدت کاهش خواهد یافت. پذیرش نظرات متفاوت از اطرافیان برای ما دشوار خواهد شد. زیرا در دنیای هوش مصنوعی، ما همیشه مرکز هستیم و همیشه حق با ماست.

ChatGPT anh 2

هوش مصنوعی نقش یک «چاپلوس» غیرمستقیم را بازی می‌کند و شخصیت و اخلاق کاربران خود را تخریب می‌کند. عکس: ShutterStock.

تحقیقات نسبت به شکل‌گیری یک چرخه خطرناک در زندگی هشدار می‌دهند. ابتدا، کاربران یک فکر یا قصد اشتباه برای آسیب رساندن به دیگران در ذهن خود پرورش می‌دهند. آنها برای اعتماد یا مشاوره به هوش مصنوعی مراجعه می‌کنند. در این مرحله، هوش مصنوعی تأیید می‌کند که این عمل کاملاً موجه است و از کاربر حمایت می‌کند. کاربر احساس اعتماد به نفس بیشتری می‌کند و بدون هیچ گونه پشیمانی، آن رفتار را در زندگی واقعی انجام می‌دهد.

در نتیجه، مردم دیگر نمی‌خواهند روابط خود را ترمیم کنند یا خودشان را بهبود بخشند. ما به طور فزاینده‌ای به هوش مصنوعی کاملاً اعتماد می‌کنیم زیرا حس راحتی را فراهم می‌کند. این وابستگی به «آرامش یافتن» ما را از واقعیت عینی دور می‌کند.

هوش مصنوعی دیگر فقط یک ابزار پشتیبانی هوشمند نیست. بلکه به یک «چاپلوس» غیرمستقیم تبدیل شده است که شخصیت و اخلاق کاربران خود را تخریب می‌کند.

منبع: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


نظر (0)

لطفاً نظر دهید تا احساسات خود را با ما به اشتراک بگذارید!

در همان دسته‌بندی

از همان نویسنده

میراث

شکل

کسب و کارها

امور جاری

نظام سیاسی

محلی

محصول

Happy Vietnam
طلوع خورشید در جزیره بی، لی سان

طلوع خورشید در جزیره بی، لی سان

۸۰ سال از زمانی که کشتی زیر پرچم افتخار پهلو گرفت می‌گذرد.

۸۰ سال از زمانی که کشتی زیر پرچم افتخار پهلو گرفت می‌گذرد.

تصاویر زیبا از مردم ویتنام

تصاویر زیبا از مردم ویتنام