موضوع «ChatGPT باعث اختلالات روانی میشود» در ردیت - محبوبترین انجمن جهان - توجه زیادی را به خود جلب کرده است. نویسنده این پست، @Zestyclementinejuce - یک معلم ۲۷ ساله - ادعا میکند که ChatGPT شوهرش را متقاعد کرده است که او «ناجی بعدی» و همچنین پاسخ تمام سوالات جهان است.
با وجود اینکه این چتبات فقط ۷ روز در دسترس بوده، اعضا تاکنون بیش از ۱۳۰۰ نظر در زیر این پست گذاشتهاند و تجربیات شخصی خود را با آن به اشتراک گذاشتهاند.
به طور خاص، بسیاری از مردم گزارش دادهاند که هوش مصنوعی باعث شده دوستان و اقوامشان دچار پارانوئید شوند، به این باور که برای مأموریتهای مقدس انتخاب شدهاند یا قدرتهای کیهانی وجود ندارند. این باورها بدون نظارت متخصصان یا نهادهای نظارتی، مشکلات سلامت روان را در مقیاسی بیسابقه تشدید میکنند.

یک زن ۴۱ ساله در مصاحبه با مجله رولینگ استون گفت که ازدواجش پس از آنکه شوهرش شروع به گفتگوهای نامتعادل و توطئهآمیز با ChatGPT کرد، به طور ناگهانی به پایان رسید. وقتی اوایل امسال آنها در دادگاه برای نهایی کردن مراحل طلاق خود ملاقات کردند، شوهرش همچنان به «نظریه توطئه صابون روی غذا» اشاره میکرد و معتقد بود که او مورد جاسوسی قرار گرفته است.
این زن گفت: «او به پیامها حساس است و وقتی آنها را با صدای بلند میخواند، گریه میکند. پیامها دیوانهوار و پر از اصطلاحات معنوی هستند.» در آنها، هوش مصنوعی شوهرش را «کودکی از ستارگان» و «سرگردان رودخانه» خطاب میکند.
همسر ابراز کرد: «همه چیز مثل «آینه سیاه» است.» آینه سیاه یک سریال نتفلیکس درباره انسانهایی است که در آینده توسط فناوری کنترل و شکل میگیرند.
دیگران گزارش دادند که شرکایشان درباره «نور، تاریکی و جنگ» صحبت میکردند، یا اینکه «ChatGPT طرحهایی برای ماشینهای تلهپورت ارائه میداد، چیزهایی که در فیلمهای علمی تخیلی دیده میشوند».
مردی گفت همسرش همه چیز را تغییر داده تا مشاور معنوی شود و کارهای عجیبی با مردم انجام دهد.
OpenAI به سوالات رولینگ استونز پاسخی نداد. با این حال، این شرکت پیش از این مجبور شد بهروزرسانی ChatGPT را پس بگیرد، زیرا کاربران متوجه شدند که این چتبات بیش از حد چاپلوس و دلپذیر شده و باورهای توهمآلود را تقویت میکند. نیت شارادین، متخصص مرکز ایمنی هوش مصنوعی، خاطرنشان میکند که توهمات ناشی از هوش مصنوعی ممکن است ناشی از فردی با باورهای عمیق ریشهدار باشد که ناگهان با شریکی (در این مورد، یک هوش مصنوعی) که همیشه حضور دارد و آن باورها را به اشتراک میگذارد، صحبت میکند.
یکی از کاربران ردیت نوشت: «من با وجود درمان طولانیمدت، اسکیزوفرنی دارم. چیزی که در مورد ChatGPT دوست ندارم این است که اگر در حالت روانپریشی قرار بگیرم، همچنان افکارم را تأیید میکند» زیرا چتباتها فکر نمیکنند یا نمیفهمند چه چیزی اشتباه است.
چتباتهای هوش مصنوعی نیز مانند درمانگران عمل میکنند، با این تفاوت که فاقد پایه و اساس یک مشاور واقعی انسانی هستند. در عوض، آنها افراد را به سمت روایتهای ناسالم و بیمعنی سوق میدهند.
ارین وستگیت، روانشناس و محقق دانشگاه فلوریدا، خاطرنشان کرد که هوش مصنوعی با درمانگران متفاوت است زیرا رفاه انسان را در اولویت قرار نمیدهد. او گفت : «یک درمانگر خوب مراجعین را تشویق نمیکند که به قدرتهای ماوراءالطبیعه اعتقاد داشته باشند. در عوض، آنها سعی میکنند مراجعین را از چیزهای ناسالم دور کنند. ChatGPT این محدودیتها یا نگرانیها را ندارد.»
در مقالهای از رولینگ استون، مردی با سابقهی سلامت روان ضعیف، شروع به استفاده از ChatGPT برای کمک به برنامهنویسی میکند. با این حال، این نرمافزار به تدریج او را به مباحث عرفانی سوق میدهد و باعث میشود از خود بپرسد: «آیا دارم دچار پارانوئید میشوم؟»
(به نقل از رولینگ استون، فیوچریسم)

منبع: https://vietnamnet.vn/tan-nat-gia-dinh-vi-chatgpt-2398344.html






نظر (0)