موضوع «ChatGPT باعث اختلالات روانی می‌شود» در ردیت - محبوب‌ترین انجمن جهان - توجه زیادی را به خود جلب کرده است. نویسنده این پست، @Zestyclementinejuce - یک معلم ۲۷ ساله - ادعا می‌کند که ChatGPT شوهرش را متقاعد کرده است که او «ناجی بعدی» و همچنین پاسخ تمام سوالات جهان است.

با وجود اینکه این چت‌بات فقط ۷ روز در دسترس بوده، اعضا تاکنون بیش از ۱۳۰۰ نظر در زیر این پست گذاشته‌اند و تجربیات شخصی خود را با آن به اشتراک گذاشته‌اند.

به طور خاص، بسیاری از مردم گزارش داده‌اند که هوش مصنوعی باعث شده دوستان و اقوامشان دچار پارانوئید شوند، به این باور که برای مأموریت‌های مقدس انتخاب شده‌اند یا قدرت‌های کیهانی وجود ندارند. این باورها بدون نظارت متخصصان یا نهادهای نظارتی، مشکلات سلامت روان را در مقیاسی بی‌سابقه تشدید می‌کنند.

20yms66r.png
بسیاری از مردم گفته‌اند که عزیزانشان پس از چت با ChatGPT دچار توهم شده‌اند. عکس: رولینگ استون

یک زن ۴۱ ساله در مصاحبه با مجله رولینگ استون گفت که ازدواجش پس از آنکه شوهرش شروع به گفتگوهای نامتعادل و توطئه‌آمیز با ChatGPT کرد، به طور ناگهانی به پایان رسید. وقتی اوایل امسال آنها در دادگاه برای نهایی کردن مراحل طلاق خود ملاقات کردند، شوهرش همچنان به «نظریه توطئه صابون روی غذا» اشاره می‌کرد و معتقد بود که او مورد جاسوسی قرار گرفته است.

این زن گفت: «او به پیام‌ها حساس است و وقتی آنها را با صدای بلند می‌خواند، گریه می‌کند. پیام‌ها دیوانه‌وار و پر از اصطلاحات معنوی هستند.» در آنها، هوش مصنوعی شوهرش را «کودکی از ستارگان» و «سرگردان رودخانه» خطاب می‌کند.

همسر ابراز کرد: «همه چیز مثل «آینه سیاه» است.» آینه سیاه یک سریال نتفلیکس درباره انسان‌هایی است که در آینده توسط فناوری کنترل و شکل می‌گیرند.

دیگران گزارش دادند که شرکایشان درباره «نور، تاریکی و جنگ» صحبت می‌کردند، یا اینکه «ChatGPT طرح‌هایی برای ماشین‌های تله‌پورت ارائه می‌داد، چیزهایی که در فیلم‌های علمی تخیلی دیده می‌شوند».

مردی گفت همسرش همه چیز را تغییر داده تا مشاور معنوی شود و کارهای عجیبی با مردم انجام دهد.

OpenAI به سوالات رولینگ استونز پاسخی نداد. با این حال، این شرکت پیش از این مجبور شد به‌روزرسانی ChatGPT را پس بگیرد، زیرا کاربران متوجه شدند که این چت‌بات بیش از حد چاپلوس و دلپذیر شده و باورهای توهم‌آلود را تقویت می‌کند. نیت شارادین، متخصص مرکز ایمنی هوش مصنوعی، خاطرنشان می‌کند که توهمات ناشی از هوش مصنوعی ممکن است ناشی از فردی با باورهای عمیق ریشه‌دار باشد که ناگهان با شریکی (در این مورد، یک هوش مصنوعی) که همیشه حضور دارد و آن باورها را به اشتراک می‌گذارد، صحبت می‌کند.

یکی از کاربران ردیت نوشت: «من با وجود درمان طولانی‌مدت، اسکیزوفرنی دارم. چیزی که در مورد ChatGPT دوست ندارم این است که اگر در حالت روان‌پریشی قرار بگیرم، همچنان افکارم را تأیید می‌کند» زیرا چت‌بات‌ها فکر نمی‌کنند یا نمی‌فهمند چه چیزی اشتباه است.

چت‌بات‌های هوش مصنوعی نیز مانند درمانگران عمل می‌کنند، با این تفاوت که فاقد پایه و اساس یک مشاور واقعی انسانی هستند. در عوض، آنها افراد را به سمت روایت‌های ناسالم و بی‌معنی سوق می‌دهند.

ارین وست‌گیت، روانشناس و محقق دانشگاه فلوریدا، خاطرنشان کرد که هوش مصنوعی با درمانگران متفاوت است زیرا رفاه انسان را در اولویت قرار نمی‌دهد. او گفت : «یک درمانگر خوب مراجعین را تشویق نمی‌کند که به قدرت‌های ماوراءالطبیعه اعتقاد داشته باشند. در عوض، آنها سعی می‌کنند مراجعین را از چیزهای ناسالم دور کنند. ChatGPT این محدودیت‌ها یا نگرانی‌ها را ندارد.»

در مقاله‌ای از رولینگ استون، مردی با سابقه‌ی سلامت روان ضعیف، شروع به استفاده از ChatGPT برای کمک به برنامه‌نویسی می‌کند. با این حال، این نرم‌افزار به تدریج او را به مباحث عرفانی سوق می‌دهد و باعث می‌شود از خود بپرسد: «آیا دارم دچار پارانوئید می‌شوم؟»

(به نقل از رولینگ استون، فیوچریسم)

تکان دهنده: اولین کشور جهان می‌خواهد از هوش مصنوعی برای تدوین قوانین استفاده کند . اگرچه هوش مصنوعی (AI) به طور گسترده در سطح جهان مورد استفاده قرار می‌گیرد، اما هنوز هیچ کشوری رسماً از این فناوری در تدوین یا اصلاح قوانین استفاده نکرده است.

منبع: https://vietnamnet.vn/tan-nat-gia-dinh-vi-chatgpt-2398344.html