في شهر أبريل، غاب المحامي فان سليك (المقيم في تشارلستون، ساوث كارولينا، الولايات المتحدة الأمريكية) عن موعد مع طبيبه النفسي، لذا قرر تجربة استخدام ChatGPT للتعبير عن مشاكله الشخصية.
في محادثة افتراضية مع روبوت الدردشة الخاص بشركة OpenAI، قال إنه شعر بالراحة لمشاركة قصصه الحميمة مع آلة. وشارك مخاوفه وضغوطه كشخص متحول جنسيًا، وغياب الاعتراف بحقوق المتحولين جنسيًا في بلده. كما تحدث فان سليك عن صراعه مع عائلته بسبب عدم دعمهم لهويته الجنسية وانتقاله المرتقب إلى منزله.
الاعتماد على الذكاء الاصطناعي في الاستشارة النفسية
خلال الأيام القليلة التالية، بدأ فان سليك بإرسال رسائل نصية في وقت محدد من اليوم للتعبير عن مشاعره. تدريجيًا، بدأ يشعر بأن ردود ChatGPT أكثر حميمية وعاطفية.
عندما يُشارك الآخرين مشاعره الشخصية، يشعر غالبًا بأنه يُثقل كاهلهم، حتى عند التحدث مع طبيبه النفسي. أما مع روبوت الدردشة الذكي، فلا يشعر بهذا الضغط.
يقول فان سليك: "يُجيب ChatGPT على الأسئلة التي ترغب بسماعها من شخص حقيقي. أحيانًا، يكون هذا التشجيع هو كل ما تحتاجه" .
لا يزال الذكاء الاصطناعي عاجزًا عن استبدال علماء النفس. (صورة: نور فوتو)
وفقًا لبلومبرغ، يُعد عام 2023 مجرد بداية لروبوتات الدردشة المُولِّدة للذكاء الاصطناعي. على الرغم من أن نماذج اللغة المُولِّدة مثل ChatGPT وBing... تُستخدم من قِبل ملايين الأشخاص حول العالم ، إلا أن مستقبلها لا يزال مجهولًا. يستخدم المستخدمون اليوم روبوتات الدردشة المُولِّدة للذكاء الاصطناعي للبحث على الإنترنت، والغش في الواجبات المدرسية، وبرمجة البرامج، وحجز المطاعم.
إن فكرة استخدام روبوتات الدردشة في الإرشاد النفسي ليست جديدة. ففي السابق، كانت إليزا من أوائل روبوتات الدردشة في العالم، حيث طورها البروفيسور جوزيف وايزنباوم في معهد ماساتشوستس للتكنولوجيا (MIT) في ستينيات القرن الماضي. وقد صُممت هذه الروبوتات بنفس إمكانيات الاستشاري النفسي.
ثم ظهرت عدة روبوتات دردشة تُركز على الصحة النفسية للإنسان، مثل Woebot وWysa. وعلى عكس علماء النفس البشريين، تعمل هذه الروبوتات بلا كلل وبتكلفة زهيدة أو معدومة.
لا يزال الذكاء الاصطناعي غير قادر على استبدال الأطباء
ومع ذلك، فإن الراحة تأتي أيضًا مع العديد من السلبيات. تعتمد برامج الدردشة الآلية الشائعة، مثل ChatGPT وBard وBing، على نماذج لغوية ضخمة (LLM)، قادرة على توليد استجابات أو معلومات مقنعة للغاية باستخدام مجموعات بيانات ضخمة.
ليست مصممة لتقديم استشارات نفسية أو نصائح أخلاقية وقانونية كعلماء النفس البشريين. حاليًا، لا تستطيع روبوتات الدردشة الذكية تنظيم القصص التي يتشاركها المستخدمون، مما يجعلها أدنى من علماء النفس الحقيقيين.
قال ستيفن إيلاردي، الأستاذ بجامعة كانساس: "إذا كنت تعاني من مشكلة صحية نفسية خطيرة، فإن روبوتات الدردشة الذكية لا تُغني عن أخصائي الصحة النفسية". وأضاف أن مخاطر استخدام هذه الأنظمة كبيرة جدًا، ووصف ChatGPT بأنه "مزحة رخيصة". ينبغي على الناس إيجاد شخص يثقون به للتحدث معه عن مشاكلهم الشخصية.
ردًا على هذه المشكلة، نصح ممثل شركة OpenAI، الشركة الأم لـ ChatGPT، المستخدمين بعدم استخدام نماذج لغة الذكاء الاصطناعي لتشخيص أو علاج الحالات الصحية الخطيرة.
توصي OpenAI أيضًا المستخدمين بعدم استخدام الذكاء الاصطناعي كبديل عن الدعم من متخصص في مجال علم النفس. (صورة: Slashgear)
خلال المحادثة مع فان سليك، أكّد ChatGPT مرارًا وتكرارًا أنه ليس طبيبًا نفسيًا. وردّ ChatGPT قائلًا : "إذا كنت تعاني من صدمة نفسية أو مشاكل في الصحة النفسية، فقد يكون المحتوى على الإنترنت مفيدًا، ولكنه ليس بديلًا عن استشارة طبيب نفسي" .
من الصعب التحدث عن القضايا الشخصية مع الذكاء الاصطناعي
قال فان سليك إنه سيظل يستشير طبيبًا نفسيًا بانتظام ويطلب نصيحة ChatGPT قبل اتباعها. وأضاف المحامي : "حتى الآن، كانت جميع نصائح ChatGPT معقولة وعميقة للغاية" .
يمكن دمج ChatGPT في عملية الاستشارة مع تزايد الطلب على خدمات الاستشارة النفسية، وفقًا للبروفيسور ستيفن إيلاردي. وتعتقد العالمة مارغريت ميتشل، من مجتمع الذكاء الاصطناعي مفتوح المصدر Hugging Face، أنه يمكن استخدام روبوتات الدردشة القائمة على الذكاء الاصطناعي لإدارة خطوط المساعدة والمساعدة في دعم المزيد من المكالمات.
مع ذلك، أعرب الخبراء عن قلقهم من لجوء بعض الأشخاص إلى روبوتات الدردشة للاستشارات النفسية، مما قد يُفاقم المشكلة لعدم إلمامهم الكافي بالذكاء الاصطناعي. وتُعدّ الخصوصية أيضًا مسألةً مثيرةً للجدل، إذ ستستخدم OpenAI محادثات المستخدمين مع روبوتات الدردشة لتقييم النظام وتدريبه. لذلك، سيتردد الكثيرون في مشاركة مشاكلهم الشخصية الحساسة مع ChatGPT.
يعتقد الكثيرون أيضًا أن استشارات الذكاء الاصطناعي غريبة جدًا. صرّح مدير المشروع آرون لوسون من سان دييغو، كاليفورنيا، بأنه غالبًا ما يستخدم ChatGPT كطبيب نفسي. ورغم أن استجاباته إنسانية جدًا، إلا أن لوسون لا يزال يشعر وكأنه يتحدث إلى آلة.
"لقد طلبت منه أن يجرب لعب الأدوار، لكنني واجهت بعض المشاكل مع هذه المسرحية"، هذا ما قاله آرون لوسون.
(المصدر: زينج نيوز)
مفيد
العاطفة
مبدع
فريد
الغضب
[إعلان 2]
مصدر
تعليق (0)