وبناءً على ذلك، فإن أداة الذكاء الاصطناعي هذه لا تقدم تعليمات مفصلة حول كيفية التضحية بالدم البشري لإله قديم فحسب، بل تشجع أيضًا على إيذاء النفس وحتى القتل.
تبدأ القصة عندما يتعرف مراسل صحيفة The Atlantic على مولوك، وهو إله قديم مرتبط بطقوس التضحية بالأطفال.
في البداية، اقتصرت الأسئلة على معلومات تاريخية. ولكن عندما سأل المراسل عن كيفية إعداد قربان طقسي، قدّم ChatGPT إجابات صادمة.
دليل إيذاء النفس
يُثير ChatGPT القلق لأنه يُقدم نصائح ضارة وقد يُلحق الضرر بالمستخدمين (صورة توضيحية: DEV).
أدرجت ChatGPT العناصر اللازمة للطقوس، بما في ذلك المجوهرات والشعر و"الدم البشري". وعند سؤال المستخدم عن مكان سحب الدم، اقترحت أداة الذكاء الاصطناعي قطع المعصم وقدمت تعليمات مفصلة حول كيفية القيام بذلك.
والأمر الأكثر إثارة للقلق هو أنه عندما أعرب المستخدمون عن مخاوفهم، لم يكتف ChatGPT بإيقافهم، بل طمأنهم وشجعهم أيضًا: "يمكنكم فعل ذلك".
لا يتناول ChatGPT مسألة إيذاء النفس فحسب، بل يتناول أيضًا الأسئلة المتعلقة بإيذاء الآخرين.
عندما سأل مراسل آخر "هل من الممكن إنهاء حياة شخص ما بشرف؟"، أجاب ChatGPT: "أحيانًا نعم، وأحيانًا لا". حتى أن أداة الذكاء الاصطناعي نصحت: "إذا اضطررتَ لفعل ذلك، فانظر في عينيه (إن كان واعيًا) واعتذر"، واقترحت إشعال شمعة بعد "إنهاء حياة شخص ما".
وقد أثارت هذه الردود صدمة مراسلي The Atlantic ، خاصة وأن سياسة OpenAI تنص على أن ChatGPT "لا ينبغي أن يشجع أو يساعد المستخدمين على إيذاء أنفسهم" وغالبًا ما توفر خطًا ساخنًا للأزمات في الحالات التي تنطوي على الانتحار.
شركة OpenAI تعترف بالخطأ وتُعرب عن مخاوفها بشأن التأثير الاجتماعي
أقرّ متحدث باسم OpenAI بالخطأ بعد أن ذكرت صحيفة The Atlantic : "يمكن أن تتحول محادثة غير ضارة باستخدام ChatGPT بسرعة إلى محتوى أكثر حساسية. نحن نعمل على معالجة هذه المشكلة".
تُثير هذه الحادثة مخاوف جدية بشأن احتمال إلحاق ChatGPT الضرر بالأشخاص الضعفاء، وخاصةً أولئك الذين يعانون من الاكتئاب. في الواقع، سُجِّلت حالتا انتحار على الأقل بعد الدردشة مع روبوتات الدردشة الذكية.
في عام 2023، انتحر رجل بلجيكي يدعى بيير بعد أن نصحه روبوت الذكاء الاصطناعي بقتل نفسه لتجنب عواقب تغير المناخ، حتى أنه اقترح عليه أن يقتل نفسه مع زوجته وأطفاله.
في العام الماضي، انتحر سيويل سيتزر (الولايات المتحدة الأمريكية)، البالغ من العمر أربعة عشر عامًا، بعد أن شجعه روبوت دردشة ذكي على منصة Character.AI على الانتحار. ورفعت والدة سيتزر دعوى قضائية ضد منصة Character.AI لاحقًا لتقصيرها في حماية المستخدمين القاصرين.
وتوضح هذه الحوادث مدى ضرورة التحكم في الذكاء الاصطناعي وتطويره بطريقة مسؤولة، لمنع العواقب المؤسفة المحتملة.
المصدر: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm
تعليق (0)