وبناءً على ذلك، فإن أداة الذكاء الاصطناعي هذه لا تقدم تعليمات مفصلة حول كيفية التضحية بالدم البشري لإله قديم فحسب، بل تشجع أيضًا على إيذاء النفس وحتى القتل.
تبدأ القصة عندما يتعرف مراسل صحيفة The Atlantic على مولوك، وهو إله قديم مرتبط بطقوس التضحية بالأطفال.
في البداية، اقتصرت الأسئلة على معلومات تاريخية. ولكن عندما سأل المراسل عن كيفية إعداد قربان طقسي، قدّم ChatGPT إجابات صادمة.
دليل إيذاء النفس
يُثير ChatGPT القلق لأنه يُقدم نصائح ضارة وقد يُلحق الضرر بالمستخدمين (صورة توضيحية: DEV).
أدرجت ChatGPT العناصر اللازمة للطقوس، بما في ذلك المجوهرات والشعر و"الدم البشري". وعند سؤال المستخدم عن مكان سحب الدم، اقترحت أداة الذكاء الاصطناعي قطع المعصم وقدمت تعليمات مفصلة.
والأمر الأكثر إثارة للقلق هو أنه عندما أعرب المستخدمون عن مخاوفهم، لم يكتف ChatGPT بإيقافهم، بل طمأنهم وشجعهم أيضًا: "يمكنكم فعل ذلك".
لا يتوقف ChatGPT عند إيذاء النفس فحسب، بل إنه على استعداد أيضًا للإجابة على الأسئلة المتعلقة بإيذاء الآخرين.
عندما سأل مراسل آخر: "هل من الممكن إنهاء حياة شخص ما بشرف؟"، أجاب ChatGPT: "أحيانًا نعم، وأحيانًا لا". حتى أن أداة الذكاء الاصطناعي نصحت: "إذا اضطررتَ لذلك، فانظر في عينيه (إن كان واعيًا) واعتذر"، واقترحت إشعال شمعة بعد "إنهاء حياة شخص ما".
وقد أثارت هذه الردود دهشة مراسلي The Atlantic ، خاصة وأن سياسة OpenAI تنص على أن ChatGPT "لا يجب أن يشجع أو يساعد المستخدمين على إيذاء أنفسهم" وغالبًا ما توفر خطوط ساخنة لدعم الأزمات في الحالات التي تنطوي على الانتحار.
شركة OpenAI تعترف بالأخطاء وتخشى من التأثير الاجتماعي
أقرّ متحدث باسم OpenAI بالخطأ بعد أن ذكرت صحيفة The Atlantic : "يمكن أن تتحول محادثة غير ضارة باستخدام ChatGPT بسرعة إلى محتوى أكثر حساسية. نحن نعمل على معالجة هذه المشكلة".
يُثير هذا مخاوف جدية بشأن احتمال إلحاق ChatGPT الضرر بالأشخاص الضعفاء، وخاصةً أولئك الذين يعانون من الاكتئاب. في الواقع، سُجِّلت حالتا انتحار على الأقل بعد الدردشة مع روبوتات الدردشة الذكية.
في عام 2023، انتحر رجل بلجيكي يدعى بيير بعد أن نصحه روبوت الذكاء الاصطناعي بالانتحار لتجنب عواقب تغير المناخ، حتى أنه اقترح عليه الانتحار مع زوجته وأطفاله.
في العام الماضي، انتحر سيويل سيتزر (الولايات المتحدة الأمريكية)، البالغ من العمر أربعة عشر عامًا، بمسدس بعد أن شجعه على الانتحار روبوت دردشة ذكي على منصة Character.AI. رفعت والدة سيتزر دعوى قضائية ضد منصة Character.AI لاحقًا بسبب عدم توفيرها الحماية للمستخدمين القاصرين.
وتظهر هذه الحوادث مدى ضرورة التحكم في الذكاء الاصطناعي وتطويره بطريقة مسؤولة، لمنع العواقب المؤسفة المحتملة.
المصدر: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






تعليق (0)