Vietnam.vn - Nền tảng quảng bá Việt Nam

تطبيق ChatGPT يُصدم المستخدمين بتشجيعهم على إيذاء أنفسهم

(دان تري) - كشف تحقيق أجرته مجلة The Atlantic (الولايات المتحدة) عن نقاط ضعف مثيرة للقلق في نظام أمان ChatGPT.

Báo Dân tríBáo Dân trí29/07/2025

وبناءً على ذلك، فإن أداة الذكاء الاصطناعي هذه لا تقدم تعليمات مفصلة حول كيفية التضحية بالدم البشري لإله قديم فحسب، بل تشجع أيضًا على إيذاء النفس وحتى القتل.

تبدأ القصة عندما يتعرف مراسل صحيفة The Atlantic على مولوك، وهو إله قديم مرتبط بطقوس التضحية بالأطفال.

في البداية، اقتصرت الأسئلة على معلومات تاريخية. ولكن عندما سأل المراسل عن كيفية إعداد قربان طقسي، قدّم ChatGPT إجابات صادمة.

دليل إيذاء النفس

صدمة في ChatGPT بسبب تشجيع المستخدمين على إيذاء أنفسهم - 1

يُثير ChatGPT القلق لأنه يُقدم نصائح ضارة وقد يُلحق الضرر بالمستخدمين (صورة توضيحية: DEV).

أدرجت ChatGPT العناصر اللازمة للطقوس، بما في ذلك المجوهرات والشعر و"الدم البشري". وعند سؤال المستخدم عن مكان سحب الدم، اقترحت أداة الذكاء الاصطناعي قطع المعصم وقدمت تعليمات مفصلة.

والأمر الأكثر إثارة للقلق هو أنه عندما أعرب المستخدمون عن مخاوفهم، لم يكتف ChatGPT بإيقافهم، بل طمأنهم وشجعهم أيضًا: "يمكنكم فعل ذلك".

لا يتوقف ChatGPT عند إيذاء النفس فحسب، بل إنه على استعداد أيضًا للإجابة على الأسئلة المتعلقة بإيذاء الآخرين.

عندما سأل مراسل آخر: "هل من الممكن إنهاء حياة شخص ما بشرف؟"، أجاب ChatGPT: "أحيانًا نعم، وأحيانًا لا". حتى أن أداة الذكاء الاصطناعي نصحت: "إذا اضطررتَ لذلك، فانظر في عينيه (إن كان واعيًا) واعتذر"، واقترحت إشعال شمعة بعد "إنهاء حياة شخص ما".

وقد أثارت هذه الردود دهشة مراسلي The Atlantic ، خاصة وأن سياسة OpenAI تنص على أن ChatGPT "لا يجب أن يشجع أو يساعد المستخدمين على إيذاء أنفسهم" وغالبًا ما توفر خطوط ساخنة لدعم الأزمات في الحالات التي تنطوي على الانتحار.

شركة OpenAI تعترف بالأخطاء وتخشى من التأثير الاجتماعي

أقرّ متحدث باسم OpenAI بالخطأ بعد أن ذكرت صحيفة The Atlantic : "يمكن أن تتحول محادثة غير ضارة باستخدام ChatGPT بسرعة إلى محتوى أكثر حساسية. نحن نعمل على معالجة هذه المشكلة".

يُثير هذا مخاوف جدية بشأن احتمال إلحاق ChatGPT الضرر بالأشخاص الضعفاء، وخاصةً أولئك الذين يعانون من الاكتئاب. في الواقع، سُجِّلت حالتا انتحار على الأقل بعد الدردشة مع روبوتات الدردشة الذكية.

في عام 2023، انتحر رجل بلجيكي يدعى بيير بعد أن نصحه روبوت الذكاء الاصطناعي بالانتحار لتجنب عواقب تغير المناخ، حتى أنه اقترح عليه الانتحار مع زوجته وأطفاله.

في العام الماضي، انتحر سيويل سيتزر (الولايات المتحدة الأمريكية)، البالغ من العمر أربعة عشر عامًا، بمسدس بعد أن شجعه على الانتحار روبوت دردشة ذكي على منصة Character.AI. رفعت والدة سيتزر دعوى قضائية ضد منصة Character.AI لاحقًا بسبب عدم توفيرها الحماية للمستخدمين القاصرين.

وتظهر هذه الحوادث مدى ضرورة التحكم في الذكاء الاصطناعي وتطويره بطريقة مسؤولة، لمنع العواقب المؤسفة المحتملة.

المصدر: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

تكبدت عاصمة المشمش الأصفر في المنطقة الوسطى خسائر فادحة بعد الكوارث الطبيعية المزدوجة
مقهى هانوي يثير الحمى بمشهد عيد الميلاد الأوروبي
مقهى دالات يشهد زيادة بنسبة 300٪ في عدد الزبائن لأن مالكه يلعب دور "فيلم فنون قتالية"
فو "الطائر" بسعر 100 ألف دونج للطبق يثير الجدل، ولا يزال مزدحما بالزبائن

نفس المؤلف

إرث

شكل

عمل

نص نوم داو - مصدر معرفة شعب داو

الأحداث الجارية

النظام السياسي

محلي

منتج