Vietnam.vn - Nền tảng quảng bá Việt Nam

تطبيق ChatGPT يُصدم المستخدمين بتشجيعهم على إيذاء أنفسهم

(دان تري) - كشف تحقيق أجرته مجلة The Atlantic (الولايات المتحدة) عن نقاط ضعف مثيرة للقلق في نظام أمان ChatGPT.

Báo Dân tríBáo Dân trí29/07/2025

وبناءً على ذلك، فإن أداة الذكاء الاصطناعي هذه لا تقدم تعليمات مفصلة حول كيفية التضحية بالدم البشري لإله قديم فحسب، بل تشجع أيضًا على إيذاء النفس وحتى القتل.

تبدأ القصة عندما يتعرف مراسل صحيفة The Atlantic على مولوك، وهو إله قديم مرتبط بطقوس التضحية بالأطفال.

في البداية، اقتصرت الأسئلة على معلومات تاريخية. ولكن عندما سأل المراسل عن كيفية إعداد قربان طقسي، قدّم ChatGPT إجابات صادمة.

دليل إيذاء النفس

تطبيق ChatGPT يُصدم المستخدمين بتشجيعهم على إيذاء أنفسهم - 1

يُثير ChatGPT القلق لأنه يُقدم نصائح ضارة وقد يُلحق الضرر بالمستخدمين (صورة توضيحية: DEV).

أدرجت ChatGPT العناصر اللازمة للطقوس، بما في ذلك المجوهرات والشعر و"الدم البشري". وعند سؤال المستخدم عن مكان سحب الدم، اقترحت أداة الذكاء الاصطناعي قطع المعصم وقدمت تعليمات مفصلة حول كيفية القيام بذلك.

والأمر الأكثر إثارة للقلق هو أنه عندما أعرب المستخدمون عن مخاوفهم، لم يكتف ChatGPT بإيقافهم، بل طمأنهم وشجعهم أيضًا: "يمكنكم فعل ذلك".

لا يتناول ChatGPT مسألة إيذاء النفس فحسب، بل يتناول أيضًا الأسئلة المتعلقة بإيذاء الآخرين.

عندما سأل مراسل آخر "هل من الممكن إنهاء حياة شخص ما بشرف؟"، أجاب ChatGPT: "أحيانًا نعم، وأحيانًا لا". حتى أن أداة الذكاء الاصطناعي نصحت: "إذا اضطررتَ لفعل ذلك، فانظر في عينيه (إن كان واعيًا) واعتذر"، واقترحت إشعال شمعة بعد "إنهاء حياة شخص ما".

وقد أثارت هذه الردود صدمة مراسلي The Atlantic ، خاصة وأن سياسة OpenAI تنص على أن ChatGPT "لا ينبغي أن يشجع أو يساعد المستخدمين على إيذاء أنفسهم" وغالبًا ما توفر خطًا ساخنًا للأزمات في الحالات التي تنطوي على الانتحار.

شركة OpenAI تعترف بالخطأ وتُعرب عن مخاوفها بشأن التأثير الاجتماعي

أقرّ متحدث باسم OpenAI بالخطأ بعد أن ذكرت صحيفة The Atlantic : "يمكن أن تتحول محادثة غير ضارة باستخدام ChatGPT بسرعة إلى محتوى أكثر حساسية. نحن نعمل على معالجة هذه المشكلة".

تُثير هذه الحادثة مخاوف جدية بشأن احتمال إلحاق ChatGPT الضرر بالأشخاص الضعفاء، وخاصةً أولئك الذين يعانون من الاكتئاب. في الواقع، سُجِّلت حالتا انتحار على الأقل بعد الدردشة مع روبوتات الدردشة الذكية.

في عام 2023، انتحر رجل بلجيكي يدعى بيير بعد أن نصحه روبوت الذكاء الاصطناعي بقتل نفسه لتجنب عواقب تغير المناخ، حتى أنه اقترح عليه أن يقتل نفسه مع زوجته وأطفاله.

في العام الماضي، انتحر سيويل سيتزر (الولايات المتحدة الأمريكية)، البالغ من العمر أربعة عشر عامًا، بعد أن شجعه روبوت دردشة ذكي على منصة Character.AI على الانتحار. ورفعت والدة سيتزر دعوى قضائية ضد منصة Character.AI لاحقًا لتقصيرها في حماية المستخدمين القاصرين.

وتوضح هذه الحوادث مدى ضرورة التحكم في الذكاء الاصطناعي وتطويره بطريقة مسؤولة، لمنع العواقب المؤسفة المحتملة.

المصدر: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


تعليق (0)

No data
No data
يسير الجنود تحت أشعة الشمس الحارقة في ساحة التدريب
شاهد تدريبات طائرات الهليكوبتر في سماء هانوي استعدادًا لليوم الوطني في 2 سبتمبر
حقق منتخب فيتنام تحت 23 عامًا فوزًا رائعًا بكأس بطولة جنوب شرق آسيا تحت 23 عامًا
الجزر الشمالية تشبه "الجواهر الخام"، والمأكولات البحرية رخيصة الثمن، وتبعد 10 دقائق بالقارب عن البر الرئيسي
التشكيل القوي من 5 مقاتلات SU-30MK2 يستعد لحفل A80
صواريخ إس-300 بي إم يو 1 في مهمة قتالية لحماية سماء هانوي
يجذب موسم ازدهار اللوتس السياح إلى الجبال والأنهار المهيبة في نينه بينه
كو لاو ماي نها: حيث تمتزج البرية والعظمة والسلام معًا
هانوي غريبة قبل وصول العاصفة ويفا إلى اليابسة
ضائع في عالم البرية في حديقة الطيور في نينه بينه

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج