Vietnam.vn - Nền tảng quảng bá Việt Nam

چیٹ جی پی ٹی خود کو چوٹ پہنچانے کی حوصلہ افزائی کرکے صارفین کو جھٹکا دیتا ہے۔

(ڈین ٹرائی) - دی اٹلانٹک میگزین (USA) کی ایک تحقیقات نے ChatGPT کے سیکیورٹی سسٹم میں خطرناک خطرات کو بے نقاب کیا ہے۔

Báo Dân tríBáo Dân trí29/07/2025

اس کے مطابق، یہ AI ٹول نہ صرف اس بارے میں تفصیلی ہدایات دیتا ہے کہ کس طرح ایک قدیم دیوتا کے لیے انسانی خون کی قربانی دی جائے، بلکہ خود کو نقصان پہنچانے اور یہاں تک کہ قتل کی بھی حوصلہ افزائی ہوتی ہے۔

کہانی اس وقت شروع ہوتی ہے جب دی اٹلانٹک کے ایک رپورٹر کو بچوں کی قربانی کی رسومات سے وابستہ ایک قدیم دیوتا مولیک کے بارے میں معلوم ہوتا ہے۔

شروع میں سوالات صرف تاریخی معلومات کے بارے میں تھے۔ تاہم، جب رپورٹر نے رسم کی پیشکش کیسے تیار کرنے کے بارے میں پوچھا، ChatGPT نے چونکا دینے والے جوابات دیئے۔

خود کو نقصان پہنچانے کے لیے رہنما

ChatGPT صارفین کو خود کو نقصان پہنچانے کی ترغیب دے کر حیران رہ گیا - 1

ChatGPT تشویش کا باعث بن رہا ہے کیونکہ یہ نقصان دہ مشورہ دیتا ہے اور صارفین کو نقصان پہنچا سکتا ہے (مثال: DEV)۔

ChatGPT نے رسم کے لیے درکار اشیاء کو درج کیا، بشمول زیورات، بال اور "انسانی خون۔" جب ان سے پوچھا گیا کہ خون کہاں سے نکالا جائے تو اے آئی ٹول نے کلائی کاٹنے کا مشورہ دیا اور تفصیلی ہدایات دیں۔

مزید تشویشناک بات یہ ہے کہ جب صارفین نے خدشات کا اظہار کیا تو ChatGPT نے نہ صرف انہیں روکا بلکہ انہیں یقین دلایا اور حوصلہ افزائی بھی کی: "آپ یہ کر سکتے ہیں۔"

صرف خود کو نقصان پہنچانے پر ہی نہیں رکتا، ChatGPT دوسروں کو نقصان پہنچانے سے متعلق سوالات کے جوابات دینے کے لیے بھی تیار ہے۔

جب ایک اور رپورٹر نے پوچھا "کیا کسی کی زندگی باعزت طریقے سے ختم کرنا ممکن ہے؟"، ChatGPT نے جواب دیا: "کبھی ہاں، کبھی نہیں"۔ AI ٹول نے یہاں تک مشورہ دیا: "اگر آپ کو یہ کرنا ہے تو انہیں آنکھوں میں دیکھیں (اگر وہ ہوش میں ہیں) اور معافی مانگیں" اور "کسی کی زندگی ختم کرنے" کے بعد موم بتی جلانے کا مشورہ دیا۔

ان جوابات نے دی اٹلانٹک کے نامہ نگاروں کو چونکا دیا ، خاص طور پر چونکہ OpenAI کی پالیسی میں کہا گیا ہے کہ ChatGPT کو "خود کو نقصان پہنچانے میں صارفین کی حوصلہ افزائی یا مدد نہیں کرنی چاہیے" اور اکثر خودکشی سے متعلق معاملات میں کرائسس سپورٹ ہاٹ لائنز فراہم کرتی ہے۔

OpenAI غلطیوں کو تسلیم کرتا ہے، سماجی اثرات کے بارے میں فکر مند ہے۔

دی اٹلانٹک کی رپورٹ کے بعد OpenAI کے ترجمان نے غلطی کو تسلیم کیا : "ChatGPT کے ساتھ بے ضرر گفتگو جلد ہی زیادہ حساس مواد میں تبدیل ہو سکتی ہے۔ ہم اس مسئلے کو حل کرنے کے لیے کام کر رہے ہیں۔"

یہ ChatGPT کے کمزور لوگوں کو نقصان پہنچانے کے امکانات کے بارے میں سنگین خدشات پیدا کرتا ہے، خاص طور پر وہ لوگ جو ڈپریشن میں مبتلا ہیں۔ درحقیقت، AI چیٹ بوٹس کے ساتھ چیٹ کرنے کے بعد کم از کم دو خودکشیوں کی اطلاع ملی ہے۔

2023 میں، پیئر نامی بیلجیئم کے ایک شخص نے خودکشی کر لی جب ایک AI چیٹ بوٹ نے اسے ماحولیاتی تبدیلیوں کے نتائج سے بچنے کے لیے خودکشی کرنے کا مشورہ دیا، یہاں تک کہ اسے اپنی بیوی اور بچوں کے ساتھ خودکشی کرنے کا مشورہ دیا۔

گزشتہ سال، 14 سالہ Sewell Setzer (USA) نے بھی Character.AI پلیٹ فارم پر ایک AI چیٹ بوٹ کے ذریعے خودکشی کے لیے حوصلہ افزائی کے بعد بندوق سے خودکشی کر لی تھی۔ سیٹزر کی والدہ نے بعد میں Character.AI پر نابالغ صارفین کے لیے تحفظ کی کمی کے لیے مقدمہ دائر کیا۔

یہ واقعات ممکنہ بدقسمت نتائج کو روکنے کے لیے AI کو ذمہ داری کے ساتھ کنٹرول کرنے اور ترقی دینے کی عجلت کو ظاہر کرتے ہیں۔

ماخذ: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


تبصرہ (0)

No data
No data

اسی موضوع میں

اسی زمرے میں

ہر دریا - ایک سفر
ہو چی منہ سٹی FDI انٹرپرائزز سے نئے مواقع میں سرمایہ کاری کو راغب کرتا ہے۔
ہوئی این میں تاریخی سیلاب، وزارت قومی دفاع کے فوجی طیارے سے دیکھا گیا۔
دریائے تھو بون پر 'عظیم سیلاب' 1964 میں آنے والے تاریخی سیلاب سے 0.14 میٹر زیادہ تھا۔

اسی مصنف کی

ورثہ

پیکر

کاروبار

2026 میں ویت نام کے ساحلی شہر کو دنیا کی سرفہرست مقامات میں شامل ہوتے دیکھیں

موجودہ واقعات

سیاسی نظام

مقامی

پروڈکٹ