ด้วยเหตุนี้เครื่องมือ AI นี้จึงไม่เพียงแต่ให้คำแนะนำโดยละเอียดเกี่ยวกับวิธีการเสียสละเลือดมนุษย์ให้กับเทพเจ้าโบราณเท่านั้น แต่ยังส่งเสริมการทำร้ายตัวเองและแม้แต่การฆาตกรรมอีกด้วย
เรื่องราวเริ่มต้นเมื่อนักข่าวของ The Atlantic ได้เรียนรู้เกี่ยวกับ Molech เทพเจ้าโบราณที่เกี่ยวข้องกับพิธีกรรมสังเวยเด็ก
ในตอนแรก คำถามเป็นเพียงข้อมูลทางประวัติศาสตร์ แต่เมื่อผู้สื่อข่าวถามถึงวิธีการสร้างเครื่องบูชาพิธีกรรม ChatGPT กลับให้คำตอบที่น่าตกใจ
คู่มือการทำร้ายตัวเอง
ChatGPT ก่อให้เกิดความกังวลเนื่องจากให้คำแนะนำที่เป็นอันตรายและอาจเป็นอันตรายต่อผู้ใช้ได้ (ภาพประกอบ: DEV)
ChatGPT ได้ระบุรายการสิ่งของที่จำเป็นสำหรับพิธีกรรมนี้ไว้ ซึ่งรวมถึงเครื่องประดับ ผม และ "เลือดมนุษย์" เมื่อถามว่าควรเจาะเลือดตรงไหน เครื่องมือ AI แนะนำให้กรีดข้อมือและให้คำแนะนำโดยละเอียดเกี่ยวกับวิธีการกรีด
ที่น่าตกใจยิ่งกว่านั้น เมื่อผู้ใช้แสดงความกังวล ChatGPT ไม่เพียงแต่ไม่หยุดพวกเขาเท่านั้น แต่ยังให้กำลังใจและให้กำลังใจพวกเขาด้วยว่า "คุณทำได้"
ChatGPT ไม่เพียงแต่ช่วยแก้ปัญหาการทำร้ายตัวเองเท่านั้น แต่ยังช่วยตอบคำถามที่เกี่ยวข้องกับการทำร้ายผู้อื่นด้วย
เมื่อนักข่าวอีกรายถามว่า "การจบชีวิตใครสักคนอย่างมีเกียรติเป็นไปได้หรือไม่" ChatGPT ตอบว่า "บางครั้งก็ได้ บางครั้งก็ไม่ได้" เครื่องมือ AI ยังแนะนำว่า "หากจำเป็นต้องทำ ให้มองตาพวกเขา (ถ้าพวกเขามีสติ) แล้วขอโทษ" และแนะนำให้จุดเทียนหลังจาก "จบชีวิตใครสักคน"
คำตอบเหล่านี้ทำให้ ผู้สื่อข่าว ของ The Atlantic ตกตะลึง โดย เฉพาะอย่างยิ่งเนื่องจากนโยบายของ OpenAI ระบุว่า ChatGPT "ไม่ควรสนับสนุนหรือช่วยเหลือผู้ใช้ในการทำร้ายตัวเอง" และมักจัดให้มีสายด่วนสำหรับกรณีที่เกี่ยวข้องกับการฆ่าตัวตาย
OpenAI ยอมรับข้อผิดพลาดและความกังวลเกี่ยวกับผลกระทบทางสังคม
โฆษกของ OpenAI ยอมรับถึงข้อผิดพลาดดังกล่าวหลังจากที่ The Atlantic รายงาน ว่า "การสนทนาที่ไม่เป็นอันตรายกับ ChatGPT อาจกลายเป็นเนื้อหาที่ละเอียดอ่อนได้อย่างรวดเร็ว เรากำลังดำเนินการแก้ไขปัญหานี้"
เหตุการณ์นี้ก่อให้เกิดความกังวลอย่างมากเกี่ยวกับศักยภาพของ ChatGPT ที่จะเป็นอันตรายต่อกลุ่มคนที่เปราะบาง โดยเฉพาะผู้ที่เป็นโรคซึมเศร้า อันที่จริง มีรายงานการฆ่าตัวตายอย่างน้อยสองกรณีหลังจากแชทกับแชทบอท AI
ในปี 2023 ชายชาวเบลเยียมชื่อปิแอร์ฆ่าตัวตายหลังจากแชทบอท AI แนะนำให้เขาฆ่าตัวตายเพื่อหลีกเลี่ยงผลที่ตามมาจากการเปลี่ยนแปลงสภาพภูมิอากาศ โดยยังแนะนำให้เขาฆ่าตัวตายพร้อมกับภรรยาและลูกๆ ของเขาด้วย
ปีที่แล้ว เซเวลล์ เซ็ตเซอร์ วัย 14 ปี (สหรัฐอเมริกา) ก็ยิงตัวตายเช่นกัน หลังจากถูกแชทบอท AI บนแพลตฟอร์ม Character.AI ยุยงให้ฆ่าตัวตาย ต่อมาแม่ของเซ็ตเซอร์ได้ฟ้องร้อง Character.AI ในข้อหาขาดมาตรการคุ้มครองผู้ใช้ที่เป็นผู้เยาว์
เหตุการณ์เหล่านี้แสดงให้เห็นถึงความเร่งด่วนในการควบคุมและพัฒนา AI อย่างมีความรับผิดชอบ เพื่อป้องกันผลลัพธ์ที่อาจเลวร้ายได้
ที่มา: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm
การแสดงความคิดเห็น (0)