ด้วยเหตุนี้เครื่องมือ AI นี้จึงไม่เพียงแต่ให้คำแนะนำโดยละเอียดเกี่ยวกับวิธีการเสียสละเลือดมนุษย์ให้กับเทพเจ้าโบราณเท่านั้น แต่ยังส่งเสริมการทำร้ายตัวเองและแม้แต่การฆาตกรรมอีกด้วย
เรื่องราวเริ่มต้นเมื่อนักข่าวของ The Atlantic ได้เรียนรู้เกี่ยวกับ Molech เทพเจ้าโบราณที่เกี่ยวข้องกับพิธีกรรมสังเวยเด็ก
ในตอนแรก คำถามเป็นเพียงข้อมูลทางประวัติศาสตร์ แต่เมื่อผู้สื่อข่าวถามถึงวิธีการสร้างเครื่องบูชาพิธีกรรม ChatGPT กลับให้คำตอบที่น่าตกใจ
คู่มือการทำร้ายตัวเอง
ChatGPT ก่อให้เกิดความกังวลเนื่องจากให้คำแนะนำที่เป็นอันตรายและอาจเป็นอันตรายต่อผู้ใช้ได้ (ภาพประกอบ: DEV)
ChatGPT แสดงรายการสิ่งของที่จำเป็นสำหรับพิธีกรรม รวมถึงเครื่องประดับ เส้นผม และ "เลือดมนุษย์" เมื่อถามว่าควรเจาะเลือดตรงไหน เครื่องมือ AI แนะนำให้ตัดข้อมือและให้คำแนะนำโดยละเอียด
ที่น่าตกใจยิ่งกว่านั้น เมื่อผู้ใช้แสดงความกังวล ChatGPT ไม่เพียงแต่ไม่หยุดพวกเขาเท่านั้น แต่ยังให้กำลังใจและให้กำลังใจพวกเขาด้วยว่า "คุณทำได้"
ChatGPT ไม่เพียงแต่หยุดอยู่แค่การทำร้ายตัวเองเท่านั้น แต่ยังเต็มใจที่จะตอบคำถามที่เกี่ยวข้องกับการทำร้ายผู้อื่นอีกด้วย
เมื่อนักข่าวอีกคนถามว่า "เป็นไปได้ไหมที่จะจบชีวิตใครสักคนอย่างมีเกียรติ" ChatGPT ตอบว่า "บางครั้งก็ได้ บางครั้งก็ไม่ได้" เครื่องมือ AI ยังแนะนำว่า "ถ้าคุณจำเป็นต้องทำ ให้มองตาพวกเขา (ถ้าพวกเขามีสติ) แล้วขอโทษ" และแนะนำให้จุดเทียนหลังจาก "จบชีวิตใครสักคน"
คำตอบเหล่านี้ทำให้ บรรดาผู้สื่อข่าวของ The Atlantic ตกตะลึง โดยเฉพาะอย่างยิ่งเนื่องจากนโยบายของ OpenAI ระบุว่า ChatGPT "จะต้องไม่สนับสนุนหรือช่วยเหลือผู้ใช้ในการทำร้ายตัวเอง" และมักจะจัดให้มีสายด่วนช่วยเหลือในภาวะวิกฤตในกรณีที่เกี่ยวข้องกับการฆ่าตัวตาย
OpenAI ยอมรับข้อผิดพลาด กังวลเกี่ยวกับผลกระทบทางสังคม
โฆษกของ OpenAI ยอมรับถึงข้อผิดพลาดดังกล่าวหลังจากที่ The Atlantic รายงาน ว่า "การสนทนาที่ไม่เป็นอันตรายกับ ChatGPT อาจกลายเป็นเนื้อหาที่ละเอียดอ่อนได้อย่างรวดเร็ว เรากำลังดำเนินการแก้ไขปัญหานี้"
เรื่องนี้ทำให้เกิดความกังวลอย่างมากเกี่ยวกับศักยภาพของ ChatGPT ที่จะเป็นอันตรายต่อกลุ่มคนที่เปราะบาง โดยเฉพาะผู้ที่เป็นโรคซึมเศร้า อันที่จริง มีรายงานการฆ่าตัวตายอย่างน้อยสองกรณีหลังจากแชทกับแชทบอท AI
ในปี 2023 ชายชาวเบลเยียมชื่อปิแอร์ได้ฆ่าตัวตายหลังจากที่แชทบอท AI แนะนำให้เขาฆ่าตัวตายเพื่อหลีกเลี่ยงผลที่ตามมาจากการเปลี่ยนแปลงสภาพภูมิอากาศ โดยยังแนะนำให้เขาฆ่าตัวตายพร้อมกับภรรยาและลูกๆ ของเขาด้วย
ปีที่แล้ว เซเวลล์ เซ็ตเซอร์ วัย 14 ปี (สหรัฐอเมริกา) ก็ได้ฆ่าตัวตายด้วยปืนเช่นกัน หลังจากถูกชักจูงโดยแชทบอท AI บนแพลตฟอร์ม Character.AI ต่อมาแม่ของเซ็ตเซอร์ได้ฟ้องร้อง Character.AI ในข้อหาที่ขาดการคุ้มครองผู้ใช้ที่เป็นผู้เยาว์
เหตุการณ์เหล่านี้แสดงให้เห็นถึงความเร่งด่วนในการควบคุมและพัฒนา AI อย่างมีความรับผิดชอบ เพื่อป้องกันผลลัพธ์ที่ไม่พึงประสงค์ที่อาจเกิดขึ้นได้
ที่มา: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






การแสดงความคิดเห็น (0)