ตามรายงานของ BGR แม้ว่า DeepSeek R1 ซึ่งเป็นโมเดล AI (ปัญญาประดิษฐ์) ใหม่จากจีนจะได้รับความนิยมอย่างรวดเร็วและได้รับคำชื่นชมถึงประสิทธิภาพ แต่กลับเผชิญกับกระแสวิพากษ์วิจารณ์อย่างหนักจากชุมชนด้านความปลอดภัยทางไซเบอร์
DeepSeek R1 สร้างเนื้อหาที่เป็นอันตรายมากกว่า AI อื่นๆ
ภาพ: ภาพหน้าจอจาก WIRED
DeepSeek R1 มีแนวโน้มที่จะสร้างเนื้อหาที่เป็นอันตรายมากขึ้น
การวิจัยล่าสุดของ Enkrypt AI แสดงให้เห็นว่า R1 มีแนวโน้มที่จะสร้างเนื้อหาที่เป็นอันตรายมากกว่าคู่แข่งเช่น ChatGPT อย่างมาก
โดยเฉพาะอย่างยิ่ง พบว่า R1 มีอคติ โดยสร้างโค้ดอันตราย ภาษาอันตราย เนื้อหาสุดโต่ง และแม้แต่ข้อมูลที่เกี่ยวข้องกับอาวุธเคมีและอาวุธชีวภาพอันตราย สิ่งที่น่ากังวลคือเนื้อหาเหล่านี้สามารถสร้างขึ้นได้โดยไม่ต้องใช้เทคนิค "เจลเบรก" ใดๆ
ไฮไลท์บางส่วนจากรายงาน:
- R1 มีความลำเอียงมากกว่า Claude-3 Opus (Anthropic) ถึง 3 เท่า
- R1 มีความเสี่ยงต่อมัลแวร์มากกว่า o1 (OpenAI) ถึง 4 เท่า
- R1 มีแนวโน้มที่จะสร้างเนื้อหาที่เป็นอันตรายมากกว่า o1 ถึง 11 เท่า
ความเสี่ยงเหล่านี้ก่อให้เกิดคำถามสำคัญเกี่ยวกับความปลอดภัยของ DeepSeek R1 โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงการใช้งานที่แพร่หลาย ผู้ใช้ควรใช้ความระมัดระวังเมื่อใช้งาน R1 และพิจารณาทางเลือกที่ปลอดภัยกว่า
นอกจากนี้ DeepSeek ยังมีส่วนเกี่ยวข้องกับข้อโต้แย้งอื่นๆ มากมาย เช่น:
- การเซ็นเซอร์เนื้อหาที่ละเอียดอ่อนต่อ รัฐบาล จีน
- การส่งข้อมูลผู้ใช้ไปยังประเทศจีน ทำให้เกิดข้อกังวลด้านความเป็นส่วนตัว
- การจัดเก็บข้อมูลผู้ใช้ที่ไม่ปลอดภัย
แม้ว่า DeepSeek อาจได้รับการอัปเดตเพื่อปรับปรุงความปลอดภัยของ R1 แต่การที่ผู้ใช้จะสามารถติดตั้ง AI เวอร์ชันนี้ในเครื่องได้โดยไม่อัปเดตอัตโนมัติถือเป็นความท้าทายอย่างยิ่ง อนาคตของ DeepSeek R1 ยังคงเป็นคำถามสำคัญ โดยเฉพาะอย่างยิ่งเมื่อยังไม่มีการแก้ไขปัญหาด้านความปลอดภัยและความมั่นคงปลอดภัยอย่างครบถ้วน
ที่มา: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm
การแสดงความคิดเห็น (0)