จากรายงานของ BGR แม้ว่า DeepSeek R1 ซึ่งเป็นโมเดล AI ใหม่จากประเทศจีนจะได้รับความนิยมอย่างรวดเร็วและได้รับการยกย่องในด้านประสิทธิภาพ แต่ก็กำลังเผชิญกับกระแสวิพากษ์วิจารณ์อย่างรุนแรงจากชุมชนด้านความปลอดภัยทางไซเบอร์
DeepSeek R1 สร้างเนื้อหาที่เป็นอันตรายมากกว่า AI อื่นๆ
ภาพ: ภาพหน้าจอจาก WIRED
DeepSeek R1 มีแนวโน้มที่จะสร้างเนื้อหาที่เป็นอันตรายมากกว่า
ผลการวิจัยล่าสุดของ Enkrypt AI แสดงให้เห็นว่า R1 มีศักยภาพในการสร้างเนื้อหาที่เป็นอันตรายสูงกว่าคู่แข่งอย่าง ChatGPT อย่างมีนัยสำคัญ
โดยเฉพาะอย่างยิ่ง พบว่า R1 มีแนวโน้มลำเอียงในการสร้างมัลแวร์ ภาษาที่เป็นอันตราย เนื้อหาที่รุนแรง และแม้แต่ข้อมูลที่เกี่ยวข้องกับอาวุธเคมีและชีวภาพที่เป็นอันตราย ที่น่าเป็นห่วงคือ เนื้อหาเหล่านี้สามารถสร้างขึ้นได้โดยไม่ต้องใช้เทคนิค "เจลเบรก" ใดๆ
ประเด็นสำคัญบางส่วนจากรายงาน:
- R1 มีแนวโน้มเอนเอียงไปทาง Claude-3 Opus (Anthropic) มากกว่าถึงสามเท่า
- R1 มีความเสี่ยงต่อการโจมตีจากมัลแวร์มากกว่า o1 (OpenAI) ถึงสี่เท่า
- R1 มีศักยภาพในการสร้างเนื้อหาที่เป็นอันตรายสูงกว่า o1 ถึง 11 เท่า
ความเสี่ยงเหล่านี้ทำให้เกิดคำถามอย่างจริงจังเกี่ยวกับความปลอดภัยของ DeepSeek R1 โดยเฉพาะอย่างยิ่งเมื่อมีการใช้งานอย่างแพร่หลาย ผู้ใช้ควรใช้ความระมัดระวังเมื่อใช้งาน R1 และพิจารณาทางเลือกที่ปลอดภัยกว่า
นอกจากนี้ DeepSeek ยังพัวพันกับข้อโต้แย้งอื่นๆ อีกหลายเรื่อง เช่น:
- การเซ็นเซอร์เนื้อหาที่อ่อนไหวต่อ รัฐบาล จีน
- การส่งข้อมูลผู้ใช้ไปยังประเทศจีนก่อให้เกิดความกังวลเกี่ยวกับความเป็นส่วนตัว
- การจัดเก็บข้อมูลผู้ใช้ไม่ใช่เรื่องปลอดภัย
แม้ว่า DeepSeek อาจจะอัปเดตเพื่อปรับปรุงความปลอดภัยของ R1 แต่ข้อเท็จจริงที่ว่าผู้ใช้สามารถติดตั้งเวอร์ชัน AI นี้ในเครื่องได้ และจะไม่ได้รับการอัปเดตโดยอัตโนมัติ ถือเป็นความท้าทายอย่างมาก อนาคตของ DeepSeek R1 ยังคงเป็นเครื่องหมายคำถามใหญ่ โดยเฉพาะอย่างยิ่งเนื่องจากข้อกังวลด้านความปลอดภัยและความเป็นส่วนตัวยังไม่ได้รับการแก้ไขอย่างครบถ้วน
[โฆษณา_2]
ที่มา: https://thanhnien.vn/deepseek-r1-tao-noi-dung-doc-hai-gap-nhieu-lan-cac-ai-khac-185250201211507372.htm






การแสดงความคิดเห็น (0)