
Anthropic เตือนว่าการแทรกข้อมูลที่เป็นอันตรายเพื่อบิดเบือนการตอบสนองของ AI นั้นง่ายกว่าที่คิดมาก - รูปภาพ: FREEPIK
Anthropic บริษัทด้านปัญญาประดิษฐ์ซึ่งเป็นผู้พัฒนาแชทบอทชื่อ Claude เพิ่งเผยแพร่ผลการวิจัยที่แสดงให้เห็นว่าการ "วางยาพิษ" ลงในโมเดลภาษาขนาดใหญ่ (LLM) หรือที่รู้จักกันในชื่อการแทรกข้อมูลที่เป็นอันตรายเพื่อบิดเบือนการตอบสนองของ AI นั้นง่ายกว่าที่คิดมาก
ตามรายงานของ Cyber News เอกสารที่ถูกสร้างขึ้นเป็นพิเศษเพียง 250 ฉบับก็เพียงพอที่จะทำให้โมเดล GenAI (Ingenerative AI) ให้คำตอบที่ไม่ถูกต้องโดยสิ้นเชิงเมื่อพบวลีกระตุ้นบางอย่าง
น่ากังวลที่ขนาดของโมเดลไม่ได้ลดความเสี่ยงนี้ลง ก่อนหน้านี้ นักวิจัยคิดว่ายิ่งโมเดลมีขนาดใหญ่เท่าใด ก็ยิ่งต้องใช้ข้อมูลอันตรายมากขึ้นในการติดตั้ง "แบ็กดอร์"
แต่ Anthropic อ้างว่าทั้งโมเดลพารามิเตอร์ 13 พันล้านตัวซึ่งได้รับการฝึกฝนด้วยข้อมูลมากกว่า 20 เท่า และโมเดลพารามิเตอร์ 600 ล้านตัวนั้นสามารถถูกบุกรุกได้ด้วยเอกสารที่ "เป็นพิษ" เพียงจำนวนเล็กน้อยเท่านั้น
“การค้นพบนี้ท้าทายสมมติฐานที่ว่าผู้โจมตีต้องควบคุมข้อมูลฝึกอบรมจำนวนหนึ่ง อันที่จริง พวกเขาอาจต้องการข้อมูลจำนวนคงที่เพียงเล็กน้อยเท่านั้น” แอนโทรปิกเน้นย้ำ
บริษัทเตือนว่าช่องโหว่เหล่านี้อาจก่อให้เกิดความเสี่ยงร้ายแรงต่อความปลอดภัยของระบบ AI และคุกคามการประยุกต์ใช้เทคโนโลยีในพื้นที่อ่อนไหว
ที่มา: https://tuoitre.vn/anthropic-chi-luong-tai-lieu-nho-cung-du-dau-doc-mo-hinh-ai-khong-lo-20251013091401716.htm
การแสดงความคิดเห็น (0)