ตามรายงานการวิจัยใหม่ ของ BGR ได้เผยแพร่เทคนิคที่น่าตกใจที่เรียกว่า 'Fun-Tuning' โดยใช้ AI (ปัญญาประดิษฐ์) สร้างการโจมตีแบบฉีดทันทีที่มีประสิทธิภาพอย่างยิ่งโดยอัตโนมัติ โดยกำหนดเป้าหมายไปที่โมเดล AI ขั้นสูงอื่นๆ รวมถึง Gemini ของ Google
วิธีการดังกล่าวทำให้การ 'เจาะ' AI เร็วขึ้น ราคาถูกลง และง่ายขึ้นกว่าที่เคย นับเป็นการยกระดับการต่อสู้ด้านความปลอดภัยทางไซเบอร์ที่เกี่ยวข้องกับ AI ขึ้นอีกขั้น
อันตรายเมื่อคนร้ายใช้ AI ทำลาย AI
Prompt injection คือเทคนิคที่ผู้โจมตีแอบใส่คำสั่งอันตรายลงในข้อมูลอินพุตของโมเดล AI (เช่น ผ่านทางความคิดเห็นในโค้ดต้นฉบับ หรือข้อความที่ซ่อนอยู่บนเว็บ) เป้าหมายคือการ 'หลอก' AI ให้หลีกเลี่ยงกฎความปลอดภัยที่ตั้งโปรแกรมไว้ล่วงหน้า ซึ่งนำไปสู่ผลลัพธ์ที่ร้ายแรง เช่น การรั่วไหลของข้อมูลสำคัญ การให้ข้อมูลเท็จ หรือการกระทำที่เป็นอันตรายอื่นๆ
แฮกเกอร์กำลังใช้ AI เพื่อโจมตี AI
รูปภาพ: ภาพหน้าจอ LINKEDIN
ก่อนหน้านี้ การดำเนินการโจมตีเหล่านี้ให้ประสบความสำเร็จ โดยเฉพาะกับโมเดล "ปิด" เช่น Gemini หรือ GPT-4 มักต้องมีการทดสอบด้วยตนเองที่ซับซ้อนและใช้เวลานานเป็นจำนวนมาก
แต่ Fun-Tuning ได้เปลี่ยนโฉมหน้าไปอย่างสิ้นเชิง วิธีนี้พัฒนาโดยทีมนักวิจัยจากหลายมหาวิทยาลัย โดยใช้ประโยชน์จากอินเทอร์เฟซการเขียนโปรแกรมแอปพลิเคชัน (API) สำหรับการปรับแต่งที่ Google มอบให้ผู้ใช้ Gemini ฟรีอย่างชาญฉลาด
ด้วยการวิเคราะห์ปฏิกิริยาอันละเอียดอ่อนของแบบจำลอง Gemini ระหว่างการปรับแต่ง (เช่น วิธีการตอบสนองต่อข้อผิดพลาดในข้อมูล) Fun-Tuning สามารถกำหนด 'คำนำหน้า' และ 'คำต่อท้าย' ที่มีประสิทธิภาพสูงสุดโดยอัตโนมัติเพื่อซ่อนคำสั่งที่เป็นอันตราย วิธีนี้ช่วยเพิ่มโอกาสที่ AI จะปฏิบัติตามเจตนาที่เป็นอันตรายของผู้โจมตีได้อย่างมาก
ผลการทดสอบแสดงให้เห็นว่า Fun-Tuning มีอัตราความสำเร็จสูงถึง 82% ใน Gemini บางเวอร์ชัน ซึ่งถือเป็นตัวเลขที่สูงกว่าวิธีการโจมตีแบบเดิมที่ทำได้ไม่ถึง 30%
สิ่งที่เพิ่มความเสี่ยงให้กับ Fun-Tuning คือต้นทุนที่ต่ำ เนื่องจาก Google Tuning API เปิดให้ใช้งานได้ฟรี ต้นทุนการคำนวณเพื่อสร้างการโจมตีที่มีประสิทธิภาพจึงอาจต่ำเพียง 10 ดอลลาร์ นอกจากนี้ นักวิจัยยังพบว่าการโจมตีที่ออกแบบมาสำหรับ Gemini เวอร์ชันหนึ่งสามารถนำไปใช้กับเวอร์ชันอื่นๆ ได้อย่างง่ายดาย จึงเปิดโอกาสให้เกิดการโจมตีในวงกว้าง
Google ยืนยันว่าตระหนักถึงภัยคุกคามจาก Fun-Tuning แต่ยังไม่ได้แสดงความคิดเห็นว่าจะเปลี่ยนแปลงวิธีการทำงานของ API การปรับแต่งหรือไม่ นักวิจัยยังชี้ให้เห็นถึงปัญหาเชิงป้องกัน นั่นคือ การลบข้อมูลที่ Fun-Tuning ใช้ประโยชน์ออกจากกระบวนการปรับแต่งจะทำให้ API มีประโยชน์น้อยลงสำหรับนักพัฒนาที่ถูกต้องตามกฎหมาย ในทางกลับกัน การปล่อยให้เป็นแบบนั้นต่อไปก็จะกลายเป็นโอกาสให้ผู้ไม่หวังดีสามารถใช้ประโยชน์ได้
การเกิดขึ้นของ Fun-Tuning เป็นการเตือนที่ชัดเจนว่าการเผชิญหน้าในโลกไซเบอร์ได้เข้าสู่ช่วงใหม่ที่ซับซ้อนยิ่งขึ้น ปัจจุบัน AI ไม่เพียงแต่เป็นเป้าหมาย แต่ยังเป็นเครื่องมือและอาวุธในมือของผู้ไม่หวังดีอีกด้วย
ที่มา: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
การแสดงความคิดเห็น (0)