จากข้อมูลของ BGR รายงานการวิจัยฉบับใหม่ได้เปิดเผยเทคนิคที่น่าตกใจที่เรียกว่า 'Fun-Tuning' ซึ่งใช้ AI (ปัญญาประดิษฐ์) ในการสร้างการโจมตีแบบฉีดข้อความอัตโนมัติที่มีประสิทธิภาพสูง โดยมุ่งเป้าไปที่โมเดล AI ขั้นสูงอื่นๆ รวมถึง Gemini ของ Google
วิธีการนี้ทำให้การ "แฮ็ก" AI รวดเร็ว ประหยัด และง่ายกว่าที่เคยเป็นมา ซึ่งถือเป็นการยกระดับครั้งใหม่ในสงครามความมั่นคงทางไซเบอร์ที่เกี่ยวข้องกับ AI
อันตรายจากผู้ไม่ประสงค์ดีที่ใช้ AI ในการทำลาย AI
การโจมตีแบบ Prompt injection เป็นเทคนิคที่ผู้ไม่ประสงค์ดีแอบแทรกคำสั่งที่เป็นอันตรายเข้าไปในข้อมูลป้อนเข้าของโมเดล AI (เช่น ผ่านทางความคิดเห็นในซอร์สโค้ด ข้อความที่ซ่อนอยู่บนเว็บ) เป้าหมายคือการ "หลอก" AI บังคับให้มันเพิกเฉยต่อกฎความปลอดภัยที่ตั้งโปรแกรมไว้ล่วงหน้า ซึ่งนำไปสู่ผลร้ายแรง เช่น การรั่วไหลของข้อมูลที่ละเอียดอ่อน การให้ข้อมูลที่ผิดพลาด หรือการกระทำที่เป็นอันตรายอื่นๆ
แฮกเกอร์กำลังใช้ AI โจมตี AI ด้วยกันเอง
ภาพ: ภาพหน้าจอจาก LinkedIn
ก่อนหน้านี้ การโจมตีเหล่านี้ให้สำเร็จ โดยเฉพาะอย่างยิ่งในโมเดล 'ปิด' เช่น Gemini หรือ GPT-4 มักต้องอาศัยการทดสอบด้วยตนเองที่ซับซ้อนและใช้เวลานานมาก
แต่ Fun-Tuning ได้เปลี่ยนแปลงทุกอย่างไปอย่างสิ้นเชิง วิธีนี้ได้รับการพัฒนาโดยทีมวิจัยจากหลายมหาวิทยาลัย โดยใช้ประโยชน์จาก Application Programming Interface (API) ที่ได้รับการปรับปรุงแล้ว ซึ่ง Google มอบให้แก่ผู้ใช้ Gemini ฟรีอย่างชาญฉลาด
ด้วยการวิเคราะห์การตอบสนองที่ละเอียดอ่อนของโมเดล Gemini ในระหว่างกระบวนการปรับแต่ง (ตัวอย่างเช่น วิธีการตอบสนองต่อข้อผิดพลาดในข้อมูล) Fun-Tuning สามารถระบุ 'คำนำหน้า' และ 'คำต่อท้าย' ที่มีประสิทธิภาพที่สุดในการปกปิดคำสั่งที่เป็นอันตรายได้โดยอัตโนมัติ ซึ่งจะเพิ่มโอกาสที่ AI จะปฏิบัติตามเจตนาร้ายของผู้โจมตีอย่างมีนัยสำคัญ
ผลการทดสอบแสดงให้เห็นว่า Fun-Tuning ประสบความสำเร็จในอัตราสูงถึง 82% ในบางเวอร์ชันของ Gemini ซึ่งเป็นตัวเลขที่เหนือกว่าอัตราความสำเร็จที่ต่ำกว่า 30% ของวิธีการโจมตีแบบดั้งเดิมอย่างมาก
สิ่งที่เพิ่มความอันตรายให้กับ Fun-Tuning คือต้นทุนการดำเนินการที่ต่ำมาก เนื่องจาก API การปรับแต่งของ Google ให้บริการฟรี ต้นทุนการคำนวณเพื่อสร้างการโจมตีที่มีประสิทธิภาพจึงอาจต่ำถึง 10 ดอลลาร์ นอกจากนี้ นักวิจัยยังพบว่าการโจมตีที่ออกแบบมาสำหรับ Gemini เวอร์ชันหนึ่ง สามารถนำไปใช้กับเวอร์ชันอื่นได้อย่างง่ายดาย ซึ่งเปิดโอกาสให้เกิดความเสี่ยงต่อการโจมตีในวงกว้าง
Google ยืนยันว่ารับทราบถึงภัยคุกคามจากเทคนิค Fun-Tuning แล้ว แต่ยังไม่ได้แสดงความคิดเห็นว่าจะเปลี่ยนแปลงวิธีการทำงานของ API สำหรับการปรับแต่งหรือไม่ ทีมวิจัยยังชี้ให้เห็นถึงความยากลำบากในการป้องกันภัยคุกคามนี้ด้วย กล่าวคือ หากข้อมูลที่ Fun-Tuning นำไปใช้ประโยชน์ถูกลบออกจากกระบวนการปรับแต่ง API ก็จะใช้งานได้น้อยลงสำหรับนักพัฒนาที่ถูกต้อง ในทางกลับกัน หากยังคงไม่เปลี่ยนแปลง API ก็จะยังคงเป็นจุดเริ่มต้นให้ผู้ไม่ประสงค์ดีใช้ประโยชน์ต่อไป
การปรากฏตัวของ Fun-Tuning เป็นสัญญาณเตือนที่ชัดเจน บ่งชี้ว่าการเผชิญหน้าในโลกไซเบอร์ได้เข้าสู่ระยะใหม่ที่ซับซ้อนยิ่งขึ้น ปัญญาประดิษฐ์ (AI) ไม่ได้เป็นเพียงเป้าหมาย แต่ยังเป็นเครื่องมือและอาวุธในมือของผู้ไม่ประสงค์ดีอีกด้วย
[โฆษณา_2]
ที่มา: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






การแสดงความคิดเห็น (0)