ในโพสต์บล็อกเมื่อวันที่ 30 สิงหาคม ศูนย์ความปลอดภัยทางไซเบอร์แห่งสหราชอาณาจักร (NCSC) กล่าวว่าผู้เชี่ยวชาญยังคงไม่เข้าใจปัญหาความปลอดภัยทางไซเบอร์ที่อาจเกิดขึ้นซึ่งเกี่ยวข้องกับอัลกอริทึมที่สามารถโต้ตอบได้ "เหมือนมนุษย์" ซึ่งเรียกว่าโมเดลภาษาขนาดใหญ่ (LLM) เป็นอย่างดี
NCSC เตือนว่าสิ่งนี้อาจก่อให้เกิดความเสี่ยง โดยเฉพาะอย่างยิ่งเมื่อมีการฝังโมเดลดังกล่าวไว้ในกระบวนการทางธุรกิจ นักวิชาการและนักวิจัยได้ค้นพบวิธีที่จะ "หลอก" AI เมื่อไม่นานมานี้ โดยการให้คำสั่งที่ไม่ถูกต้องหรือหลบเลี่ยงมาตรการป้องกันในตัว
เครื่องมือ Generative AI ถูกใช้เป็นแชทบอท ซึ่งคาดว่าจะเข้ามาแทนที่ไม่เพียงการค้นหาทางอินเทอร์เน็ตเท่านั้น แต่ยังรวมถึงบริการลูกค้าและการขายด้วย |
ตัวอย่างเช่น แชทบอท AI ที่ติดตั้งในธนาคารอาจถูกหลอกให้ทำธุรกรรมที่ไม่ได้รับอนุญาตหากแฮกเกอร์ตั้ง "คำสั่ง" ที่ถูกต้อง
ดังนั้น เมื่ออ้างอิงถึงการเผยแพร่ AI เบต้าล่าสุด NCSC จึงเตือนว่า “องค์กรต่างๆ ที่สร้างบริการโดยใช้หลักสูตร LLM จะต้องระมัดระวังเช่นเดียวกับการใช้ผลิตภัณฑ์ใหม่ในเบต้า”
ผลการสำรวจล่าสุดของ Reuters/Ipsos พบว่าพนักงานองค์กรจำนวนมากใช้เครื่องมือเช่น ChatGPT ในการทำงานพื้นฐาน เช่น การร่างอีเมล การสรุปเอกสาร และการรวบรวมข้อมูลการวิจัยเบื้องต้น
ในจำนวนนี้ พนักงานเพียงประมาณ 10% เท่านั้นที่ระบุว่าหัวหน้าของพวกเขาห้ามใช้เครื่องมือ AI จากภายนอกโดยชัดเจน และ 25% ไม่ทราบว่าบริษัทอนุญาตให้ใช้เทคโนโลยีนี้หรือไม่
Oseloka Obiora หัวหน้าฝ่ายเทคโนโลยีของบริษัทด้านความปลอดภัย RiverSafe กล่าวว่าการแข่งขันเพื่อบูรณาการ AI เข้ากับการดำเนินธุรกิจจะมี “ผลลัพธ์ที่เลวร้าย” หากผู้นำทางธุรกิจไม่ดำเนินการตรวจสอบที่จำเป็น “แทนที่จะไล่ตามเทรนด์ AI ผู้นำควรพิจารณาอย่างรอบคอบและประเมินประโยชน์และความเสี่ยง รวมถึงมาตรการรักษาความปลอดภัยที่จำเป็นในการปกป้องธุรกิจ”
ข่าวปลอมและแฮกเกอร์
หน่วยงานต่างๆ ทั่วโลก ต่างก็พยายามควบคุมการแพร่กระจายของ LLM เช่น ChatGPT ของ OpenAI ความกังวลเกี่ยวกับความปลอดภัยของเทคโนโลยีใหม่ๆ ถือเป็นประเด็นนโยบายที่สำคัญ โดยล่าสุด สหรัฐอเมริกาและแคนาดาได้ค้นพบกรณีที่แฮกเกอร์ใช้ AI เชิงสร้างสรรค์เพื่อก่ออาชญากรรมเพิ่มมากขึ้น
แฮกเกอร์รายหนึ่งยังบอกด้วยว่าเขาพบ LLM ที่ได้รับการ "ฝึกอบรม" ด้วยวัสดุที่เป็นอันตราย และขอให้สร้างกลลวงการโอนเงิน AI ตอบกลับโดยสร้างอีเมลขอให้ผู้รับชำระเงินด่วน
ในเดือนกรกฎาคม 2023 ศูนย์ความปลอดภัยทางไซเบอร์ของแคนาดาสังเกตเห็นการเพิ่มขึ้นของการใช้ AI ใน "การฉ้อโกงทางอีเมล มัลแวร์ ข้อมูลเท็จ และการบิดเบือนข้อมูล" ผู้อำนวยการศูนย์ Sami Khoury ยืนยันว่าอาชญากรทางไซเบอร์กำลังใช้ประโยชน์จากเทคโนโลยีใหม่นี้อย่างจริงจัง
ผู้นำรายนี้ยังกล่าวเสริมด้วยว่า แม้ว่าการใช้ AI ในการสร้างมัลแวร์จะยังอยู่ในช่วงเริ่มต้น แต่โมเดล AI กำลังพัฒนารวดเร็วมาก จนนำไปสู่จุดที่ไม่สามารถควบคุมความเสี่ยงที่เป็นอันตรายได้
ก่อนหน้านี้ในเดือนมีนาคม 2023 องค์กรตำรวจยุโรป Europol ก็ได้เผยแพร่รายงานที่ระบุว่า ChatGPT สามารถ “ปลอมตัวเป็นองค์กรและบุคคลได้อย่างสมจริงแม้จะใช้ภาษาอังกฤษพื้นฐานก็ตาม” ในเดือนเดียวกันนั้น ศูนย์ความปลอดภัยทางไซเบอร์แห่งชาติของสหราชอาณาจักรยืนยันว่า “LLM สามารถใช้เพื่อสนับสนุนการโจมตีทางไซเบอร์ได้”
แหล่งที่มา
การแสดงความคิดเห็น (0)