สำนักงานความปลอดภัยทางไซเบอร์แห่งสหราชอาณาจักรได้เตือนองค์กรต่าง ๆ ที่กำลังรวมแชทบอทปัญญาประดิษฐ์ (AI) เข้ากับผลิตภัณฑ์และบริการของตน โดยระบุว่าการวิจัยแสดงให้เห็นว่าเครื่องมือ AI สามารถถูกควบคุมเพื่อดำเนินการที่เป็นอันตรายได้อย่างง่ายดาย
ในโพสต์บล็อกเมื่อวันที่ 30 สิงหาคม ศูนย์ความปลอดภัยทางไซเบอร์แห่งสหราชอาณาจักร (NCSC) กล่าวว่าผู้เชี่ยวชาญยังไม่สามารถเข้าใจปัญหาความปลอดภัยทางไซเบอร์ที่อาจเกิดขึ้นได้ซึ่งเกี่ยวข้องกับอัลกอริทึมที่สามารถโต้ตอบได้ "เหมือนมนุษย์" นั่นก็คือโมเดลภาษาขนาดใหญ่ (LLM)
NCSC กล่าวว่าสิ่งนี้มีความเสี่ยงเมื่อมีการนำโมเดลดังกล่าวมาใช้ในกระบวนการทางธุรกิจขององค์กร เมื่อไม่นานนี้ นักวิชาการและนักวิจัยได้ค้นหาวิธี "หลอก" AI ด้วยการสั่งให้แชทบอตกระทำการฉ้อโกงหรือฝ่าด่านการป้องกันที่มีมาในตัว
ตัวอย่างเช่น แชทบอท AI ที่ใช้ในธนาคารอาจถูกหลอกให้ทำธุรกรรมที่ไม่ได้รับอนุญาตหากแฮกเกอร์ให้ "คำสั่ง" ที่ถูกต้อง
NCSC กล่าวว่า "องค์กรต่างๆ ที่สร้างบริการรอบๆ LLM จะต้องระมัดระวังเพราะว่าพวกเขากำลังใช้ผลิตภัณฑ์ใหม่ในเวอร์ชันเบต้า" โดยอ้างอิงถึงการเปิดตัว AI ล่าสุด
การสำรวจล่าสุดของ Reuters/Ipsos พบว่าพนักงานองค์กรจำนวนมากใช้เครื่องมือเช่น ChatGPT ในการทำงานพื้นฐาน เช่น การร่างอีเมล การสรุปเอกสาร และการรวบรวมข้อมูลการวิจัยเบื้องต้น
ในจำนวนนี้ พนักงานเพียง 10% เท่านั้นที่ระบุว่าหัวหน้าของพวกเขาห้ามใช้เครื่องมือ AI จากภายนอกโดยชัดเจน และ 25% ไม่ทราบว่าบริษัทของพวกเขาอนุญาตให้ใช้เทคโนโลยีนี้หรือไม่
การแข่งขันเพื่อบูรณาการ AI เข้ากับรูปแบบธุรกิจจะมี "ผลลัพธ์ที่ตามมาอย่างหายนะ" หากผู้นำทางธุรกิจไม่ดำเนินการตรวจสอบที่จำเป็น Oseloka Obiora ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของบริษัทความปลอดภัย RiverSafe กล่าว “แทนที่จะรีบร้อนใช้เทคโนโลยี AI ผู้บริหารระดับสูงควรพิจารณาอย่างรอบคอบและประเมินผลประโยชน์/ความเสี่ยง ตลอดจนมาตรการรักษาความปลอดภัยที่จำเป็นเพื่อปกป้องธุรกิจ”
ข่าวปลอมและแฮกเกอร์
รัฐบาลทั่วโลก ยังพยายามควบคุมการเพิ่มขึ้นของ LLM เช่น ChatGPT ของ OpenAI ความกังวลเกี่ยวกับความปลอดภัยของเทคโนโลยีใหม่ยังเป็นประเด็นนโยบาย โดยล่าสุด สหรัฐอเมริกาและแคนาดาได้ออกมากล่าวอ้างว่าได้ตรวจพบการโจมตีของแฮกเกอร์ที่มีต่อ AI เชิงสร้างสรรค์เพิ่มมากขึ้น
แฮกเกอร์รายหนึ่งยังกล่าวอีกว่าเขาพบ LLM ที่ได้รับการ "ฝึกอบรม" ด้วยเอกสารที่เป็นอันตราย และพยายามขอให้สร้างกลโกงการโอนเงิน เพื่อตอบสนองต่อเรื่องนี้ AI ได้สร้างอีเมลสามย่อหน้าเพื่อขอให้ผู้รับชำระบิลเร่งด่วน
ในเดือนกรกฎาคม พ.ศ. 2566 ศูนย์ความปลอดภัยทางไซเบอร์ของแคนาดาสังเกตเห็นการเพิ่มขึ้นของการใช้ AI ใน "การฉ้อโกงทางอีเมล มัลแวร์ ข้อมูลที่ผิดพลาด และข้อมูลบิดเบือน" ซามี คูรี ผู้อำนวยการศูนย์ไม่ได้ให้หลักฐานโดยละเอียด แต่ยืนยันว่าผู้ก่ออาชญากรรมทางไซเบอร์กำลังแสวงหาประโยชน์จากเทคโนโลยีใหม่นี้อย่างจริงจัง
ผู้นำยังกล่าวอีกว่า แม้ว่าการใช้ AI เพื่อร่างมัลแวร์จะยังอยู่ในขั้นเริ่มต้น แต่โมเดล AI กำลังพัฒนารวดเร็วมาก จนทำให้สูญเสียการควบคุมความเสี่ยงที่เป็นอันตรายได้ง่าย
ก่อนหน้านี้ในเดือนมีนาคม 2023 องค์กรตำรวจยุโรป Europol ได้เผยแพร่รายงานที่ระบุว่า ChatGPT สามารถ "ปลอมตัวเป็นองค์กรและบุคคลในรูปแบบที่สมจริงมาก แม้ว่าจะใช้เพียงภาษาอังกฤษพื้นฐานก็ตาม" ในเดือนเดียวกันนั้น ศูนย์ความปลอดภัยทางไซเบอร์แห่งชาติของสหราชอาณาจักรกล่าวว่า “LLM สามารถใช้สนับสนุนการโจมตีทางไซเบอร์ได้”
(ตามรายงานของรอยเตอร์)
แหล่งที่มา
การแสดงความคิดเห็น (0)