สำนักงานความปลอดภัยทางไซเบอร์แห่งสหราชอาณาจักรได้เตือนองค์กรต่างๆ ที่กำลังรวมแชทบอทปัญญาประดิษฐ์ (AI) เข้ากับผลิตภัณฑ์และบริการของตน โดยกล่าวว่าการวิจัยแสดงให้เห็นว่าเครื่องมือ AI สามารถถูกจัดการเพื่อดำเนินการที่เป็นอันตรายได้อย่างง่ายดาย
ในโพสต์บล็อกเมื่อวันที่ 30 สิงหาคม ศูนย์ความปลอดภัยทางไซเบอร์แห่งสหราชอาณาจักร (NCSC) กล่าวว่าผู้เชี่ยวชาญยังไม่เข้าใจถึงปัญหาความปลอดภัยทางไซเบอร์ที่อาจเกิดขึ้นซึ่งเกี่ยวข้องกับอัลกอริทึมที่สามารถโต้ตอบได้ "เหมือนมนุษย์" นั่นก็คือโมเดลภาษาขนาดใหญ่ (LLM)
NCSC กล่าวว่าการนำโมเดลดังกล่าวมาใช้ในกระบวนการทางธุรกิจนั้นถือเป็นความเสี่ยง เนื่องจากนักวิชาการและนักวิจัยมักหาวิธีต่างๆ ที่จะ "หลอก" AI อยู่เสมอ โดยสั่งให้แชทบอทกระทำการฉ้อโกงหรือหลีกเลี่ยงมาตรการป้องกันในตัว
ตัวอย่างเช่น แชทบอท AI ที่ใช้ในธนาคารอาจถูกหลอกให้ทำธุรกรรมที่ไม่ได้รับอนุญาตได้ หากแฮกเกอร์ให้ "คำสั่ง" ที่ถูกต้อง
NCSC กล่าวว่า "องค์กรต่างๆ ที่สร้างบริการเกี่ยวกับ LLM จะต้องระมัดระวังเนื่องจากพวกเขากำลังใช้ผลิตภัณฑ์ใหม่ในเวอร์ชันเบต้า" โดยอ้างอิงถึงการเปิดตัว AI ล่าสุด
การสำรวจล่าสุดของ Reuters/Ipsos พบว่าพนักงานองค์กรจำนวนมากใช้เครื่องมือเช่น ChatGPT ในการทำงานพื้นฐาน เช่น การร่างอีเมล การสรุปเอกสาร และการรวบรวมข้อมูลการวิจัยเบื้องต้น
ในจำนวนนี้ มีพนักงานเพียง 10% เท่านั้นที่ระบุว่าหัวหน้าของตนห้ามใช้เครื่องมือ AI ภายนอกโดยชัดเจน และ 25% ไม่ทราบว่าบริษัทของตนอนุญาตให้ใช้เทคโนโลยีนี้หรือไม่
การเร่งรีบนำ AI มาประยุกต์ใช้ในรูปแบบธุรกิจจะก่อให้เกิด “ผลลัพธ์อันเลวร้าย” หากผู้นำธุรกิจไม่ดำเนินการตรวจสอบสถานะทางธุรกิจ (due diligence) ที่จำเป็น โอเซโลกา โอบิโอรา ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของบริษัทรักษาความปลอดภัย ริเวอร์เซฟ กล่าว “แทนที่จะรีบเร่งนำ AI มาใช้ ผู้บริหารระดับสูงควรพิจารณาอย่างรอบคอบและประเมินความเสี่ยง/ผลประโยชน์ รวมถึงมาตรการรักษาความปลอดภัยที่จำเป็นต่อการปกป้องธุรกิจ”
ข่าวปลอมและแฮกเกอร์
รัฐบาลทั่วโลก กำลังมองหาวิธีรับมือกับการเติบโตของหลักสูตร LLMs เช่น ChatGPT ของ OpenAI ความกังวลด้านความปลอดภัยเกี่ยวกับเทคโนโลยีใหม่นี้ก็เป็นประเด็นนโยบายที่มุ่งเน้นเช่นกัน โดยสหรัฐอเมริกาและแคนาดาเพิ่งระบุว่าพบเห็นแฮกเกอร์ใช้ประโยชน์จาก AI เชิงสร้างสรรค์มากขึ้นเรื่อยๆ
แฮกเกอร์รายหนึ่งถึงกับบอกว่าเขาพบหลักสูตรปริญญาโทสาขานิติศาสตร์ (LLM) ที่ได้รับการ "ฝึกอบรม" ด้วยเนื้อหาที่เป็นอันตราย และขอให้สร้างกลโกงการโอนเงิน AI จึงสร้างอีเมลความยาวสามย่อหน้าเพื่อขอให้ผู้รับชำระเงินด่วน
ในเดือนกรกฎาคม พ.ศ. 2566 ศูนย์ความมั่นคงปลอดภัยไซเบอร์แห่งแคนาดา (Canadian Cyber Security Centre) สังเกตเห็นการใช้ AI ที่เพิ่มมากขึ้นใน "การฉ้อโกงทางอีเมล มัลแวร์ ข้อมูลเท็จ และข้อมูลบิดเบือน" ซามี คูรี ผู้อำนวยการศูนย์ฯ ไม่ได้ให้หลักฐานที่แน่ชัด แต่ยืนยันว่าอาชญากรไซเบอร์กำลังใช้ประโยชน์จากเทคโนโลยีใหม่นี้อย่างแข็งขัน
ผู้นำยังกล่าวอีกว่า แม้ว่าการใช้ AI เพื่อร่างมัลแวร์จะยังอยู่ในช่วงเริ่มต้น แต่โมเดล AI กำลังพัฒนาอย่างรวดเร็วมาก จนทำให้เราสูญเสียการควบคุมความเสี่ยงที่เป็นอันตรายได้ง่าย
ก่อนหน้านี้ในเดือนมีนาคม 2566 องค์กรตำรวจยุโรป Europol ได้เผยแพร่รายงานที่ระบุว่า ChatGPT สามารถ "ปลอมตัวเป็นองค์กรและบุคคลได้อย่างสมจริง แม้จะใช้ภาษาอังกฤษพื้นฐานก็ตาม" ในเดือนเดียวกันนั้น ศูนย์ความมั่นคงปลอดภัยไซเบอร์แห่งชาติของสหราชอาณาจักรกล่าวว่า "LLM สามารถนำมาใช้สนับสนุนการโจมตีทางไซเบอร์ได้"
(ตามรายงานของรอยเตอร์)
แหล่งที่มา
การแสดงความคิดเห็น (0)