ในโพสต์บล็อกเมื่อวันที่ 30 สิงหาคม ศูนย์ความปลอดภัยทางไซเบอร์แห่งสหราชอาณาจักร (NCSC) กล่าวว่าผู้เชี่ยวชาญยังคงไม่เข้าใจอย่างถ่องแท้ถึงปัญหาความปลอดภัยทางไซเบอร์ที่อาจเกิดขึ้นซึ่งเกี่ยวข้องกับอัลกอริทึมที่สามารถโต้ตอบได้ "เหมือนมนุษย์" ซึ่งเรียกว่าโมเดลภาษาขนาดใหญ่ (LLM)
NCSC เตือนว่าสิ่งนี้อาจก่อให้เกิดความเสี่ยง โดยเฉพาะอย่างยิ่งเมื่อมีการฝังโมเดลดังกล่าวไว้ในกระบวนการทางธุรกิจ เมื่อไม่นานมานี้ นักวิชาการและนักวิจัยได้ค้นพบวิธี "หลอก" AI ด้วยการให้คำสั่งที่ไม่ถูกต้อง หรือหลบเลี่ยงมาตรการป้องกันในตัว
เครื่องมือ Generative AI กำลังถูกใช้เป็นแชทบอท ซึ่งคาดว่าจะเข้ามาแทนที่ไม่เพียงการค้นหาทางอินเทอร์เน็ตเท่านั้น แต่ยังรวมถึงการบริการลูกค้าและการขายด้วย |
ตัวอย่างเช่น แชทบอท AI ที่ติดตั้งในธนาคารอาจถูกหลอกให้ทำธุรกรรมที่ไม่ได้รับอนุญาตได้ หากแฮกเกอร์ตั้ง "คำสั่ง" ที่ถูกต้อง
ดังนั้น เมื่ออ้างอิงถึงการเปิดตัว AI เบต้าล่าสุด NCSC จึงเตือนว่า “องค์กรต่างๆ ที่สร้างบริการโดยใช้ LLM จะต้องระมัดระวังเช่นเดียวกับการใช้ผลิตภัณฑ์ใหม่ในเบต้า”
ผลสำรวจล่าสุดของ Reuters/Ipsos พบว่าพนักงานบริษัทจำนวนมากใช้เครื่องมือ เช่น ChatGPT ในการทำงานพื้นฐาน เช่น การร่างอีเมล การสรุปเอกสาร หรือการรวบรวมข้อมูลการวิจัยเบื้องต้น
ในจำนวนนี้ มีเพียงประมาณ 10% ของพนักงานเท่านั้นที่ระบุว่าหัวหน้าของพวกเขาห้ามใช้เครื่องมือ AI ภายนอกโดยชัดเจน และ 25% ไม่ทราบว่าบริษัทอนุญาตให้ใช้เทคโนโลยีนี้หรือไม่
การแข่งขันเพื่อบูรณาการ AI เข้ากับการดำเนินธุรกิจจะก่อให้เกิด “ผลลัพธ์อันเลวร้าย” หากผู้นำธุรกิจไม่ดำเนินการตรวจสอบที่จำเป็น โอเซโลกา โอบิโอรา ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของบริษัทรักษาความปลอดภัย ริเวอร์เซฟ กล่าว “แทนที่จะไล่ตามเทรนด์ AI ผู้นำควรพิจารณาอย่างรอบคอบและประเมินประโยชน์ ความเสี่ยง และมาตรการรักษาความปลอดภัยที่จำเป็นต่อการปกป้องธุรกิจ”
ข่าวปลอมและแฮกเกอร์
หน่วยงานต่างๆ ทั่ว โลก กำลังพยายามควบคุมการแพร่กระจายของหลักสูตรปริญญานิติศาสตรมหาบัณฑิต (LLM) เช่น ChatGPT ของ OpenAI ความกังวลเกี่ยวกับความปลอดภัยของเทคโนโลยีใหม่ๆ ถือเป็นประเด็นสำคัญทางนโยบาย โดยเมื่อเร็วๆ นี้ สหรัฐอเมริกาและแคนาดาได้ค้นพบกรณีของแฮกเกอร์ที่ใช้ generative AI เพื่อกระทำการผิดกฎหมายเพิ่มมากขึ้น
แฮกเกอร์รายหนึ่งถึงกับบอกว่าเขาพบหลักสูตรปริญญาโทสาขานิติศาสตร์ (LLM) ที่ได้รับการ "ฝึกอบรม" ด้วยเนื้อหาที่เป็นอันตราย และขอให้สร้างกลโกงการโอนเงิน AI ตอบกลับโดยสร้างอีเมลขอให้ผู้รับชำระเงินด่วน
ในเดือนกรกฎาคม พ.ศ. 2566 ศูนย์ความมั่นคงปลอดภัยไซเบอร์แห่งแคนาดา (Canadian Cyber Security Centre) พบว่ามีการใช้ AI เพิ่มขึ้นใน “การฉ้อโกงทางอีเมล มัลแวร์ การบิดเบือนข้อมูล และการบิดเบือนข้อมูล” ซามี คูรี ผู้อำนวยการศูนย์ฯ ยืนยันว่าอาชญากรไซเบอร์กำลังใช้ประโยชน์จากเทคโนโลยีใหม่นี้อย่างแข็งขัน
ผู้นำรายนี้ยังกล่าวเสริมด้วยว่า แม้ว่าการใช้ AI ในการสร้างมัลแวร์จะยังอยู่ในช่วงเริ่มต้น แต่โมเดล AI กำลังพัฒนาอย่างรวดเร็วมาก จนอาจนำไปสู่จุดที่ไม่สามารถควบคุมความเสี่ยงที่เป็นอันตรายได้
ก่อนหน้านี้ในเดือนมีนาคม 2566 องค์กรตำรวจยุโรป Europol ได้เผยแพร่รายงานที่ระบุว่า ChatGPT สามารถ "ปลอมตัวเป็นองค์กรและบุคคลได้อย่างสมจริง แม้จะใช้ภาษาอังกฤษพื้นฐานก็ตาม" ในเดือนเดียวกันนั้น ศูนย์ความมั่นคงปลอดภัยไซเบอร์แห่งชาติของสหราชอาณาจักรยืนยันว่า "LLM สามารถนำมาใช้สนับสนุนการโจมตีทางไซเบอร์ได้"
แหล่งที่มา
การแสดงความคิดเห็น (0)