การลงทุนมหาศาลของบริษัทเทคโนโลยียักษ์ใหญ่ด้านปัญญาประดิษฐ์ (AI) และแชทบอท สร้างความปวดหัวให้กับผู้นำด้านความปลอดภัยสารสนเทศขององค์กร CNBC รายงานว่า AI กำลังแทรกซึมอยู่ในสถานที่ทำงาน และผู้นำด้านความปลอดภัยสารสนเทศจำเป็นต้องใช้เทคโนโลยีนี้ด้วยความระมัดระวังและเตรียมการป้องกัน
เทคโนโลยีที่อยู่เบื้องหลัง GPT เรียกว่าแบบจำลองภาษาขนาดใหญ่ (LLM) ไม่ใช่ทุกบริษัทที่จะมี GPT เป็นของตัวเอง ดังนั้นการตรวจสอบวิธีที่พนักงานใช้งานจึงเป็นสิ่งสำคัญ ไมเคิล ชุย หุ้นส่วนของ McKinsey Global Institute กล่าวว่า ผู้คนจะใช้ AI เชิงสร้างสรรค์หากพวกเขาพบว่ามันมีประโยชน์ เขาเปรียบเทียบมันกับการใช้คอมพิวเตอร์หรือโทรศัพท์ในที่ทำงาน
แม้จะถูกห้าม พนักงานก็ยังคงหาทางแอบเข้าไปได้ ในอดีตมีเทคโนโลยีที่น่าสนใจมากจนผู้คนยินดีจ่ายเงินเพื่อซื้อมัน ตัวอย่างเช่น พวกเขาซื้อโทรศัพท์มือถือก่อนที่บริษัทจะจัดหาอุปกรณ์ส่วนตัวให้ ชุยกล่าว
CISO ซึ่งกำลังรับมือกับภัยคุกคามจากการโจมตีทางไซเบอร์อยู่แล้ว กำลังมีความกังวลเพิ่มขึ้นเกี่ยวกับ AI และ GPT Chui ระบุว่า บริษัทต่างๆ สามารถอนุญาตให้ใช้สิทธิ์แพลตฟอร์ม AI เพื่อติดตามสิ่งที่พนักงานเปิดเผยต่อแชทบอท และรับรองว่าข้อมูลที่พวกเขาแบ่งปันนั้นได้รับการปกป้อง
“ในฐานะธุรกิจ คุณคงไม่อยากให้พนักงานส่งข้อมูลลับไปยังแชทบอทสาธารณะหรอก” ชุยกล่าว ดังนั้น การกำหนดมาตรการทางเทคนิคต่างๆ เช่น การให้สิทธิ์ใช้งานซอฟต์แวร์และการลงนามในข้อตกลงทางกฎหมายเกี่ยวกับทิศทางที่ข้อมูลของคุณจะถูกจัดเก็บจึงเป็นสิ่งสำคัญ
ซาเมียร์ เปนากาลาปาตี ซีอีโอของ Ceipal กล่าวว่าทางเลือกที่ปลอดภัยคือให้บริษัทพัฒนา GPT ของตนเอง หรือจ้างนักพัฒนา GPT มาสร้างเวอร์ชันของตนเอง หากคุณสร้าง GPT เอง ซอฟต์แวร์จะมีข้อมูลที่บริษัทต้องการให้พนักงานเข้าถึงได้อย่างชัดเจน นอกจากนี้ยังสามารถปกป้องข้อมูลที่พนักงานป้อนเข้าได้อีกด้วย ไม่ว่าคุณจะเลือกโซลูชันใด คุณต้องระมัดระวังเกี่ยวกับข้อมูลที่ป้อนลงใน GPT
(ตามรายงานของ CNBC)
แหล่งที่มา
การแสดงความคิดเห็น (0)