● ความเสี่ยงสามารถควบคุมได้ หากธุรกิจใช้มาตรการรักษาความปลอดภัยที่เหมาะสม
● Team8 ซึ่งเป็นบริษัทด้านความปลอดภัยทางไซเบอร์จากประเทศอิสราเอล ได้ร่างรายงานเกี่ยวกับปัญหานี้ โดยได้รับความคิดเห็นจากผู้อำนวยการด้านความปลอดภัยด้านข้อมูลของธุรกิจต่างๆ มากมาย
ภาพ: Gabby Jones/Bloomberg
Team8 ซึ่งเป็นบริษัทร่วมทุนด้านความปลอดภัยทางไซเบอร์ของอิสราเอล เปิดเผยในรายงานว่า ธุรกิจต่างๆ ที่กำลังใช้แอปพลิเคชันปัญญาประดิษฐ์ เช่น ChatGPT มีแนวโน้มที่จะเผชิญความเสี่ยงในการเปิดเผยข้อมูลลับของลูกค้าและความลับทางการค้าของพวกเขา
รายงานที่ส่งให้กับ Bloomberg News ก่อนการเผยแพร่ระบุว่าการใช้ AI ที่เพิ่มมากขึ้นในแชทบอทและโปรแกรมแก้ไขข้อความอาจทำให้ธุรกิจจำนวนมากเสี่ยงต่อการละเมิดข้อมูลและการฟ้องร้อง รายงานดังกล่าวได้แสดงความกังวลว่าแชทบอทอาจถูกแฮ็กเกอร์ใช้ขุดข้อมูลสำคัญขององค์กรหรือดำเนินกิจกรรมที่สร้างความเสียหายต่อบริษัท นอกจากนี้ ยังมีความกังวลว่าข้อมูลลับที่ส่งให้กับแชทบอทในปัจจุบันอาจถูกบริษัท AI นำไปใช้ในอนาคต
บริษัทเทคโนโลยียักษ์ใหญ่หลายแห่ง เช่น Microsoft Corp. และ Alphabet Inc. กำลังเร่งบูรณาการปัญญาประดิษฐ์เพื่อปรับปรุงแชทบอทและเครื่องมือค้นหา โดยฝึกโมเดลปัญญาประดิษฐ์ของตนบนชุดข้อมูลที่ขุดมาจากอินเทอร์เน็ตเพื่อให้ผู้ใช้มีเครื่องมืออเนกประสงค์ที่สามารถตอบคำถามใดๆ ก็ได้ที่ถาม ตามรายงานระบุว่า หากแอปพลิเคชันเหล่านี้มีข้อมูลที่เป็นความลับหรือเป็นส่วนตัว การลบข้อมูลที่ให้มาจะเป็นเรื่องยากมาก
รายงานระบุว่า “การนำปัญญาประดิษฐ์มาใช้ในสภาพแวดล้อมขององค์กรอาจทำให้เกิดความเสี่ยงที่ข้อมูลที่ละเอียดอ่อน ทรัพย์สินทางปัญญา ซอร์สโค้ด ความลับทางการค้า และข้อมูลอื่นๆ จะถูกใช้ประโยชน์และประมวลผลผ่านข้อมูลที่ได้รับโดยตรงจากผู้ใช้หรือผ่าน API รวมถึงความเป็นส่วนตัวของผู้ใช้และข้อมูลที่เป็นความลับ” รายงานดังกล่าวให้คะแนนความเสี่ยงเหล่านี้ว่า “สูง” และระบุว่าความเสี่ยงเหล่านี้ “สามารถจัดการได้” หากใช้มาตรการรักษาความปลอดภัยทางไซเบอร์ที่เหมาะสม
รายงานของ Team8 เน้นย้ำว่าไม่มีการส่งข้อมูลจากแชทบอทไปให้บริษัทต่างๆ เพื่อใช้ในการฝึกปัญญาประดิษฐ์ ซึ่งขัดแย้งกับรายงานล่าสุดที่ระบุว่าผู้อื่นสามารถอ่านข้อมูลได้
“ณ เวลาที่เขียนบทความนี้ โมเดล AI ที่ได้รับการฝึกอบรมจากข้อมูลภาษาขนาดใหญ่ไม่สามารถอัปเดตตัวเองได้แบบเรียลไทม์ ดังนั้นจึงไม่สามารถใช้ข้อมูลอินพุตจากบุคคลหนึ่งเพื่อตอบสนองต่อบุคคลอื่นได้ ดังนั้น ข้อกังวลเกี่ยวกับความเป็นไปได้ดังกล่าวจึงไม่มีมูลความจริง อย่างไรก็ตาม เวอร์ชันในอนาคตของโมเดลเหล่านี้อาจไม่มีลักษณะที่คล้ายคลึงกัน”
รายงานยังได้จัดอันดับปัญหาอื่นๆ อีกสามประเด็นเกี่ยวกับการผสานรวม AI ไว้ว่ามีความเสี่ยงสูง และเน้นย้ำถึงภัยคุกคามที่เพิ่มขึ้นจากการแบ่งปันข้อมูลกับแอปพลิเคชันของบุคคลที่สาม Microsoft ได้รวมฟีเจอร์แชทบ็อตหลายอย่างไว้ในเครื่องมือค้นหา Bing และชุดซอฟต์แวร์ Microsoft 365
“ตัวอย่างเช่น ในด้านผู้ใช้ แอปพลิเคชันของบริษัทอื่นที่ใช้ประโยชน์จาก API ของโมเดลปัญญาประดิษฐ์ อาจถูกบุกรุกและมอบสิทธิ์การเข้าถึงอีเมล์และเว็บเบราว์เซอร์ของผู้ใช้ ทำให้ผู้บุกรุกสามารถดำเนินกิจกรรมในนามของผู้ใช้นั้นได้”
รายงานดังกล่าวประเมินว่ามีความเสี่ยง "ปานกลาง" ที่การใช้ปัญญาประดิษฐ์จะทำให้เกิดการเลือกปฏิบัติมากขึ้น ส่งผลเสียต่อชื่อเสียงของบริษัท หรือทำให้บริษัทต้องดำเนินคดีทางกฎหมายเกี่ยวกับปัญหาลิขสิทธิ์
แอนน์ จอห์นสัน รองประธานฝ่ายองค์กรของ Microsoft มีส่วนสนับสนุนรายงานดังกล่าว Microsoft ได้ลงทุนหลายพันล้านดอลลาร์ใน OpenAI ซึ่งเป็นบริษัทที่พัฒนาแอปพลิเคชัน ChatGPT
“Microsoft สนับสนุนการหารืออย่างโปร่งใสเกี่ยวกับความเสี่ยงทางไซเบอร์ที่พัฒนาขึ้นภายในชุมชนด้านความปลอดภัยทางไซเบอร์และปัญญาประดิษฐ์” โฆษกของ Microsoft กล่าว
เจ้าหน้าที่รักษาความปลอดภัยข้อมูลระดับสูงจากบริษัทต่างๆ ในสหรัฐฯ หลายคนยังร่วมรายงานด้วย รายงาน Team8 ได้รับการรับรองจากไมเคิล โรเจอร์ส อดีตประธานสำนักงานความมั่นคงแห่งชาติสหรัฐฯ และหน่วยบัญชาการไซเบอร์สหรัฐฯ
เหงียน กวาง มินห์ (ตามรายงานของบลูมเบิร์ก)
แหล่งที่มา
การแสดงความคิดเห็น (0)