JPMorgan Chase ธนาคารที่ใหญ่ที่สุดของอเมริกา Amazon และบริษัทเทคโนโลยี Accenture ต่างห้ามพนักงานใช้ ChatGPT ด้วยเหตุผลด้านความปลอดภัยของข้อมูล
ตามรายงานของ CNN ความกังวลของธุรกิจเหล่านี้มีมูลความจริง เมื่อวันที่ 20 มีนาคม แชทบอทของ OpenAI เกิดข้อผิดพลาดที่เปิดเผยข้อมูลผู้ใช้ แม้ว่าจะได้รับการแก้ไขอย่างรวดเร็ว แต่บริษัทเปิดเผยว่าเหตุการณ์ดังกล่าวส่งผลกระทบต่อผู้ใช้ ChatGPT Plus 1.2% ข้อมูลที่รั่วไหลออกมามีชื่อนามสกุล ที่อยู่อีเมล ที่อยู่เรียกเก็บเงิน สี่หลักสุดท้ายของหมายเลขบัตรเครดิต และวันที่หมดอายุของบัตร
เมื่อวันที่ 31 มีนาคม สำนักงานคุ้มครองข้อมูลของอิตาลี (Garante) ได้ออกคำสั่งห้าม ChatGPT เป็นการชั่วคราว โดยอ้างถึงปัญหาความเป็นส่วนตัว หลังจากที่ OpenAI เปิดเผยช่องโหว่ดังกล่าว
Mark McCreary รอง ประธานฝ่ายความปลอดภัยข้อมูลและความเป็นส่วนตัวของสำนักงานกฎหมาย Fox Rothschild LLP กล่าวกับ CNN ว่าข้อกังวลด้านความปลอดภัยที่เกี่ยวข้องกับ ChatGPT นั้นไม่ใช่เรื่องที่เกินจริง เขาเปรียบเทียบแชทบอท AI กับ "กล่องดำ"
OpenAI เปิดตัว ChatGPT ในเดือนพฤศจิกายน 2022 และได้รับความสนใจอย่างรวดเร็วเนื่องจากความสามารถในการเขียนเรียงความ เรื่องราว และเนื้อเพลงโดยออกคำสั่ง ยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google และ Microsoft ได้เปิดตัวเครื่องมือ AI ที่คล้ายกัน ซึ่งขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ที่ฝึกฝนจากที่เก็บข้อมูลออนไลน์ขนาดใหญ่
ตามมาด้วยอิตาลี เยอรมนีกำลังพิจารณาแบน ChatGPT
McCreay กล่าวเสริมว่า เมื่อผู้ใช้ป้อนข้อมูลลงในเครื่องมือเหล่านี้ พวกเขาไม่ทราบว่าข้อมูลนั้นจะถูกนำไปใช้ในลักษณะใด เรื่องนี้สร้างความกังวลให้กับบริษัทต่างๆ เนื่องจากพนักงานจำนวนมากขึ้นเรื่อยๆ ใช้เครื่องมือต่างๆ เพื่อช่วยเขียนอีเมลงานหรือจดบันทึกสำหรับการประชุม ส่งผลให้มีความเสี่ยงที่ความลับทางการค้าจะถูกเปิดเผยมากขึ้น
Steve Mills ผู้อำนวยการฝ่ายจริยธรรมด้าน AI ของ Boston Consulting Group (BCG) กล่าวว่าบริษัทต่างๆ กังวลว่าพนักงานอาจเปิดเผยข้อมูลที่ละเอียดอ่อนโดยไม่ได้ตั้งใจ หากข้อมูลที่ผู้คนป้อนเข้าไปถูกนำไปใช้ในการฝึกเครื่องมือ AI นี้ พวกเขาก็จะสูญเสียการควบคุมข้อมูลดังกล่าวให้กับผู้อื่น
ตามนโยบายความเป็นส่วนตัวของ OpenAI บริษัทอาจรวบรวมข้อมูลส่วนบุคคลและข้อมูลทั้งหมดของผู้ใช้บริการเพื่อปรับปรุงโมเดล AI บริษัทอาจใช้ข้อมูลนี้เพื่อปรับปรุงหรือวิเคราะห์บริการ ดำเนินการวิจัย สื่อสารกับผู้ใช้ และพัฒนาโปรแกรมและบริการใหม่ๆ
นโยบายความเป็นส่วนตัวระบุว่า OpenAI อาจให้ข้อมูลส่วนบุคคลแก่บุคคลที่สามโดยไม่ต้องแจ้งให้ผู้ใช้ทราบ เว้นแต่กฎหมายจะกำหนดไว้ OpenAI ยังมีเอกสารเงื่อนไขการบริการของตนเอง แต่บริษัทก็มอบความรับผิดชอบส่วนใหญ่ให้กับผู้ใช้ในการดำเนินการที่เหมาะสมเมื่อโต้ตอบกับเครื่องมือ AI
เจ้าของ ChatGPT โพสต์บนบล็อกเกี่ยวกับแนวทางการใช้ AI อย่างปลอดภัย บริษัทเน้นย้ำว่าไม่ได้ใช้ข้อมูลเพื่อขายบริการ โฆษณา หรือสร้างโปรไฟล์ของผู้ใช้ แต่ OpenAI จะใช้ข้อมูลเพื่อทำให้โมเดลมีประโยชน์มากขึ้น ตัวอย่างเช่น บทสนทนาของผู้ใช้จะถูกใช้เพื่อฝึก ChatGPT
นโยบายความเป็นส่วนตัวของ ChatGPT ถือว่าคลุมเครือมาก
Google ซึ่งเป็นบริษัทที่อยู่เบื้องหลัง Bard AI มีข้อกำหนดความเป็นส่วนตัวเพิ่มเติมสำหรับผู้ใช้ AI โดยบริษัทจะเลือกส่วนเล็กๆ ของการสนทนาและใช้เครื่องมืออัตโนมัติเพื่อลบข้อมูลส่วนบุคคลที่ระบุตัวตนได้ ซึ่งจะช่วยปรับปรุง Bard ให้ดีขึ้นในขณะที่ปกป้องความเป็นส่วนตัวของผู้ใช้
ตัวอย่างบทสนทนาจะได้รับการตรวจสอบโดยผู้ฝึกสอนที่เป็นมนุษย์และจัดเก็บไว้นานถึงสามปีโดยแยกจากบัญชี Google ของผู้ใช้ นอกจากนี้ Google ยังเตือนผู้ใช้ไม่ให้ใส่ข้อมูลส่วนบุคคลเกี่ยวกับตนเองหรือผู้อื่นในบทสนทนาบน Bard AI ยักษ์ใหญ่ด้านเทคโนโลยีเน้นย้ำว่าบทสนทนาเหล่านี้จะไม่ถูกใช้เพื่อวัตถุประสงค์ด้านการโฆษณา และจะประกาศการเปลี่ยนแปลงในอนาคต
Bard AI ช่วยให้ผู้ใช้สามารถเลือกที่จะไม่บันทึกบทสนทนาลงในบัญชี Google ของตนเอง รวมถึงตรวจสอบหรือลบบทสนทนาผ่านลิงก์ นอกจากนี้ บริษัทยังมีมาตรการป้องกันที่ออกแบบมาเพื่อป้องกันไม่ให้ Bard รวมข้อมูลส่วนบุคคลไว้ในการตอบกลับ
Steve Mills กล่าวว่าบางครั้งผู้ใช้และนักพัฒนาจะค้นพบความเสี่ยงด้านความปลอดภัยที่ซ่อนอยู่ในเทคโนโลยีใหม่ๆ ก็ต่อเมื่อสายเกินไปเท่านั้น ตัวอย่างเช่น ฟังก์ชันการกรอกอัตโนมัติอาจเปิดเผยหมายเลขประกันสังคมของผู้ใช้โดยไม่ได้ตั้งใจ
นายมิลส์กล่าวว่า ผู้ใช้ไม่ควรใส่สิ่งใด ๆ ลงในเครื่องมือเหล่านี้ที่พวกเขาไม่ต้องการให้แบ่งปันกับผู้อื่น
ลิงค์ที่มา
การแสดงความคิดเห็น (0)