JPMorgan Chase ซึ่งเป็นธนาคารที่ใหญ่ที่สุดของอเมริกา Amazon และบริษัทเทคโนโลยี Accenture ต่างห้ามพนักงานใช้ ChatGPT เนื่องจากกังวลเรื่องความปลอดภัยของข้อมูล
CNN รายงานว่าความกังวลของธุรกิจเหล่านี้มีมูลความจริง เมื่อวันที่ 20 มีนาคม แชทบอทของ OpenAI เกิดข้อผิดพลาดที่เปิดเผยข้อมูลผู้ใช้ แม้ว่าข้อผิดพลาดจะได้รับการแก้ไขอย่างรวดเร็ว แต่บริษัทเปิดเผยว่าเหตุการณ์นี้ส่งผลกระทบต่อผู้ใช้ ChatGPT Plus 1.2% ข้อมูลที่รั่วไหลประกอบด้วยชื่อเต็ม ที่อยู่อีเมล ที่อยู่สำหรับเรียกเก็บเงิน เลขสี่หลักสุดท้ายของหมายเลขบัตรเครดิต และวันหมดอายุของบัตร
เมื่อวันที่ 31 มีนาคม หน่วยงานคุ้มครองข้อมูลของอิตาลี (Garante) ได้ออกคำสั่งห้าม ChatGPT เป็นการชั่วคราว โดยอ้างถึงข้อกังวลด้านความเป็นส่วนตัว หลังจากที่ OpenAI เปิดเผยช่องโหว่ดังกล่าว
มาร์ค แมคครีรี ประธาน ร่วม ฝ่ายความปลอดภัยข้อมูลและความเป็นส่วนตัวของสำนักงานกฎหมายฟ็อกซ์ รอธส์ไชลด์ แอลแอลพี ให้สัมภาษณ์กับซีเอ็นเอ็นว่า ความกังวลด้านความปลอดภัยเกี่ยวกับ ChatGPT นั้นไม่ได้ถูกกล่าวเกินจริง เขาเปรียบเทียบแชทบอท AI กับ "กล่องดำ"
OpenAI เปิดตัว ChatGPT ในเดือนพฤศจิกายน 2022 และได้รับความสนใจอย่างรวดเร็วเนื่องจากความสามารถในการเขียนเรียงความ เรื่องราว และเนื้อเพลงด้วยคำสั่ง ยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google และ Microsoft ก็ได้เปิดตัวเครื่องมือ AI ที่คล้ายคลึงกัน ซึ่งขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ที่ฝึกฝนจากคลังข้อมูลออนไลน์ขนาดใหญ่
ตามการเคลื่อนไหวของอิตาลี เยอรมนียังกำลังพิจารณาแบน ChatGPT อีกด้วย
McCreay กล่าวเสริมว่า เมื่อผู้ใช้ป้อนข้อมูลลงในเครื่องมือเหล่านี้ พวกเขาไม่รู้ว่าข้อมูลนั้นจะถูกนำไปใช้อย่างไร เรื่องนี้น่ากังวลสำหรับบริษัทต่างๆ เนื่องจากพนักงานจำนวนมากขึ้นเรื่อยๆ ใช้เครื่องมือเหล่านี้เพื่อช่วยเขียนอีเมลงานหรือจดบันทึกการประชุม ซึ่งนำไปสู่ความเสี่ยงที่ความลับทางการค้าจะถูกเปิดเผยมากขึ้น
สตีฟ มิลส์ ผู้อำนวยการฝ่ายจริยธรรม AI ของ Boston Consulting Group (BCG) กล่าวว่า บริษัทต่างๆ กังวลเกี่ยวกับกรณีที่พนักงานเปิดเผยข้อมูลสำคัญโดยไม่ตั้งใจ หากข้อมูลที่ป้อนเข้าไปถูกนำไปใช้ในการฝึกอบรมเครื่องมือ AI นี้ พวกเขาก็จะสูญเสียการควบคุมข้อมูลดังกล่าวให้กับผู้อื่น
ตามนโยบายความเป็นส่วนตัวของ OpenAI บริษัทอาจรวบรวมข้อมูลส่วนบุคคลและข้อมูลทั้งหมดของผู้ใช้บริการเพื่อปรับปรุงโมเดล AI บริษัทอาจใช้ข้อมูลนี้เพื่อปรับปรุงหรือวิเคราะห์บริการ ดำเนินการวิจัย สื่อสารกับผู้ใช้ และพัฒนาโปรแกรมและบริการใหม่ๆ
นโยบายความเป็นส่วนตัวระบุว่า OpenAI อาจให้ข้อมูลส่วนบุคคลแก่บุคคลที่สามโดยไม่ต้องแจ้งให้ผู้ใช้ทราบ เว้นแต่กฎหมายกำหนดไว้ OpenAI ยังมีเอกสารข้อกำหนดในการให้บริการของตนเอง แต่บริษัทก็มอบความรับผิดชอบส่วนใหญ่ให้กับผู้ใช้ในการดำเนินการตามมาตรการที่เหมาะสมเมื่อใช้งานเครื่องมือ AI
เจ้าของ ChatGPT ได้โพสต์บนบล็อกเกี่ยวกับแนวทางการสร้าง AI ที่ปลอดภัย บริษัทเน้นย้ำว่าไม่ได้ใช้ข้อมูลเพื่อขายบริการ โฆษณา หรือสร้างโปรไฟล์ผู้ใช้ แต่ OpenAI จะใช้ข้อมูลเพื่อทำให้โมเดลของตนมีประโยชน์มากขึ้น ตัวอย่างเช่น บทสนทนาของผู้ใช้จะถูกใช้เพื่อฝึกอบรม ChatGPT
นโยบายความเป็นส่วนตัวของ ChatGPT ถือว่าคลุมเครือมาก
Google บริษัทที่อยู่เบื้องหลัง Bard AI มีข้อกำหนดเพิ่มเติมเกี่ยวกับความเป็นส่วนตัวสำหรับผู้ใช้ AI โดยบริษัทจะเลือกบทสนทนาบางส่วนและใช้เครื่องมืออัตโนมัติเพื่อลบข้อมูลส่วนบุคคล ซึ่งจะช่วยปรับปรุง Bard ควบคู่ไปกับการปกป้องความเป็นส่วนตัวของผู้ใช้
ตัวอย่างบทสนทนาจะได้รับการตรวจสอบโดยผู้ฝึกสอนที่เป็นมนุษย์และจัดเก็บไว้นานสูงสุดสามปี โดยแยกจากบัญชี Google ของผู้ใช้ นอกจากนี้ Google ยังเตือนผู้ใช้ไม่ให้ใส่ข้อมูลส่วนบุคคลเกี่ยวกับตนเองหรือผู้อื่นในบทสนทนาบน Bard AI บริษัทเทคโนโลยียักษ์ใหญ่แห่งนี้ย้ำว่าบทสนทนาเหล่านี้จะไม่ถูกนำมาใช้เพื่อวัตถุประสงค์ทางการโฆษณา และจะประกาศการเปลี่ยนแปลงในอนาคต
Bard AI ช่วยให้ผู้ใช้สามารถเลือกไม่บันทึกบทสนทนาในบัญชี Google ของตน รวมถึงตรวจสอบหรือลบบทสนทนาผ่านลิงก์ได้ นอกจากนี้ บริษัทยังมีมาตรการป้องกันที่ออกแบบมาเพื่อป้องกันไม่ให้ Bard ใส่ข้อมูลส่วนบุคคลในการตอบกลับ
สตีฟ มิลส์ กล่าวว่าบางครั้งผู้ใช้และนักพัฒนาจะค้นพบความเสี่ยงด้านความปลอดภัยที่ซ่อนอยู่ในเทคโนโลยีใหม่ๆ ก็ต่อเมื่อสายเกินไป ตัวอย่างเช่น ฟังก์ชันเติมข้อความอัตโนมัติอาจเปิดเผยหมายเลขประกันสังคมของผู้ใช้โดยไม่ได้ตั้งใจ
นายมิลส์กล่าวว่า ผู้ใช้ไม่ควรใส่สิ่งใด ๆ ลงในเครื่องมือเหล่านี้ที่พวกเขาไม่ต้องการให้แบ่งปันกับผู้อื่น
ลิงค์ที่มา
การแสดงความคิดเห็น (0)