จากรายงานของ The Telegraph พบว่ามีการสนทนาส่วนตัวกับ ChatGPT มากกว่า 500 รายการปรากฏอยู่ในผลการค้นหาของ Google ซึ่งก่อให้เกิดความกังวลเกี่ยวกับความเป็นส่วนตัวและความปลอดภัยของข้อมูล
การสนทนาเหล่านี้มีเนื้อหาที่ละเอียดอ่อน เช่น การสนทนาภายใน พฤติกรรมฉ้อโกง แผนการโจมตีทางไซเบอร์ และแม้แต่คำถามจากแพทย์และทนายความ
เหตุการณ์ดังกล่าวถูกค้นพบโดยนักวิจัยออนไลน์ชื่อ เฮงค์ ฟาน เอสส์ ซึ่งกล่าวว่าอาจมีบทสนทนาอีกมากถึง 110,000 บทสนทนาที่ยังคงถูกเก็บไว้ใน Wayback Machine ซึ่งเป็นเครื่องมือเก็บรักษาข้อมูลบนเว็บของ Internet Archive
บทสนทนาเหล่านี้ถูกแชร์ผ่านฟีเจอร์ "แชร์แชท" ในรูปแบบลิงก์ URL สาธารณะตั้งแต่แรก
อย่างไรก็ตาม OpenAI บริษัทผู้พัฒนา ChatGPT ได้ปล่อยให้ลิงก์เหล่านี้ยังคงปรากฏอยู่ในดัชนีของ Google และเครื่องมือค้นหาอื่นๆ ทำให้ผู้ใช้เผลอแชร์ข้อมูลส่วนบุคคลโดยไม่รู้ตัว

OpenAI กำลังพยายามลบเนื้อหาที่ Google รวบรวมไว้
สัปดาห์นี้ OpenAI ได้ปิดใช้งานความสามารถในการจัดทำดัชนีเนื้อหาที่แชร์ และกำลังดำเนินการลบเนื้อหาที่ Google ได้ทำการรวบรวมข้อมูลไปแล้ว
“ฟีเจอร์การแชร์นี้สร้างความเสี่ยงมากเกินไปสำหรับผู้ใช้ที่จะเผลอเปิดเผยเนื้อหาที่เป็นส่วนตัวสู่สาธารณะ” เดน สตัคกี้ หัวหน้าเจ้าหน้าที่รักษาความปลอดภัยข้อมูลของ OpenAI กล่าว “เราจึงจะลบตัวเลือกนี้ออกไปทั้งหมด”
แชทที่รั่วไหลบางส่วนแสดงให้เห็นว่านักเรียนใช้ ChatGPT ในทางที่ผิดเพื่อโกงข้อสอบ ในขณะที่บางส่วนเปิดเผยข้อมูลส่วนบุคคลหรือเอกสารสำคัญ
แซม อัลท์แมน ซีอีโอของ OpenAI ยอมรับว่า ChatGPT ไม่มีกลไกการรักษาความปลอดภัยเช่นเดียวกับทนายความ แพทย์ หรือที่ปรึกษา แม้ว่าหลายคนจะใช้แชทบอทเป็น "ผู้ให้คำปรึกษา" ก็ตาม
จากรายงานของ Cybernews ผู้ใช้ Reddit บางรายเปิดเผยว่าพวกเขาพบแชทที่มีชื่อเต็ม หมายเลขโทรศัพท์ อีเมล ที่อยู่ และประวัติการทำงานโดยละเอียด
ผู้ใช้ Reddit รายหนึ่งเขียนว่า "ฉันเห็นคนคนหนึ่งสร้างเรซูเม่ที่ครบถ้วนด้วยชื่อ เบอร์โทรศัพท์ อีเมล ที่อยู่ และประวัติการทำงาน"
นอกจากนี้ บทสนทนาจำนวนมากที่ประกอบไปด้วยความคิดส่วนตัว เรื่องราวส่วนตัว ชื่อของเด็กๆ รูปถ่าย ที่อยู่บ้าน และแม้กระทั่งเสียงของผู้ใช้งาน ก็ถูกรั่วไหลออกมา สร้างความตกใจให้กับผู้คนจำนวนมาก
ที่มา: https://nld.com.vn/phat-hien-gay-soc-บน-chatgpt-khien-nguoi-dung-choang-vang-196250804134031378.htm










การแสดงความคิดเห็น (0)