ฟีเจอร์แชร์แชทผ่านลิงก์สาธารณะบน ChatGPT - รูปภาพ: Techradar
ปัจจุบัน ChatGPT มีผู้ถูกค้นหามากกว่า 2.5 พันล้านครั้งจากผู้ใช้ทั่วโลกทุกวัน แสดงให้เห็นถึงความนิยมที่เพิ่มมากขึ้นของแชทบอทตัวนี้
อย่างไรก็ตาม เครื่องมือนี้กำลังเผชิญกับการตอบโต้อย่างรุนแรงจากผู้ใช้ เนื่องจากคุณลักษณะ "การแชร์" ทำให้การสนทนาหลายพันครั้งรั่วไหลข้อมูลที่ละเอียดอ่อนไปยัง Google และเครื่องมือค้นหาหลายตัวบนอินเทอร์เน็ต
ความเสี่ยงด้านความปลอดภัยสูง
นายหวู่ หง็อก เซิน หัวหน้าฝ่ายเทคโนโลยีของสมาคมความปลอดภัยทางไซเบอร์แห่งชาติ (NCA) ประเมินว่าเหตุการณ์ดังกล่าวแสดงให้เห็นถึงความเสี่ยงด้านความปลอดภัยในระดับสูงสำหรับผู้ใช้ ChatGPT
“เหตุการณ์ข้างต้นไม่จำเป็นต้องเป็นข้อบกพร่องทางเทคนิคเสมอไป เพราะผู้ใช้มีความคิดริเริ่มบางอย่างในการคลิกปุ่มแชร์ อย่างไรก็ตาม อาจกล่าวได้ว่าปัญหาอยู่ที่การออกแบบผลิตภัณฑ์แชทบอท AI ซึ่งสร้างความสับสนให้กับผู้ใช้ และไม่มีมาตรการเตือนที่เข้มแข็งเพียงพอเกี่ยวกับความเสี่ยงที่ข้อมูลส่วนบุคคลจะรั่วไหลหากผู้ใช้แชร์” คุณหวู หง็อก เซิน วิเคราะห์
ใน ChatGPT ฟีเจอร์นี้จะนำมาใช้หลังจากที่ผู้ใช้เลือกที่จะแชร์การแชทผ่านลิงก์สาธารณะ เนื้อหาจะถูกเก็บไว้บนเซิร์ฟเวอร์ของ OpenAI ในรูปแบบเว็บไซต์สาธารณะ (chatgpt.com/share/...) ไม่จำเป็นต้องเข้าสู่ระบบหรือใช้รหัสผ่านเพื่อเข้าถึง
โปรแกรมรวบรวมข้อมูลของ Google จะสแกนและสร้างดัชนีหน้าเหล่านี้โดยอัตโนมัติ ทำให้ปรากฏในผลการค้นหา รวมถึงข้อความ รูปภาพ หรือข้อมูลแชทที่ละเอียดอ่อน
ผู้ใช้จำนวนมากไม่ทราบถึงความเสี่ยงนี้ โดยคิดว่ากำลังแชร์แชทกับเพื่อนหรือผู้ติดต่อ ส่งผลให้บทสนทนาหลายพันบทสนทนาถูกเปิดเผย ซึ่งบางบทสนทนามีข้อมูลส่วนบุคคลที่ละเอียดอ่อน
แม้ว่า OpenAI จะลบฟีเจอร์นี้ออกไปอย่างรวดเร็วในช่วงปลายเดือนกรกฎาคม 2568 หลังจากถูกวิพากษ์วิจารณ์จากชุมชน แต่ก็ยังต้องใช้เวลาในการประสานงานกับ Google เพื่อลบดัชนีเก่าออกไป โดยเฉพาะอย่างยิ่งเมื่อระบบจัดเก็บข้อมูลที่ซับซ้อน ซึ่งรวมถึงเซิร์ฟเวอร์แคชของ Google ทำให้การดำเนินการนี้ไม่สามารถดำเนินการได้อย่างรวดเร็ว
อย่าปฏิบัติต่อแชทบอท AI เหมือนกับเป็น "กล่องดำด้านความปลอดภัย"
ผู้เชี่ยวชาญด้านความปลอดภัยข้อมูล หวู หง็อก เซิน - หัวหน้าฝ่ายเทคโนโลยีของสมาคมความปลอดภัยทางไซเบอร์แห่งชาติ (NCA) - ภาพ: CHI HIEU
การรั่วไหลของการแชทนับพันรายการอาจก่อให้เกิดความเสี่ยงต่อผู้ใช้ เช่น การเปิดเผยความลับส่วนบุคคล ความลับทางธุรกิจ ความเสียหายต่อชื่อเสียง ความเสี่ยงทางการเงิน หรือแม้กระทั่งอันตรายด้านความปลอดภัยเมื่อเปิดเผยที่อยู่บ้าน
แชทบอทที่ขับเคลื่อนด้วย AI นั้นมีประโยชน์แต่ก็ไม่ใช่ 'กล่องดำ' เนื่องจากข้อมูลที่แชร์กันอาจอยู่บนเว็บได้ตลอดไปหากไม่ได้รับการตรวจสอบ
เหตุการณ์นี้เป็นบทเรียนสำหรับทั้งผู้ให้บริการและผู้ใช้อย่างแน่นอน ผู้ให้บริการ AI รายอื่นสามารถเรียนรู้จากประสบการณ์นี้และออกแบบฟีเจอร์ต่างๆ ให้มีคำเตือนที่ชัดเจนและโปร่งใสมากขึ้น
ในขณะเดียวกัน ผู้ใช้ยังต้องจำกัดการโพสต์ข้อมูลระบุตัวตนหรือข้อมูลลับที่ไม่สามารถควบคุมได้บนแพลตฟอร์ม AI อย่างจริงจังด้วย" ผู้เชี่ยวชาญด้านความปลอดภัย Vu Ngoc Son แนะนำ
ผู้เชี่ยวชาญด้านความปลอดภัยข้อมูลระบุว่า เหตุการณ์ดังกล่าวแสดงให้เห็นว่าจำเป็นต้องมีช่องทางทางกฎหมายและมาตรฐานความปลอดภัยทางไซเบอร์สำหรับ AI ซัพพลายเออร์และนักพัฒนา AI จำเป็นต้องออกแบบระบบที่รับประกันความปลอดภัย หลีกเลี่ยงความเสี่ยงจากการรั่วไหลของข้อมูล เช่น การรั่วไหลผ่านช่องโหว่ที่เป็นอันตราย ช่องโหว่ของซอฟต์แวร์ที่นำไปสู่การโจมตีฐานข้อมูล การควบคุมที่ไม่ดีซึ่งนำไปสู่การวางยาพิษ และการใช้ในทางที่ผิดเพื่อตอบคำถามที่ทำให้เข้าใจผิดและบิดเบือน
ผู้ใช้ยังต้องควบคุมการแบ่งปันข้อมูลส่วนบุคคลกับ AI และไม่แบ่งปันข้อมูลที่ละเอียดอ่อน ในกรณีที่จำเป็นจริงๆ ควรใช้โหมดไม่ระบุตัวตนหรือเข้ารหัสข้อมูลอย่างจริงจัง เพื่อหลีกเลี่ยงการเชื่อมโยงกับบุคคลใดบุคคลหนึ่งโดยตรง
ที่มา: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
การแสดงความคิดเห็น (0)