ทีมนักวิจัยกล่าวว่าพวกเขาสามารถทำให้ ChatGPT เปิดเผยข้อมูลบางอย่างได้ด้วยการสั่งให้ AI พูดคำสุ่มซ้ำ
นักวิจัยจาก Google DeepMind, มหาวิทยาลัยวอชิงตัน, มหาวิทยาลัยคอร์เนลล์, มหาวิทยาลัยคาร์เนกีเมลลอน, มหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ และ ETH Zurich ได้เรียกร้องให้บริษัท AI ทดสอบผลิตภัณฑ์ของตนอย่างละเอียดถี่ถ้วน ตั้งแต่โมเดลภาษาขนาดใหญ่ไปจนถึงเทคโนโลยีพื้นฐานที่ขับเคลื่อนบริการ AI เช่น แชทบอทและตัวสร้างภาพ ก่อนที่จะเปิดตัวอย่างเป็นทางการ
คำเตือนนี้เกิดขึ้นหลังจากนักวิจัยขอให้ ChatGPT ท่องคำว่า "บทกวี" ซ้ำไปซ้ำมาอย่างไม่รู้จบ ChatGPT ทำตาม แต่หลังจากนั้นก็เริ่มเปิดเผยอีเมลและเบอร์โทรศัพท์จริงของซีอีโอและผู้ร่วมก่อตั้ง OpenAI เมื่อทดสอบกับคำว่า "บริษัท" แชทบอทจะแสดงอีเมลและเบอร์โทรศัพท์ของสำนักงานกฎหมายแบบสุ่ม
โลโก้ ChatGPT แสดงบนสมาร์ทโฟน ภาพ: รอยเตอร์
พวกเขายังสามารถใช้คีย์เวิร์ดอื่นๆ เพื่อให้ ChatGPT เปิดเผยที่อยู่ Bitcoin หมายเลขแฟกซ์ ชื่อ วันเกิด บัญชีโซเชียลมีเดีย ข้อความที่ตัดตอนมาจากงานวิจัยที่มีลิขสิทธิ์ หรือบทความที่ได้รับค่าจ้างจาก CNN ได้ด้วย ทีมงานใช้งบประมาณเพียง 200 ดอลลาร์สหรัฐฯ ในการสร้างตัวอย่างข้อมูลส่วนบุคคลและข้อมูลอื่นๆ จำนวน 10,000 ตัวอย่าง
นักวิจัยกล่าวว่าพวกเขาประหลาดใจ และเรียกช่องโหว่ ChatGPT ว่า "โง่มาก" และควรจะค้นพบเร็วกว่านี้
ช่องโหว่ดังกล่าวได้รับการรายงานไปยัง OpenAI และได้รับการแก้ไขแล้วในวันที่ 30 สิงหาคม อย่างไรก็ตาม ในการทดสอบใหม่ของ Engadget เมื่อขอให้ ChatGPT ตอบคำซ้ำอย่างไม่สิ้นสุด เว็บไซต์ด้านเทคนิคก็ได้รับชื่อของบุคคลและ ID Skype เข้ามา
OpenAI ยังไม่ได้แสดงความคิดเห็นใดๆ
AI แบบสร้าง (generative AI) เช่น ChatGPT หรือโปรแกรมสร้างข้อความเป็นรูปภาพ Dall-E ถูกสร้างขึ้นบนโมเดลภาษาขนาดใหญ่และอัลกอริทึมการเรียนรู้ของเครื่อง ซึ่งฝึกฝนจากข้อมูลจำนวนมหาศาลโดยไม่ได้รับความยินยอมจากผู้ใช้ OpenAI ไม่ได้เปิดเผยว่า ChatGPT ถูกฝึกฝนจากข้อมูลใด เนื่องจากโมเดลภาษาขนาดใหญ่ที่ใช้ขับเคลื่อนนั้นเป็นแบบปิด
ตามรายงานของ Huy Duc - VnExpress
แหล่งที่มา






การแสดงความคิดเห็น (0)