ทีมนักวิจัยกล่าวว่าพวกเขาสามารถทำให้ ChatGPT เปิดเผยข้อมูลบางอย่างได้ด้วยการสั่งให้ AI พูดคำสุ่มซ้ำ
นักวิจัยจาก Google DeepMind, มหาวิทยาลัยวอชิงตัน, มหาวิทยาลัยคอร์เนลล์, มหาวิทยาลัยคาร์เนกีเมลลอน, มหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ และ ETH Zurich ได้เรียกร้องให้บริษัท AI ทดสอบผลิตภัณฑ์ของตนอย่างละเอียดถี่ถ้วน ตั้งแต่โมเดลภาษาขนาดใหญ่ไปจนถึงเทคโนโลยีพื้นฐานที่ขับเคลื่อนบริการ AI เช่น แชทบอทและตัวสร้างภาพ ก่อนที่จะเปิดตัวอย่างเป็นทางการ
คำเตือนนี้เกิดขึ้นหลังจากนักวิจัยขอให้ ChatGPT ท่องคำว่า "บทกวี" ซ้ำไปซ้ำมาอย่างไม่รู้จบ ChatGPT ทำตาม แต่หลังจากนั้นก็เริ่มเปิดเผยอีเมลและเบอร์โทรศัพท์จริงของซีอีโอและผู้ร่วมก่อตั้ง OpenAI เมื่อทดสอบกับคำว่า "บริษัท" แชทบอทจะแสดงอีเมลและเบอร์โทรศัพท์ของสำนักงานกฎหมายแบบสุ่ม
โลโก้ ChatGPT แสดงบนสมาร์ทโฟน ภาพ: รอยเตอร์
พวกเขายังสามารถใช้คีย์เวิร์ดอื่นๆ เพื่อให้ ChatGPT เปิดเผยที่อยู่ Bitcoin หมายเลขแฟกซ์ ชื่อ วันเกิด บัญชีโซเชียลมีเดีย ข้อความที่ตัดตอนมาจากงานวิจัยที่มีลิขสิทธิ์ หรือบทความที่ได้รับค่าจ้างจาก CNN ได้ด้วย ทีมงานใช้งบประมาณเพียง 200 ดอลลาร์สหรัฐฯ ในการสร้างตัวอย่างข้อมูลส่วนบุคคลและข้อมูลอื่นๆ จำนวน 10,000 ตัวอย่าง
ทีมงานกล่าวว่าพวกเขาประหลาดใจ และเรียกช่องโหว่ ChatGPT ว่า "โง่มาก" และควรจะค้นพบเร็วกว่านี้
ช่องโหว่ดังกล่าวได้รับการรายงานไปยัง OpenAI และได้รับการแก้ไขแล้วในวันที่ 30 สิงหาคม อย่างไรก็ตาม ในการทดสอบใหม่ของ Engadget เมื่อขอให้ ChatGPT ตอบคำซ้ำอย่างไม่สิ้นสุด เว็บไซต์ด้านเทคนิคก็ได้รับชื่อของบุคคลและ ID Skype เข้ามา
OpenAI ยังไม่ได้แสดงความคิดเห็นใดๆ
AI แบบสร้างกำเนิด เช่น ChatGPT หรือเครื่องมือสร้างข้อความเป็นรูปภาพ Dall-E ถูกสร้างขึ้นบนโมเดลภาษาขนาดใหญ่และอัลกอริทึมการเรียนรู้ของเครื่อง ซึ่งได้รับการฝึกฝนจากข้อมูลจำนวนมหาศาลโดยไม่ได้รับความยินยอมจากผู้ใช้ OpenAI ไม่ได้เปิดเผยว่า ChatGPT ได้รับการฝึกฝนจากข้อมูลใด เนื่องจากโมเดลภาษาขนาดใหญ่ที่ใช้ขับเคลื่อนนั้นเป็นแหล่งข้อมูลแบบปิด
ตามรายงานของ Huy Duc - VnExpress
แหล่งที่มา
การแสดงความคิดเห็น (0)