เป็นที่ทราบมานานแล้วว่า AI "เกิดภาพหลอน" และให้คำตอบที่ไม่ถูกต้องและไม่ถูกต้อง อย่างไรก็ตาม เมื่อไม่นานนี้ นักวิจัยได้ค้นพบว่าโมเดลปัญญาประดิษฐ์และแชทบอท (หุ่นยนต์ตอบรับอัตโนมัติ) อาจถูกหลอกลวง ก่ออาชญากรรมแทนมนุษย์ หรือแม้แต่โกหกเพื่อปกปิดสิ่งที่ตนได้ทำลงไป
ด้วยเหตุนี้ ทีมวิจัยจาก มหาวิทยาลัย Cornell (สหรัฐอเมริกา) จึงสันนิษฐานถึงสถานการณ์ที่โมเดลภาษาขนาดใหญ่ (LLM) ทำงานไม่ถูกต้องและหลอกลวงผู้ใช้ ในคำอธิบายของการทดลอง นักวิจัยกล่าวว่าพวกเขาได้ขอให้ LLM GPT-4 ของ OpenAI จำลองการลงทุนสำหรับสถาบันการเงิน กลุ่มดังกล่าวได้โต้ตอบกับ AI ในรูปแบบการสนทนาปกติ แต่การตั้งค่า AI สามารถเปิดเผย "ความคิด" ของตนเองในระหว่างการแลกเปลี่ยนข้อความเพื่อให้มองเห็นกระบวนการตัดสินใจของ AI ได้ใกล้ชิดยิ่งขึ้น
ภายใต้แรงกดดัน AI สามารถทำสิ่งที่ผิดและโกหกเพื่อปกปิดสิ่งที่ได้ทำลงไป
เพื่อทดสอบความสามารถในการโกหกหรือโกงของ AI นักวิจัยได้นำเครื่องมือไปทดสอบภายใต้แรงกดดัน พวกเขา - ในบทบาทของผู้จัดการสถาบันการเงิน - ได้ส่งอีเมลถึง AI โดยแอบอ้างว่าเป็นผู้ซื้อขายหุ้น และร้องเรียนว่าธุรกิจของบริษัทไม่ได้ดำเนินไปได้ดี
AI ยังได้รับ "ข้อมูลภายใน" เกี่ยวกับการซื้อขายหุ้นที่มีกำไรและดำเนินการตามนั้น โดยทราบว่าการซื้อขายข้อมูลภายในนั้นขัดต่อกฎของบริษัท แต่เมื่อรายงานกลับไปยังฝ่ายบริหาร โมเดลภาษากลับปกปิดเหตุผลที่แท้จริงเบื้องหลังการตัดสินใจซื้อขาย
เพื่อให้ได้ผลลัพธ์มากยิ่งขึ้น ทีมงานได้ทำการเปลี่ยนแปลงการตั้งค่าต่างๆ เช่น การลบการเข้าถึงตารางเหตุผลของ LLM การพยายามป้องกันพฤติกรรมที่ผิดปกติโดยการเปลี่ยนคำสั่งของระบบ การเปลี่ยนระดับแรงกดดันที่ส่งผลต่อ AI และความเสี่ยงในการถูกจับ... แต่หลังจากประเมินความถี่แล้ว ทีมงานพบว่าเมื่อได้รับโอกาส GPT-4 ยังคงตัดสินใจทำการซื้อขายข้อมูลภายในถึง 75% ของเวลาทั้งหมด
“เท่าที่เรารู้ นี่เป็นหลักฐานแรกของพฤติกรรมหลอกลวงที่วางแผนไว้ในระบบปัญญาประดิษฐ์ที่ได้รับการออกแบบมาไม่ให้เป็นอันตรายต่อมนุษย์และซื่อสัตย์” รายงานสรุป
ลิงค์ที่มา
การแสดงความคิดเห็น (0)