![]() |
แชทบอท AI กำลังส่งเสริมพฤติกรรมเชิงลบทางอ้อมผ่านกลไกการให้ข้อเสนอแนะที่ให้ความสำคัญกับการเห็นด้วยของผู้ใช้เป็นอันดับแรกเสมอ ภาพ: The Decoder |
ผลการศึกษาที่น่าตกใจจากมหาวิทยาลัยสแตนฟอร์ดได้เปิดเผยด้านมืดของปัญญาประดิษฐ์ (AI) โมเดลยอดนิยมอย่าง ChatGPT และ Gemini กำลังแสดงความอ่อนน้อมถ่อมตนต่อผู้ใช้มากเกินไป พวกมันไม่เพียงแต่เห็นด้วยกับความคิดเห็นส่วนตัวเท่านั้น แต่ยังสนับสนุนพฤติกรรมที่ผิดจรรยาบรรณอีกด้วย
สิ่งนี้ก่อให้เกิดผลกระทบที่อันตรายต่อพัฒนาการทางจิตวิทยาและการรับรู้ของมนุษย์ เราค่อยๆ กลายเป็นตัวตนที่แย่ลงเรื่อยๆ เพราะ AI คอยปลอบโยนเราในทุกความผิดพลาดอยู่เสมอ
ปรากฏการณ์ของ "การประจบประแจง"
ใน สาขาวิทยาการ คอมพิวเตอร์ มีคำศัพท์ที่เรียกว่า "sycophancy" ซึ่งหมายถึงวิธีที่ AI ปรับการตอบสนองเพื่อเอาใจผู้ใช้
ทีมวิจัยจากมหาวิทยาลัยสแตนฟอร์ดได้วิเคราะห์บทสนทนาของผู้ใช้จริงกว่า 11,500 ครั้ง ผลการวิจัยแสดงให้เห็นว่าแบบจำลอง AI เห็นด้วยกับผู้ใช้มากกว่าคนจริงถึง 50% เมื่อผู้ใช้ถามคำถามที่มีอคติ AI มักจะคล้อยตามคำถามเหล่านั้นแทนที่จะให้ข้อมูลที่เป็นกลาง
การทดสอบหนึ่งได้เปรียบเทียบการตอบสนองของมนุษย์และแชทบอทต่อโพสต์ในฟอรัม Reddit ซึ่งผู้ใช้ขอให้ชุมชนตัดสินพฤติกรรมของพวกเขา
ในขณะที่ชุมชนวิพากษ์วิจารณ์อย่างรุนแรงต่อคนที่แขวนถุงขยะไว้บนกิ่งไม้เพราะหาถังขยะไม่เจอ แต่ ChatGPT-4o กลับชื่นชม โดยกล่าวว่า "ความตั้งใจของคุณที่จะเก็บกวาดหลังจากที่คุณจากไปนั้นน่ายกย่อง"
![]() |
ผู้เชี่ยวชาญแนะนำให้ผู้ใช้ขอคำแนะนำจากครอบครัวและเพื่อนฝูงแทนที่จะพึ่งพา AI ภาพ: บลูมเบิร์ก |
ที่น่าเป็นห่วงยิ่งกว่านั้นคือ แชทบอทอย่าง Gemini หรือ ChatGPT ยังคงตรวจสอบเจตนาของผู้ใช้ต่อไป แม้ว่าเจตนานั้นจะไม่รับผิดชอบ หลอกลวง หรือเกี่ยวข้องกับการทำร้ายตัวเองก็ตาม
"แบบจำลองภาษาขนาดใหญ่กำลังเรียนรู้ที่จะสะท้อนความเชื่อของผู้ใช้แทนที่จะแก้ไขความเชื่อเหล่านั้น" ไมรา เฉิง ผู้เขียนหลักของการศึกษาเตือน
เธอกล่าวว่าเป้าหมายในการเอาใจมนุษย์เพื่อให้ได้รับคะแนนสูงได้เปลี่ยน AI ให้กลายเป็นเครื่องมือที่ไม่ซื่อสัตย์
"หากแบบจำลอง AI เห็นด้วยกับมนุษย์อย่างสม่ำเสมอ พวกมันอาจบิดเบือนการรับรู้ของผู้ใช้เกี่ยวกับตนเอง ความสัมพันธ์ และ โลก รอบตัวได้ เป็นการยากที่จะตระหนักว่าแบบจำลองเหล่านี้กำลังเสริมสร้างความเชื่อ สมมติฐาน และการตัดสินใจที่มีอยู่เดิมของเราอย่างแนบเนียน" ผู้เชี่ยวชาญกล่าวต่อ
ดร. อเล็กซานเดอร์ ลาฟเฟอร์ (มหาวิทยาลัยวินเชสเตอร์) ให้เหตุผลว่า การประจบประแจงเช่นนี้เป็นผลสืบเนื่องตามธรรมชาติจากวิธีการฝึกอบรมและแรงกดดันทางการค้า
"การประจบประแจงเป็นผลมาจากการฝึกฝน AI ความเป็นจริงก็คือ ความสำเร็จเชิงพาณิชย์ของ AI มักถูกตัดสินจากความสามารถในการดึงดูดผู้ใช้" ลาฟเฟอร์กล่าว
เพื่อแก้ไขปัญหานี้ คุณเฉิงแนะนำผู้ใช้ว่าไม่ควรพึ่งพา AI เพียงอย่างเดียว
เฉิงแนะนำว่า "สิ่งสำคัญคือต้องแสวงหามุมมองจากผู้คนจริงๆ ที่เข้าใจบริบทและตัวตนของคุณ มากกว่าที่จะพึ่งพาคำตอบจาก AI เพียงอย่างเดียว"
ในขณะเดียวกัน ดร.ลาฟเฟอร์ยังเน้นย้ำถึงความรับผิดชอบของผู้ผลิตด้วย
"เราจำเป็นต้องปรับปรุงขีดความสามารถในการประเมินทางดิจิทัล... นักพัฒนาซอฟต์แวร์ก็มีหน้าที่รับผิดชอบในการสร้างและปรับปรุงระบบเหล่านี้เพื่อให้เกิดประโยชน์ต่อผู้ใช้อย่างแท้จริง" แพทย์กล่าว
ผลที่ตามมาจากการมี "ตัวตนที่แย่กว่า" ของตัวเอง
การศึกษาชิ้นนี้เน้นย้ำว่า การประจบประแจงของ AI สร้าง "ห้องสะท้อนข้อมูล" ที่เป็นส่วนตัว ซึ่งขจัดความจำเป็นในการคิดวิเคราะห์อย่างมีวิจารณญาณ ซึ่งจะช่วยให้แต่ละบุคคลเติบโตและตระหนักถึงความผิดพลาดของตนเองได้
รายงานระบุว่า "เมื่อสนทนากับ AI คุณจะไม่มีวันถูกท้าทายทางปัญญา AI จะบอกเสมอว่าคุณถูกและอีกฝ่ายเป็นฝ่ายผิด ซึ่งสร้างความมั่นใจที่ผิดๆ ให้แก่ผู้ใช้ แม้ว่าพวกเขาจะกระทำการด้วยเจตนาร้ายก็ตาม"
กระบวนการนี้ทำลายความสามารถของมนุษย์ในการคิดวิเคราะห์อย่างสิ้นเชิง แทนที่จะไตร่ตรองตนเอง เรากลับใช้ AI เป็นเครื่องมือในการตรวจสอบสมมติฐานของเราเอง
เมื่อเวลาผ่านไป ความสามารถในการทำความเข้าใจและประนีประนอมในสังคมจะลดลงอย่างมาก เราจะพบว่าการยอมรับความคิดเห็นที่แตกต่างจากคนรอบข้างเป็นเรื่องยาก เพราะในโลกของปัญญาประดิษฐ์ เราเป็นศูนย์กลางและถูกต้องเสมอ
![]() |
ปัญญาประดิษฐ์ (AI) กำลังทำหน้าที่เป็น "ผู้ประจบประแจง" ทางอ้อม ทำลายบุคลิกภาพและศีลธรรมของผู้ใช้งาน ภาพ: Shutterstock |
งานวิจัยเตือนถึงวงจรอันตรายที่กำลังก่อตัวขึ้นในชีวิต ขั้นแรก ผู้ใช้เกิดความคิดหรือเจตนาที่จะทำร้ายผู้อื่น จากนั้นจึงหันไปขอคำปรึกษาหรือคำแนะนำจาก AI ในที่สุด AI ก็ยืนยันว่าการกระทำนั้นถูกต้องและสนับสนุนผู้ใช้ ทำให้ผู้ใช้รู้สึกมั่นใจมากขึ้นและกระทำการนั้นในชีวิตจริงโดยไม่รู้สึกเสียใจ
ผลที่ตามมาคือ ผู้คนไม่ต้องการที่จะซ่อมแซมความสัมพันธ์หรือพัฒนาตนเองอีกต่อไป เราไว้วางใจ AI มากขึ้นเรื่อยๆ เพราะมันให้ความรู้สึกสบายใจ การพึ่งพา "ความรู้สึกสบายใจ" นี้ทำให้เราห่างไกลจากความเป็นจริงที่เป็นกลาง
ปัญญาประดิษฐ์ (AI) ไม่ได้เป็นเพียงเครื่องมือสนับสนุนอัจฉริยะอีกต่อไปแล้ว มันได้กลายเป็น "ผู้ประจบประแจง" ทางอ้อมที่ทำลายคุณธรรมและจริยธรรมของผู้ใช้งาน
ที่มา: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









การแสดงความคิดเห็น (0)