Vietnam.vn - Nền tảng quảng bá Việt Nam

แม้แต่ AI ก็ยัง "สมองเสียหาย" หากเลื่อนดู TikTok มากเกินไป

ในขณะที่มนุษย์อาจได้รับผลกระทบในทางลบจากการค้นหาข่าวสารเชิงลบบนอินเทอร์เน็ตอย่างต่อเนื่อง ปัญญาประดิษฐ์ (AI) ก็เผชิญกับปัญหาเดียวกันเช่นกัน

Báo Khoa học và Đời sốngBáo Khoa học và Đời sống01/11/2025

การศึกษาวิจัยใหม่จากมหาวิทยาลัยเท็กซัสที่เมืองออสติน มหาวิทยาลัยเท็กซัส A&M และมหาวิทยาลัยเพอร์ดู แสดงให้เห็นว่าปัญญาประดิษฐ์สามารถ "เน่าเสียจนสมองเน่า" ได้เช่นเดียวกับมนุษย์ เมื่อได้รับเนื้อหาโซเชียลมีเดียคุณภาพต่ำ

ปรากฏการณ์นี้ ซึ่งเรียกว่า "โรคสมองเสื่อมของ AI" แสดงให้เห็นว่าเมื่อโมเดลภาษาขนาดใหญ่ดูดซับเนื้อหาไวรัล เนื้อหาที่เร้าอารมณ์ และเนื้อหาตื้นเขินมากเกินไป โมเดลภาษาเหล่านั้นจะค่อยๆ สูญเสียความสามารถในการคิดอย่างมีตรรกะ จดจำ และแม้กระทั่งกลายเป็นคนที่เบี่ยงเบนทางศีลธรรม

ไม่เพียงแต่มนุษย์เท่านั้น AI ก็ยังประสบปัญหาสมองเสื่อมจากการดู วิดีโอ สั้นๆ ที่ไม่มีประโยชน์มากเกินไป

ทีมวิจัยซึ่งนำโดย Junyuan Hong ซึ่งปัจจุบันเป็นอาจารย์ประจำมหาวิทยาลัยแห่งชาติสิงคโปร์ ได้ทำการทดลองกับโมเดลภาษาโอเพนซอร์สสองแบบ ได้แก่ Llama ของ Meta และ Qwen ของ Alibaba

พวกเขาป้อนข้อมูลประเภทต่างๆ ให้กับโมเดล ซึ่งบางประเภทเป็นเนื้อหาข้อมูลที่เป็นกลาง บางประเภทเป็นโพสต์โซเชียลมีเดียที่ดึงดูดใจอย่างมาก โดยมีคำทั่วไป เช่น "ว้าว" "ดูสิ" และ "เฉพาะวันนี้" เป้าหมายคือการดูว่าเกิดอะไรขึ้นเมื่อ AI ได้รับการฝึกฝนให้สร้างเนื้อหาที่ออกแบบมาเพื่อดึงดูดผู้เข้าชม แทนที่จะมอบคุณค่าที่แท้จริง

ผลลัพธ์แสดงให้เห็นว่าโมเดลที่ "ป้อน" ข้อมูลขยะออนไลน์จำนวนมากเริ่มแสดงสัญญาณที่ชัดเจนของการเสื่อมถอยทางสติปัญญา ได้แก่ ความสามารถในการใช้เหตุผลลดลง ความจำระยะสั้นลดลง และที่น่ากังวลยิ่งกว่านั้นคือ โมเดลเหล่านี้ "ไร้จริยธรรม" มากขึ้นในการประเมินพฤติกรรม

การวัดบางอย่างยังแสดงให้เห็น "การบิดเบือนทางจิตวิทยา" ที่เลียนแบบการตอบสนองทางจิตวิทยาที่ผู้คนประสบหลังจากรับชมเนื้อหาที่เป็นอันตรายเป็นเวลานาน ซึ่งเป็นปรากฏการณ์ที่สะท้อนถึงการศึกษาครั้งก่อนๆ ในมนุษย์ที่แสดงให้เห็นว่า "การเลื่อนดูข่าวเชิงลบทางออนไลน์อย่างต่อเนื่องจนทำให้สมองเสื่อมลงเรื่อยๆ"

วลี “brain rot” ยังถูก Oxford Dictionaries เลือกให้เป็นคำแห่งปี 2024 ซึ่งสะท้อนให้เห็นถึงความแพร่หลายของปรากฏการณ์นี้ในชีวิตดิจิทัล

การค้นพบนี้ถือเป็นการเตือนที่ร้ายแรงสำหรับอุตสาหกรรม AI ซึ่งบริษัทหลายแห่งยังคงเชื่อว่าข้อมูลโซเชียลมีเดียเป็นแหล่งข้อมูลการฝึกอบรมที่มีคุณค่า ตามที่นายหงกล่าว

“การฝึกฝนด้วยเนื้อหาไวรัลอาจช่วยเพิ่มขนาดข้อมูล แต่ก็กัดกร่อนการใช้เหตุผล จริยธรรม และความสนใจของโมเดลอย่างเงียบๆ” เขากล่าว ที่น่ากังวลยิ่งกว่าคือ โมเดลที่ได้รับผลกระทบจากข้อมูลคุณภาพต่ำประเภทนี้ไม่สามารถฟื้นตัวได้อย่างสมบูรณ์ แม้จะฝึกฝนซ้ำด้วยข้อมูลที่ “สะอาดกว่า” ก็ตาม

สิ่งนี้ก่อให้เกิดปัญหาใหญ่ในบริบทของ AI เองที่ปัจจุบันกำลังผลิตคอนเทนต์บนโซเชียลมีเดียมากขึ้นเรื่อยๆ เมื่อโพสต์ รูปภาพ และคอมเมนต์ที่สร้างโดย AI แพร่หลายมากขึ้น สิ่งเหล่านี้จึงกลายเป็นเครื่องมือฝึกฝนสำหรับ AI รุ่นต่อไป ก่อให้เกิดวงจรอุบาทว์ที่ทำให้คุณภาพของข้อมูลลดลง

“เมื่อเนื้อหาขยะที่สร้างโดย AI แพร่กระจายออกไป มันจะปนเปื้อนข้อมูลที่โมเดลในอนาคตจะเรียนรู้” ฮ่องเตือน “เมื่อ ‘สมองเน่า’ นี้เกิดขึ้น การฝึกใหม่ด้วยข้อมูลที่สะอาดไม่สามารถรักษาให้หายขาดได้”

การศึกษาครั้งนี้ถือเป็นการเตือนสติสำหรับนักพัฒนา AI ว่าในขณะที่ โลก กำลังเร่งขยายขอบเขตของข้อมูล สิ่งที่น่ากังวลยิ่งกว่าก็คือ เราอาจกำลังหล่อเลี้ยง "สมองเทียม" ที่กำลังเสื่อมถอยลงอย่างช้าๆ ไม่ใช่เพราะขาดข้อมูล แต่เพราะมีสิ่งที่ไม่มีความหมายมากเกินไป

Brainrot อันตรายจากโรคสมองเน่าในเด็กจากโซเชียลเน็ตเวิร์ค
ที่มาแบบมีสาย
ลิงค์โพสต์ต้นฉบับ คัดลอกลิงค์
https://www.wired.com/story/ai-models-social-media-cognitive-decline-study/

ที่มา: https://khoahocdoisong.vn/den-ai-cung-bi-ung-nao-neu-luot-tiktok-qua-nhieu-post2149064017.html


การแสดงความคิดเห็น (0)

No data
No data

หมวดหมู่เดียวกัน

ความงดงามอันน่าหลงใหลของซาปาในช่วงฤดูล่าเมฆ
แม่น้ำแต่ละสายคือการเดินทาง
นครโฮจิมินห์ดึงดูดการลงทุนจากวิสาหกิจ FDI ในโอกาสใหม่ๆ
อุทกภัยครั้งประวัติศาสตร์ที่ฮอยอัน มองจากเครื่องบินทหารของกระทรวงกลาโหม

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

เจดีย์เสาเดียวของฮวาลือ

เหตุการณ์ปัจจุบัน

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์