
ยักษ์ใหญ่ด้านเทคโนโลยีกำลังหันมาใช้โมเดล AI ที่ทันสมัยและประหยัดพลังงาน
ในช่วงไม่กี่ปีที่ผ่านมา อุตสาหกรรมปัญญาประดิษฐ์ (AI) ส่วนใหญ่ยึดถือหลักการ “ยิ่งใหญ่ยิ่งดี” นั่นคือ ยิ่งมีข้อมูลมากขึ้น มีพารามิเตอร์มากขึ้น และมีการคำนวณมากขึ้น อย่างไรก็ตาม งานวิจัยใหม่จาก Google, MIT และ Stanford แสดงให้เห็นทิศทางที่แตกต่างออกไปอย่างสิ้นเชิง
แบบจำลองสมัยใหม่สามารถฝึกอบรมได้อย่างมีประสิทธิภาพด้วยข้อมูลน้อยลง ใช้พลังงานน้อยลง และยังคงให้ประสิทธิภาพสูง วิธีนี้ไม่เพียงแต่ช่วยลดต้นทุนและเวลาในการฝึกอบรมเท่านั้น แต่ยังเปิดโอกาสให้ทีมวิจัยขนาดเล็กและวิสาหกิจขนาดกลางสามารถประยุกต์ใช้ AI ได้ ซึ่งก่อนหน้านี้มีปัญหาในการเข้าถึงเทคโนโลยีขนาดใหญ่
ความก้าวหน้าทางเทคโนโลยีช่วยให้ AI "เล็กแต่ทรงพลัง"
จาก การวิจัยของ Tuoi Tre Online พบว่าในการทดสอบการประมวลผลโฆษณา Google ได้ลดข้อมูลการฝึกอบรมจาก 100,000 ตัวอย่างเหลือเพียงไม่ถึง 500 ตัวอย่าง แต่ยังคงเพิ่มความเข้ากันได้กับผู้เชี่ยวชาญได้ถึง 65%
ในแบบคู่ขนาน การสำรวจที่ครอบคลุมเกี่ยวกับการฝึกอบรมการใช้ข้อมูลอย่างมีประสิทธิภาพแสดงให้เห็นว่า "คุณภาพของข้อมูล การสุ่มตัวอย่างอัจฉริยะ และเทคนิค 'การกลั่นกรอง' กำหนดประสิทธิภาพ" ไม่ใช่แค่เพิ่มจำนวนข้อมูลเท่านั้น
ในทางทฤษฎี “กฎการปรับขนาด” แนะนำว่าการเพิ่มพารามิเตอร์ของโมเดล ข้อมูล และการประมวลผลจะช่วยได้ แต่ผู้เชี่ยวชาญอย่าง Yann LeCun ผู้อำนวยการด้าน AI ที่ Meta เน้นย้ำว่า “คุณไม่สามารถเพิ่มข้อมูลและการประมวลผลแล้วทำให้ AI ฉลาดขึ้นโดยอัตโนมัติได้”
ซึ่งหมายความว่าแทนที่จะต้องสร้างและติดป้ายกำกับตัวอย่างตั้งแต่ล้านถึงพันล้านตัวอย่าง ทีมวิจัยกำลังมองหาวิธีนำข้อมูลกลับมาใช้ใหม่ สร้างข้อมูลสังเคราะห์ ใช้โมเดลขนาดเล็กกว่า และเน้นที่อัลกอริทึมที่ประหยัดพลังงานและใช้ข้อมูลมากขึ้น
ยกตัวอย่างเช่น เทคนิค “การกลั่นกรองความรู้” ช่วยให้สามารถถ่ายทอดความรู้จาก “ครู” (แบบจำลองครูขนาดใหญ่) ไปยัง “นักเรียน” (แบบจำลองนักเรียนขนาดกะทัดรัด) โดยยังคงรักษาความสามารถไว้มากมาย นักวิจัยที่ Stanford HAI เน้นย้ำว่าแนวโน้มนี้ทั้งคุ้มค่าในด้านการคำนวณและเป็นมิตรต่อสิ่งแวดล้อม ขณะเดียวกันก็เปิดโอกาสให้กลุ่มวิจัยขนาดเล็กหรือวิสาหกิจขนาดกลางและขนาดย่อมได้นำ AI ไปใช้อย่างมีประสิทธิภาพ
ความก้าวหน้าเหล่านี้ทำให้โมเดล AI สามารถใช้ข้อมูลน้อยลง ทำงานได้เร็วขึ้น ใช้พลังงานน้อยลง ลดต้นทุน เพิ่มความยั่งยืน และขยายแอปพลิเคชันไปยังสภาพแวดล้อมที่มีทรัพยากรจำกัดเพื่อมุ่งสู่การเพิ่มประสิทธิภาพอัจฉริยะ เรียนรู้ได้เร็วขึ้น ใช้ทรัพยากรน้อยลง และยังคงมั่นใจในคุณภาพ
การประยุกต์ใช้จริงและความท้าทายของการฝึกอบรม AI ที่มีประสิทธิภาพด้านข้อมูล
อันที่จริงแล้ว การฝึกอบรม AI ด้วยข้อมูลและพลังงานที่น้อยลงมีผลกระทบในวงกว้าง สำหรับธุรกิจขนาดเล็กหรือทีมวิจัยในประเทศกำลังพัฒนา การ "ใช้ตัวอย่างนับล้านและเซิร์ฟเวอร์ขนาดใหญ่" เป็นเรื่องที่เป็นไปไม่ได้ เมื่อมีคนสามารถฝึกอบรมแบบจำลองด้วยตัวอย่างเพียงไม่กี่พันตัวอย่างและคอมพิวเตอร์ธรรมดา แอปพลิเคชัน AI จะใกล้เคียงกับผู้ใช้ปลายทางและสภาพแวดล้อมจริงมากขึ้น
ตัวอย่างเช่น ในกล่องโต้ตอบการควบคุมโฆษณา Google แสดงให้เห็นว่าการเลือกตัวอย่างข้อมูล "ที่มีค่า" นั้นดีกว่าการเลือกตัวอย่างแบบสุ่มหลายแสนตัวอย่าง โดยลดปริมาณข้อมูลที่จำเป็นลง แต่ยังคงให้ผลลัพธ์ได้
อย่างไรก็ตาม ความท้าทายยังคงอยู่: เมื่อข้อมูลมีจำกัด แบบจำลองมีแนวโน้มที่จะเกิดการโอเวอร์ฟิตติ้ง การสรุปผลที่ไม่ดี และความยากลำบากในการจัดการกับการเปลี่ยนแปลงในสภาพแวดล้อม งานวิจัยเกี่ยวกับการเรียนรู้การถ่ายโอนภาพแสดงให้เห็นว่าเมื่อข้อมูลอินพุตมีจำกัดมาก การกลั่นกรองจะมีประสิทธิภาพมากกว่า แต่เมื่อข้อมูลมีขนาดใหญ่เพียงพอ วิธีการดั้งเดิมก็ยังคงชนะ
เมื่อพิจารณาถึงการใช้พลังงานและต้นทุน การลดข้อมูลยังหมายถึงการลดการคำนวณ เซิร์ฟเวอร์ และไฟฟ้า ซึ่งมีความสำคัญในบริบทของโมเดล AI ขนาดใหญ่ (LLM) ที่มีต้นทุนหลายล้านดอลลาร์ต่อการฝึกอบรมหนึ่งครั้ง
รายงานจาก Stanford HAI ระบุว่าแนวโน้มของ AI ที่ช่วยประหยัดข้อมูลและพลังงานกำลังได้รับการพิจารณาว่าเป็น "การเปลี่ยนแปลงครั้งใหญ่" ในปี 2025
สำหรับนักข่าวและผู้อ่านทั่วไป สิ่งที่น่าสังเกตก็คือ เมื่อ AI ไม่ได้มีไว้สำหรับ "ยักษ์ใหญ่ด้านเทคโนโลยี" อีกต่อไป แต่สามารถสร้างขึ้นโดยทีมเล็กๆ ที่มีข้อมูลน้อยลงและต้นทุนต่ำกว่า แอปพลิเคชันใหม่ๆ มากมายก็จะเกิดขึ้น ไม่ว่าจะเป็นการบริหารจัดการธุรกิจขนาดเล็ก แอปพลิเคชัน ทางการแพทย์ ระดับภูมิภาค ไปจนถึงการเรียนรู้แบบเฉพาะบุคคล
แต่ผู้ใช้ยังควรระมัดระวังด้วยว่าโมเดล "ข้อมูล" อาจมีความแม่นยำน้อยลงและมีแนวโน้มเกิดอคติได้มากขึ้นหากไม่ได้รับการควบคุมอย่างดี
ที่มา: https://tuoitre.vn/ai-khong-con-can-du-lieu-khong-lo-cuoc-dua-huan-luyen-ai-tiet-kiem-nang-luong-20251031115025169.htm






การแสดงความคิดเห็น (0)