Barron's อ้างอิงข้อมูลจาก Boston Consulting Group ระบุว่าภายในปี 2030 ศูนย์ข้อมูลจะใช้ไฟฟ้าที่มีทั้งหมดในสหรัฐอเมริกาถึง 7.5% ศูนย์ข้อมูลที่สร้างขึ้นสำหรับระบบ AI อาจใช้ไฟฟ้าได้หลายร้อยเมกะวัตต์ต่อศูนย์ข้อมูล ดังนั้นระบบจ่ายไฟฟ้าจึงไม่สามารถรองรับการเติบโตอย่างรวดเร็วของจำนวนศูนย์ข้อมูลได้อีกต่อไป
ความต้องการพลังงานมหาศาลในการให้บริการเซิร์ฟเวอร์ AI
จากการวิเคราะห์ พบว่าตั้งแต่ปี 2022 ถึงปี 2030 การใช้พลังงานของศูนย์ข้อมูลในสหรัฐอเมริกาจะเพิ่มขึ้นจาก 126 เป็น 390 เทราวัตต์ชั่วโมง ซึ่งเพียงพอต่อการจ่ายพลังงานให้กับครัวเรือนในสหรัฐอเมริกา 40 ล้านครัวเรือน
650 Group คาดการณ์ว่าปริมาณระบบเซิร์ฟเวอร์ที่ตอบสนองความต้องการด้าน AI จะเพิ่มขึ้นถึง 6 เท่าจากปีที่แล้วจนถึงปี 2028 เป็น 6 ล้านหน่วย อ้างอิงจากการคาดการณ์ของ Gartner การใช้พลังงานเฉลี่ยของเซิร์ฟเวอร์เร่งความเร็วจะเพิ่มขึ้นจาก 650 วัตต์เป็น 1,000 วัตต์
การใช้พลังงานจะเพิ่มขึ้นไม่เพียงแต่จากจำนวนเซิร์ฟเวอร์ที่เพิ่มขึ้นเท่านั้น แต่ยังรวมถึงสภาพแวดล้อมด้วย ความพยายามในการเพิ่มประสิทธิภาพต้นทุนพลังงานโดยการนำ AI มาใช้ในด้านการควบคุมการใช้พลังงานจะช่วยจำกัดแนวโน้มนี้ แต่จะไม่สามารถแก้ไขปัญหาได้อย่างสมบูรณ์ การเปลี่ยนมาใช้ระบบระบายความร้อนด้วยของเหลวในระบบเซิร์ฟเวอร์จะเป็นสิ่งที่หลีกเลี่ยงไม่ได้ในกรณีส่วนใหญ่ Super Micro ระบุว่าสามารถลดต้นทุนการดำเนินงานศูนย์ข้อมูลได้มากกว่า 40% ด้วยการเปลี่ยนจากระบบระบายความร้อนด้วยอากาศแบบเดิมมาใช้ระบบระบายความร้อนด้วยของเหลว
ปัญหายิ่งทวีความรุนแรงขึ้นจากการพัฒนาโครงข่ายไฟฟ้าในภูมิภาคที่ไม่สม่ำเสมอ นอกจากนี้ ไม่ใช่ทุกพื้นที่จะสามารถส่งกระแสไฟฟ้าที่ผลิตได้ไปยังระบบขนาดใหญ่ที่ใช้พลังงานอย่างมีประสิทธิภาพ ผู้เชี่ยวชาญกล่าวว่าสหรัฐอเมริกาผลิตไฟฟ้าได้เพียงพอที่จะสนับสนุนการพัฒนาระบบ AI แต่โครงข่ายไฟฟ้ากำลังมีปัญหา
ลิงค์ที่มา
การแสดงความคิดเห็น (0)