อ้างอิงข้อมูลจาก Boston Consulting Group บาร์รอนส์ระบุว่าศูนย์ข้อมูลจะใช้พลังงานไฟฟ้าถึง 7.5% ของพลังงานไฟฟ้าทั้งหมดที่มีอยู่ในสหรัฐอเมริกาภายในปี 2030 ศูนย์ข้อมูลที่สร้างขึ้นสำหรับระบบ AI อาจใช้พลังงานไฟฟ้าหลายร้อยเมกะวัตต์ต่อแห่ง ซึ่งหมายความว่าระบบจ่ายไฟฟ้าจะไม่สามารถรองรับการเติบโตอย่างรวดเร็วของจำนวนศูนย์ข้อมูลได้อีกต่อไป
เซิร์ฟเวอร์ AI ต้องการพลังงานมหาศาลในการใช้งาน
การวิเคราะห์ยังชี้ให้เห็นว่า ตั้งแต่ปี 2022 ถึง 2030 การใช้พลังงานของศูนย์ข้อมูลในสหรัฐอเมริกาจะเพิ่มขึ้นจาก 126 เป็น 390 เทราวัตต์-ชั่วโมง ซึ่งเป็นปริมาณไฟฟ้าที่เพียงพอสำหรับครัวเรือนชาวอเมริกัน 40 ล้านครัวเรือน
จากข้อมูลประมาณการของ 650 Group คาดว่าปริมาณระบบเซิร์ฟเวอร์ที่รองรับความต้องการด้าน AI จะเพิ่มขึ้นถึงหกเท่าจากปีที่แล้วจนถึงปี 2028 โดยจะแตะระดับ 6 ล้านเครื่อง ขณะที่ Gartner คาดการณ์ว่าการใช้พลังงานเฉลี่ยของเซิร์ฟเวอร์เร่งความเร็วจะเพิ่มขึ้นจาก 650 วัตต์เป็น 1,000 วัตต์
การใช้พลังงานจะเพิ่มขึ้นไม่เพียงเพราะจำนวนเซิร์ฟเวอร์ที่เพิ่มขึ้นเท่านั้น แต่ยังรวมถึงสภาพแวดล้อมด้วย ความพยายามในการเพิ่มประสิทธิภาพต้นทุนด้านพลังงานผ่านการประยุกต์ใช้ AI ในการควบคุมการใช้พลังงานจะช่วยบรรเทาแนวโน้มนี้ได้บางส่วน แต่จะไม่สามารถแก้ปัญหาได้อย่างสมบูรณ์ การเปลี่ยนไปใช้ระบบระบายความร้อนด้วยของเหลวสำหรับระบบเซิร์ฟเวอร์นั้นเป็นสิ่งที่หลีกเลี่ยงไม่ได้ในกรณีส่วนใหญ่ จากข้อมูลของ Super Micro ต้นทุนการดำเนินงานของศูนย์ข้อมูลสามารถลดลงได้มากกว่า 40% โดยการกำจัดระบบระบายความร้อนด้วยอากาศแบบดั้งเดิมและหันมาใช้ระบบระบายความร้อนด้วยของเหลวแทน
ปัญหาดังกล่าวทวีความรุนแรงขึ้นไปอีกเนื่องจากการพัฒนาเครือข่ายการจ่ายไฟฟ้าในภูมิภาคที่ไม่สม่ำเสมอ นอกจากนี้ สถานที่บางแห่งไม่สามารถส่งกระแสไฟฟ้าที่ผลิตได้ไปยังสถานที่ใช้งานระบบที่ใช้พลังงานสูงได้อย่างมีประสิทธิภาพ ผู้เชี่ยวชาญเชื่อว่าสหรัฐอเมริกาผลิตกระแสไฟฟ้าได้เพียงพอที่จะสนับสนุนการพัฒนา AI แต่เครือข่ายการกระจายไฟฟ้ากลับมีปัญหา
[โฆษณา_2]
ลิงก์แหล่งที่มา






การแสดงความคิดเห็น (0)