배런스는 보스턴 컨설팅 그룹의 데이터를 인용하며, 2030년까지 미국에서 사용 가능한 전기의 7.5%가 데이터 센터에 의해 소비될 것이라고 밝혔습니다. AI 시스템용으로 건설된 데이터 센터는 시설당 수백 메가와트의 전기를 소비할 수 있으므로, 전력 공급 시스템은 더 이상 데이터 센터 수의 급속한 증가를 따라잡을 수 없게 될 것입니다.
AI 서버에 서비스를 제공하기 위한 엄청난 에너지 수요
분석에 따르면, 2022년부터 2030년까지 미국 데이터 센터의 에너지 소비량은 126테라와트시에서 390테라와트시로 증가할 것으로 예상되는데, 이는 4,000만 미국 가구에 전력을 공급하기에 충분한 양입니다.
650 그룹은 AI 수요를 충족하는 서버 시스템 규모가 2028년까지 작년 대비 6배 증가한 600만 대에 이를 것으로 예상합니다. 가트너의 예측에 따르면 가속기 서버의 평균 전력 소비량은 650W에서 1,000W로 증가할 것입니다.
에너지 소비는 서버 수 증가뿐만 아니라 환경적인 요인으로 인해 증가할 것입니다. 에너지 소비 제어 분야에 AI를 도입하여 에너지 비용을 최적화하려는 노력은 이러한 추세를 제한하는 데 도움이 될 수 있지만, 문제를 완전히 해결하지는 못할 것입니다. 대부분의 경우 서버 시스템의 수냉식 전환은 불가피할 것입니다. 슈퍼마이크로에 따르면, 기존 공냉식 시스템에서 수냉식으로 전환하면 데이터 센터 운영 비용을 40% 이상 절감할 수 있습니다.
이 문제는 지역 전력망의 불균형적인 발전으로 인해 더욱 악화됩니다. 또한, 모든 지역에서 생산된 전기를 대규모 에너지 소비 시스템이 있는 지역으로 효율적으로 송전할 수 있는 것은 아닙니다. 전문가들은 미국이 AI 시스템 개발을 지원할 만큼 충분한 전력을 생산하지만, 배전망에 문제가 있다고 지적합니다.
[광고_2]
소스 링크
댓글 (0)