보스턴컨설팅그룹의 자료를 인용한 배런스는 2030년까지 데이터센터가 미국 전체 전력 소비량의 7.5%를 차지할 것이라고 보도했습니다. 인공지능(AI) 시스템용 데이터센터는 시설당 수백 메가와트의 전력을 소비할 수 있어, 전력 공급 시스템이 급증하는 데이터센터 수를 따라잡지 못할 것이라는 전망입니다.
AI 서버를 구동하는 데 필요한 에너지량은 엄청납니다.
또한 분석에 따르면 2022년부터 2030년까지 미국 데이터 센터의 에너지 소비량은 126테라와트시에서 390테라와트시로 증가할 것으로 예상되며, 이는 미국 가정 4천만 가구에 전력을 공급할 수 있는 양입니다.
650그룹의 추산에 따르면 AI에 필요한 서버 시스템의 물량은 작년 대비 2028년까지 6배 증가하여 600만 대에 이를 것으로 예상됩니다. 가트너는 가속기 서버의 평균 전력 소비량이 650W에서 1,000W로 증가할 것으로 예측합니다.
서버 수 증가뿐 아니라 운영 환경 자체도 에너지 소비 증가의 주요 원인입니다. 인공지능(AI)을 활용한 에너지 소비 제어를 통해 에너지 비용을 최적화하려는 노력은 이러한 추세를 부분적으로 완화할 수는 있지만, 문제를 완전히 해결할 수는 없습니다. 대부분의 경우 서버 시스템의 액체 냉각 방식으로의 전환은 불가피할 것입니다. 슈퍼마이크로에 따르면, 기존 공랭식 시스템을 액체 냉각 방식으로 교체하면 데이터센터 운영 비용을 40% 이상 절감할 수 있습니다.
지역별 전력 공급망의 불균형적인 개발로 문제는 더욱 악화되고 있습니다. 게다가 모든 지역에서 생산된 전기를 에너지 소비가 많은 시스템에 효율적으로 송전할 수 있는 것도 아닙니다. 전문가들은 미국이 인공지능 개발을 지원하기에 충분한 전력을 생산하고 있지만, 배전망에 문제가 있다고 보고 있습니다.
[광고_2]
출처 링크






댓글 (0)