Mengutip data dari Boston Consulting Group, Barron's menyatakan bahwa pusat data akan mengonsumsi 7,5% dari total listrik yang tersedia di AS pada tahun 2030. Pusat data yang dibangun untuk sistem AI dapat mengonsumsi ratusan megawatt listrik per fasilitas, yang berarti sistem pasokan listrik tidak akan lagi mampu mengimbangi pertumbuhan pesat jumlah pusat data.
Kebutuhan energi untuk menjalankan server AI sangat besar.
Analisis tersebut juga menunjukkan bahwa dari tahun 2022 hingga 2030, konsumsi energi pusat data di AS akan meningkat dari 126 menjadi 390 terawatt-jam, jumlah listrik yang cukup untuk memasok kebutuhan 40 juta rumah tangga Amerika.
Estimasi dari 650 Group menunjukkan bahwa volume sistem server yang memasok kebutuhan AI akan meningkat enam kali lipat dari tahun lalu hingga 2028, mencapai 6 juta unit. Gartner memperkirakan bahwa konsumsi daya rata-rata server akselerator akan meningkat dari 650W menjadi 1.000W.
Konsumsi energi akan meningkat bukan hanya karena bertambahnya jumlah server, tetapi juga karena kondisi lingkungan. Upaya untuk mengoptimalkan biaya energi melalui penerapan AI dalam pengendalian konsumsi energi akan mengurangi tren ini sebagian, tetapi tidak akan sepenuhnya menyelesaikan masalah. Transisi ke pendinginan cairan untuk sistem server akan menjadi tak terhindarkan dalam sebagian besar kasus. Menurut Super Micro, biaya operasional pusat data dapat dikurangi lebih dari 40% dengan menghilangkan sistem pendinginan udara tradisional dan menggantinya dengan pendinginan cairan.
Masalah ini semakin diperparah oleh perkembangan jaringan pasokan listrik regional yang tidak merata. Selain itu, tidak semua lokasi dapat secara efisien mentransmisikan listrik yang dihasilkan ke lokasi sistem yang mengkonsumsi energi tinggi. Para ahli percaya bahwa AS menghasilkan listrik yang cukup untuk mendukung pengembangan AI, tetapi jaringan distribusinya bermasalah.
Tautan sumber






Komentar (0)