Посилаючись на дані Boston Consulting Group, Barron's заявила, що до 2030 року центри обробки даних споживатимуть 7,5% від загального обсягу електроенергії, доступної в США. Центри обробки даних, побудовані для систем штучного інтелекту, можуть споживати сотні мегават електроенергії на об'єкт, а це означає, що система електропостачання більше не зможе встигати за швидким зростанням кількості центрів обробки даних.
Потреби в енергії для живлення серверів штучного інтелекту величезні.
Аналіз також показує, що з 2022 по 2030 рік споживання енергії центрами обробки даних у США зросте зі 126 до 390 терават-годин, що достатньо для забезпечення електроенергією 40 мільйонів американських домогосподарств.
За оцінками 650 Group, обсяг серверних систем, що забезпечують потреби штучного інтелекту, зросте в шість разів з минулого року до 2028 року, досягнувши 6 мільйонів одиниць. Gartner прогнозує, що середнє енергоспоживання сервера-акселератора зросте з 650 Вт до 1000 Вт.
Споживання енергії зростатиме не лише через зростання кількості серверів, але й через умови. Зусилля щодо оптимізації витрат на енергію шляхом застосування штучного інтелекту в управлінні споживанням енергії частково пом'якшать цю тенденцію, але не вирішать проблему повністю. Перехід на рідинне охолодження серверних систем буде неминучим у більшості випадків. За даними Super Micro, експлуатаційні витрати центрів обробки даних можна зменшити більш ніж на 40%, відмовившись від традиційних систем повітряного охолодження на користь рідинного охолодження.
Проблема ще більше посилюється нерівномірним розвитком регіональної мережі електропостачання. Крім того, не всі місця можуть ефективно передавати вироблену електроенергію до місць розташування систем з високим енергоспоживанням. Експерти вважають, що США виробляють достатньо електроенергії для підтримки розвитку штучного інтелекту, але розподільча мережа проблематична.
Посилання на джерело






Коментар (0)