За последние несколько лет популярность ChatGPT резко возросла: почти 200 миллионов пользователей ежедневно отправляют более миллиарда запросов. Эти ответы, которые, казалось бы, обрабатываются «из ниоткуда», на самом деле потребляют огромное количество энергии в фоновом режиме.
В 2023 году на центры обработки данных, где обучается и работает искусственный интеллект, приходилось 4,4% потребления электроэнергии в США. В глобальном масштабе этот показатель составлял около 1,5% от общего спроса на электроэнергию. Прогнозируется, что к 2030 году потребление удвоится, поскольку спрос на ИИ продолжает расти.
«Всего три года назад у нас даже не было ChatGPT», — говорит Алекс де Врис-Гао, исследователь устойчивости новых технологий из Амстердамского свободного университета и основатель Digiconomist, платформы, анализирующей непредвиденные последствия цифровых трендов. «А теперь мы говорим о технологии, которая потенциально может составлять почти половину электроэнергии, потребляемой центрами обработки данных по всему миру ».
Задание вопроса большой языковой модели (LLM) потребляет примерно в 10 раз больше электроэнергии, чем обычный поиск в Google. (Изображение: Qi Yang/Getty Images)
Что делает чат-боты с искусственным интеллектом такими энергозатратными? Ответ кроется в их огромных масштабах. По словам профессора информатики Мошарафа Чоудхури из Мичиганского университета, существуют две особенно энергозатратные фазы: процесс обучения и процесс вывода.
«Однако проблема в том, что современные модели настолько велики, что не могут работать на одном графическом процессоре, не говоря уже о том, чтобы поместиться на одном сервере», — объяснил профессор Мошараф Чоудхури в интервью Live Science.
Чтобы проиллюстрировать масштаб, исследование де Вриса-Гао 2023 года показало, что сервер Nvidia DGX A100 может потреблять до 6,5 киловатт электроэнергии. Для обучения LLM обычно требуется несколько серверов, каждый из которых имеет в среднем 8 графических процессоров, работающих непрерывно в течение недель или даже месяцев. В общей сложности потребление электроэнергии огромно: только обучение GPT-4 в OpenAI потребило 50 гигаватт-часов, что эквивалентно электроэнергии, достаточной для обеспечения электроснабжением всего Сан-Франциско в течение трех дней.
Процесс обучения GPT-4 от OpenAI оказался достаточным для обеспечения электроэнергией всего Сан-Франциско в течение трёх дней. (Изображение: Jaap Arriens/NurPhoto/Rex/Shutterstock)
Процесс вывода также довольно энергозатратен. На этом этапе чат-бот с искусственным интеллектом использует полученные знания для предоставления ответов пользователю. Хотя для вывода требуется меньше вычислительных ресурсов, чем для этапа обучения, он все еще чрезвычайно энергозатратен из-за огромного количества запросов, отправляемых чат-боту.
По оценкам OpenAI, по состоянию на июль 2025 года пользователи ChatGPT отправляют более 2,5 миллиардов запросов в день. Для мгновенного ответа системе необходимо задействовать множество серверов, работающих одновременно. И это только ChatGPT; здесь не учитываются другие платформы, которые также набирают популярность, такие как Gemini от Google, которая, как ожидается, вскоре станет выбором по умолчанию при доступе пользователей к поиску Google.
«Даже на этапе вывода данных экономить энергию практически невозможно», — заметил Чоудхури. «Проблема уже не в огромном объеме данных. Модель и так уже огромная, но более серьезная проблема — это количество пользователей».
Исследователи, такие как Чоудхури и де Врис-Гао, сейчас ищут способы более точного измерения энергопотребления, чтобы найти решения для его снижения. Например, Чоудхури ведет таблицу лидеров под названием ML Energy Leaderboard, которая отслеживает энергопотребление в результатах вычислений моделей с открытым исходным кодом.
Однако большая часть данных, касающихся коммерчески жизнеспособных платформ искусственного интеллекта, остается «секретной». Крупные корпорации, такие как Google, Microsoft и Meta, либо держат их в секрете, либо публикуют лишь очень расплывчатые статистические данные, которые неточно отражают воздействие на окружающую среду. Это значительно затрудняет определение того, сколько электроэнергии на самом деле потребляет ИИ, каким будет спрос в ближайшие годы и сможет ли мир его удовлетворить.
Тем не менее, пользователи, безусловно, могут оказывать давление в целях обеспечения прозрачности. Это не только помогает людям принимать более ответственные решения при использовании ИИ, но и способствует продвижению политики, которая привлекает предприятия к ответственности.
«Одна из главных проблем цифровых приложений заключается в том, что их воздействие на окружающую среду всегда скрыто», — подчеркнул исследователь де Врис-Гао. «Теперь мяч в руках политиков: они должны поощрять прозрачность данных, чтобы пользователи могли принимать соответствующие меры».
Нгок Нгуен (Live Science)
Источник: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html






Комментарий (0)