En los últimos años, ChatGPT ha experimentado un auge de popularidad, con casi 200 millones de usuarios que envían más de mil millones de solicitudes al día. Estas respuestas, que parecen generarse "de la nada", en realidad consumen una enorme cantidad de energía en segundo plano.
En 2023, los centros de datos —donde se entrena y opera la IA— representaron el 4,4 % del consumo eléctrico en Estados Unidos. A nivel mundial, esta cifra constituyó alrededor del 1,5 % de la demanda total de electricidad. Se prevé que el consumo se duplique para 2030 a medida que la demanda de IA siga aumentando.
“Hace tan solo tres años, ni siquiera teníamos ChatGPT”, dijo Alex de Vries-Gao, investigador sobre la sostenibilidad de las nuevas tecnologías en la Universidad Libre de Ámsterdam y fundador de Digiconomist, una plataforma que analiza las consecuencias no deseadas de las tendencias digitales. “Y ahora estamos hablando de una tecnología que podría representar casi la mitad de la electricidad consumida por los centros de datos en todo el mundo ”.
Hacer una pregunta a un modelo de lenguaje complejo (LLM, por sus siglas en inglés) consume aproximadamente 10 veces más electricidad que una búsqueda típica en Google. (Imagen: Qi Yang/Getty Images)
¿Qué hace que los chatbots de IA consuman tanta energía? La respuesta reside en su enorme escala. Según Mosharaf Chowdhury, profesor de informática de la Universidad de Michigan, existen dos fases que consumen mucha energía: el proceso de entrenamiento y el proceso de inferencia.
"Sin embargo, el problema es que los modelos actuales son tan grandes que no pueden ejecutarse en una sola GPU, y mucho menos caber en un solo servidor", explicó el profesor Mosharaf Chowdhury a Live Science.
Para ilustrar la magnitud del problema, un estudio de 2023 realizado por de Vries-Gao demostró que un servidor Nvidia DGX A100 puede consumir hasta 6,5 kilovatios de electricidad. Entrenar un modelo de lenguaje natural (LLM) suele requerir varios servidores, cada uno con un promedio de 8 GPU, funcionando continuamente durante semanas o incluso meses. En total, el consumo eléctrico es enorme: solo el entrenamiento del GPT-4 de OpenAI consumió 50 gigavatios-hora, lo que equivale a la electricidad suficiente para abastecer a toda San Francisco durante tres días.
El proceso de entrenamiento de GPT-4 de OpenAI fue suficiente para abastecer de energía a toda la ciudad de San Francisco durante tres días. (Imagen: Jaap Arriens/NurPhoto/Rex/Shutterstock)
El proceso de inferencia también consume bastante energía. En esta fase, el chatbot de IA utiliza el conocimiento adquirido para proporcionar respuestas al usuario. Si bien la inferencia requiere menos recursos computacionales que la fase de entrenamiento, sigue siendo extremadamente costosa debido al gran volumen de solicitudes enviadas al chatbot.
Según las estimaciones de OpenAI para julio de 2025, los usuarios de ChatGPT envían más de 2500 millones de solicitudes diarias. Para responder al instante, el sistema debe movilizar numerosos servidores que operen simultáneamente. Y esto solo contando ChatGPT; no incluye otras plataformas que también están ganando popularidad, como Gemini de Google, que se espera que pronto se convierta en la opción predeterminada cuando los usuarios accedan a la Búsqueda de Google.
«Incluso en la fase de inferencia, es prácticamente imposible ahorrar energía», observó Chowdhury. «El problema ya no radica en la enorme cantidad de datos. El modelo ya es enorme, pero el mayor problema es el número de usuarios».
Investigadores como Chowdhury y de Vries-Gao buscan ahora formas de medir con mayor precisión el consumo de energía, para así encontrar soluciones que permitan reducirlo. Por ejemplo, Chowdhury mantiene una clasificación llamada ML Energy Leaderboard, que registra el consumo de energía en las inferencias de modelos de código abierto.
Sin embargo, gran parte de los datos relacionados con las plataformas de IA comercialmente viables permanecen en secreto. Grandes corporaciones como Google, Microsoft y Meta los mantienen confidenciales o solo publican estadísticas muy vagas que no reflejan con precisión el impacto ambiental. Esto dificulta enormemente determinar cuánta electricidad consume realmente la IA, cuál será la demanda en los próximos años y si el mundo podrá satisfacerla.
Sin embargo, los usuarios pueden ejercer presión para lograr transparencia. Esto no solo ayuda a las personas a tomar decisiones más responsables al usar la IA, sino que también contribuye a promover políticas que responsabilicen a las empresas.
«Uno de los principales problemas de las aplicaciones digitales es que su impacto ambiental siempre permanece oculto», subrayó la investigadora de Vries-Gao. «Ahora la responsabilidad recae en los responsables políticos: deben fomentar la transparencia de los datos para que los usuarios puedan tomar medidas».
Ngoc Nguyen (Ciencia en vivo)
Fuente: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html






Kommentar (0)