Vietnam.vn - Nền tảng quảng bá Việt Nam

Será que os chatbots de IA consomem tanta eletricidade quanto se especula?

Os chatbots com inteligência artificial estão em plena expansão, com centenas de milhões de usuários diários, mas por trás dessa conveniência esconde-se um enorme consumo de energia, o que levanta preocupações sobre a sustentabilidade.

VTC NewsVTC News19/09/2025

Nos últimos anos, o ChatGPT explodiu em popularidade, com quase 200 milhões de usuários enviando mais de um bilhão de solicitações por dia. Essas respostas, aparentemente processadas "do nada", na verdade consomem uma enorme quantidade de energia nos bastidores.

Em 2023, os centros de dados — onde a IA é treinada e operada — representaram 4,4% do consumo de eletricidade nos EUA. Globalmente, esse número foi de cerca de 1,5% da demanda total de eletricidade. Projeta-se que o consumo dobre até 2030, à medida que a demanda por IA continua a crescer.

“Há apenas três anos, nem sequer tínhamos o ChatGPT”, disse Alex de Vries-Gao, pesquisador sobre a sustentabilidade de novas tecnologias na Universidade Livre de Amsterdã e fundador da Digiconomist, uma plataforma que analisa as consequências não intencionais das tendências digitais. “E agora estamos falando de uma tecnologia que pode potencialmente representar quase metade da eletricidade consumida por data centers em todo o mundo .”

Fazer uma pergunta a um modelo de linguagem de grande escala (LLM, na sigla em inglês) consome cerca de 10 vezes mais eletricidade do que uma pesquisa típica no Google. (Imagem: Qi Yang/Getty Images)

Fazer uma pergunta a um modelo de linguagem de grande escala (LLM, na sigla em inglês) consome cerca de 10 vezes mais eletricidade do que uma pesquisa típica no Google. (Imagem: Qi Yang/Getty Images)

O que torna os chatbots de IA tão exigentes em termos de energia? A resposta está em sua enorme escala. De acordo com o professor de ciência da computação Mosharaf Chowdhury, da Universidade de Michigan, existem duas fases particularmente ávidas por energia: o processo de treinamento e o processo de inferência.

"No entanto, o problema é que os modelos atuais são tão grandes que não podem ser executados em uma única GPU, muito menos cabem em um único servidor", explicou o professor Mosharaf Chowdhury ao Live Science.

Para ilustrar a dimensão do problema, um estudo de 2023 realizado por de Vries-Gao mostrou que um servidor Nvidia DGX A100 pode consumir até 6,5 quilowatts de eletricidade. O treinamento de um modelo de aprendizado de máquina (LLM) normalmente requer vários servidores, cada um com uma média de 8 GPUs, funcionando continuamente por semanas ou até meses. No total, o consumo de eletricidade é enorme: o treinamento do GPT-4 da OpenAI, por si só, consumiu 50 gigawatts-hora, o equivalente à energia suficiente para abastecer toda a cidade de São Francisco por três dias.

O processo de treinamento do GPT-4 da OpenAI foi suficiente para abastecer toda a cidade de São Francisco por três dias. (Imagem: Jaap Arriens/NurPhoto/Rex/Shutterstock)

O processo de treinamento do GPT-4 da OpenAI foi suficiente para abastecer toda a cidade de São Francisco por três dias. (Imagem: Jaap Arriens/NurPhoto/Rex/Shutterstock)

O processo de inferência também consome bastante energia. É nessa fase que o chatbot de IA utiliza o conhecimento adquirido para fornecer respostas ao usuário. Embora a inferência exija menos recursos computacionais do que a fase de treinamento, ela ainda consome muita energia devido ao grande volume de solicitações enviadas ao chatbot.

Em julho de 2025, a OpenAI estimou que os usuários do ChatGPT enviariam mais de 2,5 bilhões de solicitações por dia. Para responder instantaneamente, o sistema precisa mobilizar muitos servidores operando simultaneamente. E isso considerando apenas o ChatGPT; não inclui outras plataformas que também estão se tornando muito populares, como o Gemini do Google, que em breve deverá se tornar a opção padrão quando os usuários acessarem a Busca do Google.

"Mesmo na fase de inferência, não é possível economizar energia", observou Chowdhury. "O problema não é mais a enorme quantidade de dados. O modelo já é enorme, mas a questão maior é o número de usuários."

Pesquisadores como Chowdhury e de Vries-Gao estão agora buscando maneiras de medir o consumo de energia com mais precisão, encontrando assim soluções para reduzi-lo. Por exemplo, Chowdhury mantém um ranking chamado ML Energy Leaderboard, que monitora o consumo de energia nas inferências de modelos de código aberto.

No entanto, grande parte dos dados relacionados a plataformas de IA comercialmente viáveis ​​permanece "secreta". Grandes corporações como Google, Microsoft e Meta mantêm essas informações confidenciais ou divulgam apenas estatísticas muito vagas que não refletem com precisão o impacto ambiental. Isso torna muito difícil determinar quanta eletricidade a IA realmente consome, qual será a demanda nos próximos anos e se o mundo conseguirá atendê-la.

No entanto, os usuários certamente podem exercer pressão por transparência. Isso não só ajuda os indivíduos a fazerem escolhas mais responsáveis ​​ao usar IA, como também contribui para a promoção de políticas que responsabilizem as empresas.

“Um dos principais problemas com os aplicativos digitais é que seu impacto ambiental está sempre oculto”, enfatizou a pesquisadora de Vries-Gao. “Agora a responsabilidade está nas mãos dos formuladores de políticas: eles devem incentivar a transparência dos dados para que os usuários possam agir.”

Ngoc Nguyen (Ciência ao Vivo)

Fonte: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html


Tópico: chatbot de IA

Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

No mesmo tópico

Na mesma categoria

Do mesmo autor

Herança

Figura

Empresas

Atualidades

Sistema político

Local

Produto

Happy Vietnam
Fluxo cultural

Fluxo cultural

Vila de pescadores de Minh Hoa

Vila de pescadores de Minh Hoa

Turistas estrangeiros em Hoi An

Turistas estrangeiros em Hoi An