
Cada pergunta que você faz ao Gemini, inteligência artificial do Google, consome a mesma quantidade de energia que assistir a nove segundos de televisão. É o que diz um relatório da empresa, divulgado nesta quinta-feira (21), sobre o consumo de energia e água e emissões de CO2 do seu modelo de IA.
Uma consulta de texto emite 0,03 gramas de dióxido de carbono e consome cerca de cinco gotas de água, segundo a big tech.
O relatório do Google parece ser uma resposta às crescentes preocupações sobre o impacto ambiental da inteligência artificial. Um data center dedicado a IA pode consumir tanta eletricidade quanto 100.000 residências, segundo a Agência Internacional de Energia (IEA, na sigla em inglês).
Ela estima que data centers em todo o mundo devem mais que dobrar a demanda de energia até 2030, chegando a 945 terawatts-hora – mais do que todo o consumo de eletricidade do Japão. E esse é um problema especialmente grande nos EUA, onde os data centers representam quase metade do crescimento da demanda de eletricidade nos próximos cinco anos.
O Google afirma que outras empresas de tecnologia não divulgam o gasto de energia de seus modelos de IA com tantos detalhes, mas espera que isso mude. “Como comunidade, como indústria, não somos muito consistentes na forma como medimos o consumo de energia”, disse Parthasarathy Ranganathan, fellow de engenharia computacional do Google, ao Wall Street Journal.
Pegada do prompt
As emissões do Google aumentaram 51% desde 2019 devido a IA. A empresa diz que os seus sistemas estão se tornando mais eficientes e que a energia usada para processar um prompt “médio” é 33 vezes menor do que era há 12 meses.
O tipo de consulta feita à IA generativa também conta. As demandas de energia podem ser menores “se você puder reduzir um pouco esse ‘vai e vem’ e tornar o seu prompt mais simples e fácil de entender”, disse o cientista do Instituto de Tecnologia de Massachusetts, Vijay Gadepally, ao WSJ.
No relatório, o Google explicou sua metodologia e as fórmulas utilizadas para medir o impacto ambiental de sua IA. Ele analisa dados de 12 meses, até maio de 2025. O Google disse que escolheu usar a mediana – valor que divide ao meio um conjunto de dados ordenados – porque alguns prompts (comandos à IA) mais elaborados exigem mais energia e a média poderia distorcer os resultados.
A análise não considera a geração de imagens e vídeos que, de acordo com artigos científicos, gastam dezenas de vezes mais energia. O Google também desconsiderou o tamanho dos pedidos e se houve o chamado reasoning, processo em que a IA testa vários resultados até chegar ao mais apropriado.
A big tech afirma que os gastos são menores que as estimativas que circulavam anteriormente na academia. No entanto, o método adotado no estudo impede que os dados sejam comparados a estimativas feitas por outros pesquisadores, disse o professor de ciência da computação da UFRGS, Anderson Rocha, à Folha de S.Paulo.
E o ChatGPT?
Outras empresas também divulgaram o impacto ambiental de suas IAs. A francesa Mistral AI divulgou um relatório há duas semanas com dados do impacto ambiental do treinamento de seu modelo de linguagem Mistral Large 2. Para gerar uma página de texto, o gasto é de 50 ml de água, o suficiente para cultivar um rabanete.
A OpenAI, dona do ChatGPT, calculou que uma consulta “média” gasta a mesma energia que um forno ligado por mais de um segundo, disse Sam Altman, diretor executivo da empresa, em seu blog. Ele não explicou o que considera uma consulta “média” nem a metodologia utilizada para chegar a essa conclusão.
Segundo Gadepally, do Instituto de Massachusetts, o consumo de energia de IA de uma empresa pode ser completamente diferente de outra. Uma empresa de tecnologia pode afirmar que, “para uma consulta típica, usa determinada quantidade de quilowatts-hora. Mas, afinal, qual é a sua definição de consulta típica?”, questiona.
Para ele, também é importante que as empresas de tecnologia divulguem com que frequência as IAs recebem perguntas. “Se estiver sendo usado por uma pessoa, as emissões serão menores, mas isso é diferente se forem bilhões de pessoas em 30 data centers ao redor do mundo”, explica.