Eis, a realidade: à medida que as inteligências artificiais generativas se tornam mais sofisticadas, o seu consumo de energia tem sido objeto de crescente preocupação. O treinamento desses modelos de linguagem e a geração de conteúdo, como textos e imagens, demandam uma enorme quantidade de poder computacional. Isso por sua vez, resulta em um alto consumo de eletricidade, que muitas vezes é proveniente de fontes não renováveis, contribuindo para a emissão de carbono. Por isto, acreditava que com a evolução tecnológica dos modelos, a tendência seria deles “fazerem mais gastando menos” e assim, reverter este quadro…
“OpenAI’s GPT-5 AI model is significantly more capable than predecessors, but it’s also dramatically – about 8.6 times – more power-hungry than the previous GPT 4 version, according to estimates based on tests conducted by the University of Rhode Island’s AI lab, reports The Guardian. However, OpenAI does not officially disclose the energy use of its latest model, which is part of what raises concerns about its overall energy footprint. That said, the published findings are just an estimate – and that estimate relies on a lot of estimates.”
— by Tom’s Hardware.
Mas pelo visto, estava enganado: pesquisadores do Laboratório de IA da Universidade de Rhode Island, estimam que o modelo GPT-5 da OpenAI pode usar cerca de 8,6 vezes mais eletricidade por consulta, em comparação com o GPT-4. Os dados sugerem um consumo médio de energia um pouco acima de 18 watt-hora (Wh) por resposta de tamanho médio (cerca de 1.000 tokens), com picos chegando a até 40 Wh. Já o GPT-4, em comparação, consumia cerca de 2,12 Wh por consulta, tornando o GPT-5 significativamente mais intensivo em energia. Se o ChatGPT processar cerca de 2,5 bilhões de consultas por dia, o consumo diário estimado de energia do GPT-5 pode chegar a incríveis 45 gigawatt-hora (GWh)!
Para colocar isto em perspectiva, as usinas nucleares modernas produzem algo entre 1 a 1,6 gigawatt (GW), o que significa que atender à carga diária de respostas do GPT-5 poderia exigir a capacidade de saída de duas a três usinas nucleares. Isso equivale à demanda elétrica de um pequeno país. Porém, estes números se baseiam em modelos com suposições incertas. Os pesquisadores elaboraram as estimativas com base no hardware de servidores com GPU (como sistemas Nvidia DGX H100 ou H200 na Azure), nos tempos de resposta e fatores adicionais como resfriamento, armazenamento e na eficiência do uso de energia (PUE). Como a OpenAI não divulgou sua configuração real de implantação, as estimativas podem estar incorretas, especialmente se estiverem sendo usados hardwares mais eficientes.
Estas descobertas destacam o crescente custo ambiental de modelos de IA mais poderosos. Embora o GPT-5 ofereça capacidade de raciocínio avançada e recursos aprimorados, ele faz isso com uma pegada energética muito maior (o que poderá trazer uma série de impactos negativos para o serviço). Os especialistas continuam preocupados com a sustentabilidade desses sistemas à medida que a IA se expande e a falta de transparência oficial da OpenAI sobre o consumo de energia aumenta isto, deixando o setor dependente de estimativas independentes como estas.
Apesar de tudo, ainda acredito em futuras otimizações desta tecnologia… &;-D