… data centers? O rápido avanço da Inteligência Artificial, impulsionado por modelos cada vez maiores e mais complexos, tem levantado uma preocupação em relação ao seu colossal consumo de energia. O principal motor desse consumo é o poder de computação necessário para treinar e executar modelos de IA. O treino de um único grande modelo de linguagem pode requerer o mesmo nível de energia que o consumo anual de várias residências, ou até de cidades pequenas. À medida que os modelos ficam mais sofisticados, a quantidade de dados e os cálculos necessários para cada nova iteração crescem exponencialmente, elevando o consumo energético a níveis insustentáveis. Resumindo: mudanças se fazem necessárias…
“A new innovation from Cornell researchers lowers the energy use needed to power artificial intelligence – a step toward shrinking the carbon footprints of data centers and AI infrastructure. As AI systems become increasingly powerful, they also become more power-hungry – raising urgent questions about sustainability. The research team, from Cornell Tech and Cornell Engineering, is tackling that challenge by rethinking the hardware that powers AI, aiming to make it faster, more efficient and less energy-intensive.”
— by TechXplore.
Para resolver esta questão, uma nova inovação de pesquisadores da Cornell University chamada “Double Duty”, está redefinindo o hardware de inteligência artificial para maior eficiência energética. O estudo, que recebeu um prêmio de melhor artigo na Conferência Internacional de Lógica e Aplicações de Campo-Programável de 2025, aborda a crescente preocupação com o consumo de energia da IA, que se torna cada vez mais intensivo à medida que os sistemas se tornam mais poderosos. O objetivo da equipe é tornar o hardware de IA mais rápido, eficiente e com menor consumo de energia, contribuindo para a redução da pegada de carbono dos data centers e da infraestrutura de IA.
A pesquisa foca em chips chamados Field-Programmable Gate Arrays (FPGAs), que são valorizados por sua flexibilidade e capacidade de serem reprogramados para realizar diferentes tarefas após a fabricação. Eles são utilizados em diversos tipos de dispositivos, como os cartões de rede, as estações base de comunicação e os equipamentos médicos. O problema é que a arquitetura tradicional desses chips limita sua eficiência, especialmente para cargas de trabalho de IA que exigem muitas operações aritméticas (e por isto, são empregadas as GPUs).
Para solucionar este problema, a equipe de pesquisa desenvolveu a arquitetura “Double Duty”, que permite que as tabelas de consulta (LUTs) e as cadeias de somadores trabalhem de forma independente e simultânea, no mesmo bloco lógico. Em testes, o novo design reduziu o espaço necessário para tarefas específicas de IA em mais de 20% e melhorou o desempenho geral em um grande conjunto de circuitos em quase 10%. Isso significa que menos chips seriam necessários para realizar o mesmo trabalho, resultando em menor consumo de energia.
A tecnologia “Double Duty” não apenas oferece benefícios para a inteligência artificial, mas também melhora a eficiência de forma geral em outras aplicações. De acordo com os pesquisadores, essa inovação permite que programas maiores se encaixem em chips menores, o que resulta em uma melhoria da eficiência em diversas áreas. Esse avanço representa um passo importante em direção a um futuro mais sustentável para a IA, abordando um dos maiores desafios do setor.
Resumindo: as soluções se voltam (sempre) para chips simples e otimizados… &;-D