Uma das grandes preocupações dos líderes mundiais é, sem dúvida, o aquecimento global. A busca por energias renováveis se intensifica diante da crescente demanda por energia, impulsionada principalmente pela indústria tecnológica. Nos últimos anos, o desenvolvimento de inteligências artificiais tem se destacado como um grande consumidor de energia.
A corrida por modelos de IA cada vez mais sofisticados tem levado à construção de data centers gigantescos, que exigem quantidades imensas de eletricidade. Um exemplo é o projeto da Microsoft e da OpenAI, que prevê um data center capaz de consumir energia equivalente à de cinco reatores nucleares. Para se ter uma ideia, o ChatGPT, um dos modelos de linguagem mais populares, consome mais de 17 mil vezes a energia utilizada por uma residência americana média em um único dia.
Essa alta demanda energética da IA levanta preocupações sobre o impacto ambiental da tecnologia. Diante desse cenário, pesquisadores e empresas do setor têm buscado soluções para tornar a IA mais sustentável. E o caminho seria o desenvolvimento do chamado Green AI por meio do Green Deep Learning, segundo o professor João Paulo Papa, doutor em ciência da computação e atualmente pesquisador na Fundação Humboldt na Alemanha, uma das instituições mais prestigiadas no desenvolvimento de inteligência artificial. Ele concedeu a seguinte entrevista a Inovativos.
Inovativos – Tecnicamente, por que há picos na demanda de energia em data centers onde as empresas trabalham em aplicativos de IA?
João Paulo Papa – Geralmente, quando uma empresa tem alguma demanda específica, em algum período do tempo, então, obviamente, as máquinas vão ser mais utilizadas e, consequentemente, a energia também vai ser mais demandada. Se as empresas estão se preparando para alguma conferência, fazendo experimentos para algum artigo específico, então vão existir momentos em que a demanda será maior. Por exemplo, para treinar o GPT, a demanda durante aquele período foi muito grande. Então, provavelmente, depois de um certo tempo, eles não precisarão de tantos recursos computacionais, até que chegue o novo modelo GPT para eles treinarem novamente.
Inovativos – Isso explica, de certa forma, o fato de o Google recentemente ter deixado de se considerar neutro em carbono? Empresas como a Microsoft, por exemplo, podem atropelar suas metas de sustentabilidade na corrida contínua para construir as maiores e melhores ferramentas de IA?
João Paulo Papa – Quanto mais modelos nós temos, mais pesados eles são, mais dados vamos precisar, e o treinamento será mais custoso. Quer dizer, a questão é que quanto mais complexo é o modelo, ou seja, quanto mais potente ele é, mais dados ele vai precisar, mais tempo ele vai demorar para treinar, e mais energia ele vai gastar.
Inovativos – Além dos altos níveis de uso de energia, os data centers que treinam e operam modelos de IA generativa consomem milhões de galões de água. Essa água retorna à superfície de alguma forma? Como as empresas estão lidando com essa questão?
João Paulo Papa – Eu não tenho 100% de conhecimento sobre isso, mas eu creio que algumas empresas, sim, têm que reaproveitar essa água, porque, na prática, geralmente a água é utilizada para resfriamento. Eventualmente, a água fica quente e ela pode ser reaproveitada novamente para ser refrigerada e aquecer o modelo, criando um ciclo. Igual ao que fazemos com o radiador do carro.
Inovativos – A partir do momento em que a IA está contribuindo para o crescimento dos data centers, a transição para a computação em nuvem também é um fator importante a ser considerado?
João Paulo Papa – Eu prefiro ter, por exemplo, meu próprio data center do que fazer em nuvem, porque a questão da nuvem, no final do dia, acaba ficando muito cara, porque você tem muitos dados para subir. Geralmente, as bases de dados são muito grandes. Embora eles tenham um equipamento melhor, você vai ter que pagar pela transferência dos dados e pelo processamento dos dados. De fato, o que fica mais caro é a transferência dos dados e não o processamento. Então, eu já fiz algumas simulações financeiras e prefiro adquirir o equipamento, mesmo que seja inferior ao que eles têm lá, porque pelo menos eu o possuo e não preciso pagar pela transferência.
Inovativos – Fengqi You, um pesquisador de Cornell, enfatiza a importância de continuar a transição para fontes de energia renováveis, embora questione a eficácia das empresas que estão contando com planos de compensação de carbono como parte de seus esforços de sustentabilidade. O que você pensa sobre isso?
João Paulo Papa – De fato, essa questão da compensação de carbono talvez seja trocar seis por meia dúzia. É um problema muito grande essa questão de ter modelos de IA mais potentes e que consomem menos energia. Nesse sentido, o pessoal tem chamado de *Green AI, **Green Deep Learning. Em vez de usar os LLMs, que são os Large Language Models, o pessoal tem integrado com os Small Language Models, os SLMs. Na prática, foi mostrado que os LLMs conseguem, em geral, resolver o problema. Agora, o objetivo é: será que eu consigo construir um modelo menor, mais simples, que consuma menos energia e tenha um desempenho tão bom ou próximo de um LLM? Essa é uma linha bastante quente hoje na área de processamento de linguagem natural, os SLMs.
* Green AI é uma abordagem no desenvolvimento e treinamento de modelos de inteligência artificial (IA) que enfatiza a sustentabilidade e a eficiência energética. O objetivo é reduzir a pegada ambiental dos sistemas de IA, que tradicionalmente consomem grandes quantidades de energia e recursos, contribuindo para a emissão de carbono e outros impactos ambientais.
** Green Deep Learning é uma abordagem que aplica os princípios da sustentabilidade especificamente ao campo do aprendizado profundo (deep learning). O objetivo é reduzir o impacto ambiental do treinamento e da implementação de modelos de deep learning, que são conhecidos por demandarem grandes quantidades de energia e recursos computacionais.
Inovativos – Em um esforço para reduzir o impacto imediato da IA, bem como o custo, alguns pesquisadores e desenvolvedores estão buscando outras abordagens para reduzir a energia necessária para criar ferramentas de IA, confiando em chips de hardware mais eficientes. Eles também estão experimentando o potencial de modelos menores de IA que exigem menos computação. São medidas que podem dar certo?
João Paulo Papa – Se você tem chips dedicados e otimizados para IA, a expectativa é que eles consumam menos energia, sejam mais rápidos, e que todo o processamento seja otimizado. Então, creio sim que são medidas que podem dar certo.
Inovativos – Esses data centers têm o potencial de sobrecarregar as redes elétricas locais com suas necessidades energéticas. No Brasil, considerando o atual momento de produção energética, estamos preparados para esse aumento na demanda energética?
João Paulo Papa – Essa é uma pergunta crucial. No Brasil, ainda não temos data centers gigantescos que possam afetar significativamente a rede elétrica nacional. No entanto, muitas universidades e instituições podem não estar preparadas para suportar tanto o custo de aquisição de equipamentos caros quanto o alto consumo de energia contínuo necessário para operá-los.
Inovativos – Há uma estimativa de que, sozinhos, os data centers irão consumir 4,5% da energia no planeta até 2030. Nesse contexto, a demanda por energia renovável aumentará exponencialmente. O Brasil está preparado para enfrentar essa situação com protagonismo, já que, em 2023, 93,1% da energia produzida aqui originou-se de fontes renováveis?
João Paulo Papa – Penso que o Brasil é um dos países que pode aproveitar muito essa onda de necessidade de energias renováveis, principalmente no que diz respeito à energia hidrelétrica. Hoje, somos um dos países mais verdes do mundo, com a maior parte da nossa energia produzida por usinas hidrelétricas. Temos muito potencial na energia solar, especialmente no Nordeste, e na energia eólica. O Brasil precisa atrair data centers para competir globalmente, melhorar a infraestrutura energética sustentável e suportar o aumento do consumo de energia associado ao crescimento da IA.