Usar a perceptibilidade sintético (IA) para redigir um email com murado de século palavras gasta a mesma vontade do que deixar quatro lâmpadas de LED acesas por uma hora. Para gerar uma imagem, o consumo é murado de 60 vezes maior, ou 240 lâmpadas ligadas pelo mesmo período.
Esses modos de uso se repetem à exaustão no Brasil e no mundo desde a popularização do ChatGPT no término de 2022. O consumo amontoado no país durante um ano só com uma hipotética geração semanal de emails seria comparável à demanda anual por eletricidade de uma cidade de 82 milénio habitantes.
A Folha estimou esse cenário usando uma metodologia criada por pesquisadores da plataforma Hugging Face (que funciona porquê uma coleção de IAs) e com base nos relatos de programadores que usam o padrão de IA da Meta Llama 3.1 405 b no próprio computador, o que lhes dá chegada às informações de consumo.
Tabelas de preços de provedores de nuvem permitem inferir que o padrão da Meta tem uma demanda computacional parecida com a do GPT-4o, que equipa o ChatGPT, uma vez que o dispêndio de usar as duas tecnologias é parecido.
Entre os principais desenvolvedores de IA, exclusivamente Meta e Deepseek divulgam dados sobre o consumo de eletricidade de suas tecnologias. Por isso, cientistas desenvolveram medições indiretas da pegada energética —e também de chuva e carbono— de ChatGPT (OpenAI), Gemini (do Google) e Claude (Anthropic).
Procuradas, as empresas não responderam às questões da reportagem.
Cada comando solicitado a um padrão de IA exige que computadores especializados façam trilhões de cálculos para instituir as melhores palavras para cada resposta —essas máquinas ficam nos chamados data centers, que o governo Lula planeja isentar de impostos para atrair investimentos. Isso fez a demanda por eletricidade destinada ao processamento de dados explodir.
Quanto mais elaborada a tarefa solicitada à IA, maior o consumo energético dos modelos de perceptibilidade sintético. Uma pesquisa da Universidade de Carnegie Mellon, nos Estados Unidos, estima que usar IA para gerar imagens consome, em média, 60 vezes mais vontade do que geração de texto.
“No caso da geração de texto, há uma exigência menor em termos computacionais para manipulação da sequência de caracteres, em confrontação à geração de imagem. A diferença basicamente está na fardo de trabalho”, explica André Micelli, CEO da MIT Technology Review Brasil.
Outro fator relevante para o gasto de vontade é o tempo de processamento. Enquanto gerar um texto de século palavras ocupa poucos segundos do ChatGPT, gerar uma imagem pode tomar até um minuto do padrão, de congraçamento com a sua desenvolvedora, OpenAI.
Dados da startup ainda mostram que gerar uma imagem de qualidade média custa para programadores a mesma quantia em moeda do que o cobrado em 42 emails de século palavras.
Mas é justamente o primeiro recurso que tem tido maior procura. Uma série de tendências virais, porquê filtros de retrato baseados na estética do Studio Ghibli (produtora japonesa do filme “A Viagem de Chihiro”) e da Turma da Mônica, fizeram disparar o uso da plataforma da OpenAI.
Modelos mais complexos, porquê o o1 da OpenAI (que divide a realização do comando em passos) e o mais recente GPT-4.5, também gastam mais. Ao passo que o GPT4o custa US$ 10 por pacote de palavras, o o1 ofídio US$ 60, o o3, US$ 40, e o GPT-4.5, US$ 150 —os preços sofrem influência direta da demanda de eletricidade.
Ao mesmo tempo, as inteligências artificiais ganharam eficiência nos últimos anos. O GPT-4, que precedeu o GPT-4o e tinha performance similar, consumia o equivalente ao gasto de 14 lâmpadas de LED por uma hora, de congraçamento com operação do professor de engenharia da computação Shaolei Ren, da Universidade da Califórnia. Os dados foram revisados por pares e publicados em uma revista acadêmica.
Ren afirma à reportagem que o uso de perceptibilidade sintético ainda impacta as reservas hídricas, já que os supercomputadores mais modernos requerem refrigeração líquida, que tem maior eficiência do que ar-condicionado. O professor estimou que o GPT-4 gastava uma garrafa de chuva para gerar um texto de século palavras.
Projeções da Sucursal Internacional de Virilidade divulgadas na última quarta-feira (9) indicam que o gasto de chuva com perceptibilidade sintético deve subir 80% entre 2023 e 2030.
O mesmo levantamento indica que o consumo de vontade em data centers, onde rodam os modelos de IA, deve saltar de 415 TWh (terawatt hora) por ano em 2024 para 945 TWh em 2030 —quase o duplo do que o Brasil gastou em 2024 (532 TWh). Os Estados Unidos, onde 60% da matriz elétrica é de combustíveis fósseis, devem concentrar 45% desse gasto em 2030 —China (25%) e Europa (15%) vêm na sequência.
“O consumo integral tende a crescer por um bom tempo devido ao incremento da demanda. Mas novas tecnologias vão tornar esse consumo relativamente menor devido ao aumento de eficiência dos algoritmos”, explica Hudson Mendonça, CEO do Energy Summit.
O lançamento da Deepseek, por exemplo, introduziu no mercado uma técnica chamada destilação que reduz a quantidade de vontade gasta durante o desenvolvimento da tecnologia.
Antes de uma IA ser lançada no mercado, os modelos precisam ser testados e treinados para gerar as respostas corretas de forma rápida. Na destilação, o padrão de IA chamado de “cru” é orientado por outro já calibrado.
Aplicando essa estratégia, a Meta conseguiu reduzir a um quinto o consumo de vontade do treinamento do Llama 4, em relação ao Llama 3.1. Nascente foi desenvolvido sem destilação.
De congraçamento com a pesquisadora do Hugging Face Sasha Luccioni, o treinamento tem mais impacto em termos de vontade e carbono do que o funcionamento cotidiano. “No entanto, esse gasto pode ser obtido rapidamente no caso de um padrão popular usado por milhões de usuários, porquê o ChatGPT.
COMO A FOLHA FEZ
Porquê as principais empresas de IA não divulgam o consumo elétrico de seus modelos, a reportagem recorreu à técnica de Luccioni, que comparou o consumo do GPT-3 ao de uma IA de código crédulo de mesmo tamanho, com 175 bilhões de parâmetros.
A Folha escolheu o Llama 3.1 405b com base no dispêndio cobrado por provedores de nuvem para usá-lo —é similar ao de GPT-4o e Claude 3.5 Sonnet.
Aliás, há, na internet, relatos e vídeos de pessoas que conseguem rodar o padrão da Meta nos próprios supercomputadores, contendo informações porquê a potência das máquinas e a performance do padrão de IA.
Com esses dados, é provável prezar o gasto de vontade para realizar uma tarefa. A metodologia foi revisada pelo professor Shaolei Ren, da Universidade da Califórnia.
A Meta informou que tem dados oficiais de consumo energético exclusivamente da tempo de treinamento da IA.