Pedir respostas mais concisas do ChatGPT —ou de outros modelos de lucidez sintético generativa— pode reduzir o consumo de força em 54%, de concórdia com testes feitos por University College London (UCL) e Unesco. Diminuir o tamanho do pedido pela metade reduz o gasto de eletricidade em 5%.
Por isso, referir um limite de parágrafos ou palavras pode forrar muito mais força do que deixar de ser educado com a lucidez sintético —o CEO da OpenAI, Sam Altman, já disse nas redes sociais que a empresa gasta “dezenas de milhões de dólares” com a cortesia de seus usuários que digitam “obrigado” ou “por obséquio”.
Os pesquisadores fizeram testes com IAs de código desimpedido da Meta, rodando em máquinas próprias —isso permitiu escoltar a demanda de eletricidade dos computadores e chegar aos resultados apresentados no item.
A Unesco recomenda, além da promoção de campanhas de conscientização dos usuários, que as empresas também adotem ferramentas para obstringir os resultados entregues pelos modelos de IA. Trata-se de uma tecnologia que já está no mercado e reduz o tempo de processamento sem comprometer a qualidade, diz o relatório.
“A responsabilidade por uma IA energeticamente eficiente não deveria recair somente sobre os usuários”, diz a autora do estudo e profissional da Unesco, Leona Verdadero. “Porém, se isso for adotado em graduação, o pedido de respostas mais curtas poderia levar a economias energéticas significativas, mesmo sem mudanças estruturais”, disse a profissional.
A Unesco estima que o ChatGPT gasta, hoje, murado de 310 GWh por ano somente respondendo a pedidos para gerar texto —isto é, sem considerar os gastos com vídeos e imagens. É um consumo comparável ao de mais de 3 milhões de etíopes, onde o uso médio per capita é de 96 kWh por ano.
Para isso, a organização usou porquê referência o valor de 0,34 Wh gasto em média por pedido —o citado foi citado em item assinado por Altman— e a estatística de 1 bilhão de acessos diários, divulgada pela OpenAI.
Os cálculos incluem somente o dispêndio de inferência, o momento em que o usuário interage com a utensílio de IA. Outros milhares de GWh são gastos a termo de treinar os modelos para que entreguem os resultados esperados.
“O ônus realmente deveria estar mais do lado dos desenvolvedores e implementadores desses sistemas de IA”, afirma Verdadero. Por isso, a profissional da Unesco defende a geração de ferramentas que ajudem os consumidores a fazer escolhas mais conscientes.
“É porquê os rótulos nutricionais nos vitualhas, que moldaram nossas escolhas alimentares. Acreditamos que rótulos de força para IA podem ajudar os usuários a fazer escolhas mais informadas”, explica.
‘PEQUENO É PODEROSO’, DIZ UNESCO
Mais eficiente ainda, de concórdia com Verdadero, é preferir os modelos de linguagem pequenos e especializados, que entregam precisão com 10% do consumo de eletricidade exigido por um grande IA generalista, porquê ChatGPT, Claude ou Gemini.
A pesquisadora, porém, reconhece que há um repto de financiamento, uma vez que projetos focados no desenvolvimento de IAs generalistas, capazes de realizar uma ampla gama de tarefas, conquistaram a atenção de capitalistas de riscos e outros investidores.
“É o que estamos vendo com avanços nos modelos de raciocínio e no pensamento de que ‘maior é melhor’”, afirma Verdadeiro.
No entanto, a pesquisadora afirma que os testes feitos no estudo indicam que os modelos pequenos se saem tão muito quanto os grandes em tarefas porquê tradução, geração de resumos e resposta de dúvidas, desde que recebam um treinamento ulterior para certas tarefas. “Em algumas situações, até superam os grandes modelos”, diz a pesquisadora.
A Unesco também destaca que os pequenos modelos de linguagem abrem uma possibilidade para países com menor infraestrutura computacional, em regiões porquê a África e a América Latina, desenvolverem as próprias ferramentas de lucidez sintético.
É o caso da startup brasileira Dharma AI, que já desenvolve versões especializadas dos pequenos modelos de linguagem para empresas. O chinês Qwen 2.5b, uma das IAs utilizadas pela Dharma, tem, por exemplo, 2,5 bilhões de parâmetros (porquê se fossem os neurônios da rede neural), contra mais de 1 trilhão no caso de modelos porquê o GPT-4, que está sob o capô do ChatGPT.
Incubada no Porto Maravalley, da Prefeitura do Rio de Janeiro, a Dharma AI já apresentou uma versão do Qwen treinada com base em textos jurídicos brasileiros. Em um teste feito pela empresa, a sua utensílio obteve sucesso em 85% das simulações, contra um índice de 68% do ChatGPT. O preço para executar a tarefa no pequeno protótipo brasílio foi de US$ 0,003, contra US$ 0,608 no ChatGPT.
Em item publicado em junho, a Nvidia defendeu que os pequenos modelos de linguagem são mais adequados e economicamente necessários no desenvolvimento de sistemas de lucidez sintético mais complexos.
“Embora capacidades conversacionais gerais sejam essenciais, sistemas autônomos que usam múltiplos modelos diferentes são a escolha oriundo em termos de eficiência”, diz o gigante da tecnologia, que despontou porquê empresa mais valiosa do mundo por projetar os chips usados no desenvolvimento de IA.
O relatório da Nvidia, diz a própria companhia, procura estimular discussões sobre uso eficiente de recursos de IA e reduzir os custos atuais da tecnologia.
A Unesco apresenta dados da Escritório Internacional de Vigor (IEA) para sobresair a urgência do debate: o consumo de eletricidade com IA está dobrando a cada século dias, pressionando a infraestrutura global de transmissão energética e provisão hídrico.
