Desde resultados não solicitados no topo das suas consultas em mecanismos de procura até ofertas para redigir seus emails e ajudar estudantes a fazer prelecção de mansão, a perceptibilidade sintético generativa está rapidamente se tornando segmento do cotidiano enquanto gigantes da tecnologia competem para desenvolver os modelos mais avançados e atrair usuários.
Todos esses comandos vêm com um dispêndio ambiental: um relatório do ano pretérito do Departamento de Vontade dos Estados Unidos concluiu que a IA poderia ajudar a aumentar a fatia da força elétrica pátrio consumida por centros de dados de 4,4% para 12% até 2028. Para atender a essa demanda, espera-se que algumas usinas de força queimem mais carvão e gás originário.
Alguns chatbots estão ligados a mais emissões de gases de efeito estufa do que outros. Um estudo publicado nesta quinta-feira (19) na revista Frontiers in Communication analisou as capacidades de diferentes chatbots de IA generativa e as emissões geradas ao usá-los.
Os pesquisadores descobriram que chatbots com “cérebros” maiores usavam exponencialmente mais força e respondiam às perguntas com mais precisão —até claro ponto.
“Nem sempre precisamos do maior protótipo, mais intensamente treinado, para responder a perguntas simples. Modelos menores também são capazes de fazer coisas específicas muito”, disse Maximilian Dauner, estudante de doutorado na Universidade de Ciências Aplicadas de Munique e responsável principal do item. “O objetivo deve ser escolher o protótipo claro para a tarefa certa.”
O estudo avaliou 14 grandes modelos de linguagem, uma forma geral de IA generativa frequentemente referida pela {sigla} LLMs, perguntando a cada um 500 questões de múltipla escolha e 500 questões de resposta livre em cinco assuntos diferentes.
Dauner portanto mediu a força usada para executar cada protótipo e converteu os resultados em equivalentes de dióxido de carbono com base em médias globais.
Na maioria dos modelos testados, questões sobre assuntos baseados em lógica, porquê álgebra, produziram as respostas mais longas —o que provavelmente significa que usaram mais força para gerar em verificação com assuntos baseados em fatos, porquê história, disse Dauner.
Chatbots de IA que mostram seu raciocínio passo a passo ao responder tendem a usar muito mais força por pergunta do que chatbots que não o fazem. Os cinco modelos de raciocínio testados no estudo não responderam às perguntas com muito mais precisão do que os outros nove modelos estudados.
O protótipo que mais emitiu, DeepSeek-R1, ofereceu respostas de precisão comparável àqueles que geraram um quarto da quantidade de emissões.
Há informações importantes não capturadas pelo estudo, que incluiu somente LLMs de código ingénuo: alguns dos programas de IA mais populares feitos por grandes corporações de tecnologia, porquê o ChatGPT da OpenAI e o Gemini do Google, não foram incluídos nos resultados.
E porquê o item converteu a força medida em emissões com base em uma média global de CO2, ele ofereceu somente uma estimativa; não indicou as emissões reais geradas pelo uso desses modelos, que podem variar enormemente dependendo de qual país o meio de dados que o executa está localizado.
“Algumas regiões serão alimentadas por eletricidade de fontes renováveis, e algumas funcionarão principalmente com combustíveis fósseis”, disse Jesse Dodge, observador sênior de pesquisa no Instituto Allen para IA, que não estava afiliado à novidade pesquisa.
Em 2022, Dodge liderou um estudo comparando a diferença nas emissões de gases de efeito estufa geradas pelo treinamento de um LLM em 16 diferentes regiões do mundo. Dependendo da idade do ano, algumas das áreas mais emissoras, porquê o meio dos Estados Unidos, tinham aproximadamente três vezes a intensidade de carbono das menos emissoras, porquê a Noruega.
Mas mesmo com essa limitação, o novo estudo preenche uma vácuo na pesquisa sobre o estabilidade entre dispêndio de força e precisão do protótipo, disse Dodge.
“Todo mundo sabe que à medida que você aumenta o tamanho do protótipo, tipicamente os modelos se tornam mais capazes, usam mais eletricidade e têm mais emissões”, disse ele.
Modelos de raciocínio, que têm sido cada vez mais populares, provavelmente estão aumentando ainda mais os custos de força, devido às suas respostas mais longas.
“Para assuntos específicos, um LLM precisa usar mais palavras para chegar a uma resposta mais precisa”, disse Dauner. “Respostas mais longas e aquelas que usam um processo de raciocínio geram mais emissões.”
Sasha Luccioni, líder de IA e clima na Hugging Face, uma empresa de IA, disse que o tema é menos importante do que o tamanho da resposta, que é determinado pela forma porquê o protótipo foi treinado. Ela também enfatizou que o tamanho da exemplar do estudo é muito pequeno para gerar um quadro completo das emissões da IA.
“O que é relevante cá não é o roupa de ser matemática e filosofia, é o tamanho da ingressão e da saída”, disse.
No ano pretérito, Luccioni publicou um estudo que comparou 88 LLMs e também descobriu que modelos maiores geralmente tinham emissões mais altas. Seus resultados também indicaram que a geração de texto por IA —que é o que os chatbots fazem— usava 10 vezes mais força em verificação com tarefas simples de classificação, porquê organizar emails em pastas.
Luccioni disse que esses tipos de ferramentas de IA “da velha guarda”, incluindo funções clássicas de mecanismos de procura, foram negligenciados à medida que os modelos generativos se tornaram mais difundidos. Na maioria das vezes, disse, o usuário médio não precisa usar um LLM.
Dodge acrescentou que pessoas que procuram fatos estão melhor somente usando um mecanismo de procura, já que a IA generativa pode “enlouquecer” informações falsas.
“Estamos reinventando a roda”, disse Luccioni. As pessoas não precisam usar IA generativa porquê uma calculadora, disse. “Use uma calculadora porquê calculadora.”
