Trabalho realizado pela Universidade Carnegie Mellon e a startup HuggingFace mediu pela primeira vez o impacto ambiental da tecnologia

Criar imagens com inteligência artificial generativa pode consumir tanta energia quanto carregar um smartphone. Essa é a constatação de um estudo realizado pela Universidade Carnegie Mellon, dos Estados Unidos, e a startup franco-americana de IA HuggingFace.

O trabalho mediu pela primeira vez o impacto ambiental de modelos de IA generativa e concluiu que a tecnologia requer grandes quantidades de eletricidade, criando uma série de implicações preocupantes para a rede elétrica e para o clima.

“As pessoas pensam que a IA não tem nenhum impacto ambiental, que é uma entidade tecnológica abstrata que vive em uma ‘nuvem’”, disse Sasha Luccioni, investigadora de IA da Hugging Face que liderou a pesquisa, ao Gizmodo. “Mas cada vez que consultamos um modelo de IA, isso acarreta um custo para o planeta, e é importante calcular isso.”

Luccioni e sua equipe analisaram as emissões associadas a 10 tarefas populares de IA na plataforma Hugging Face, como resposta a perguntas, geração de texto, classificação de imagens, legendas e geração de imagens. Eles realizaram os experimentos em 88 modelos diferentes, incluindo Stable Diffusion XL e OpenJourney.

Para cada uma das tarefas, foram executados 1.000 prompts e medidas a energia utilizada com uma ferramenta chamada Code Carbon, que faz os cálculos observando a energia que o computador consome durante a execução.

Consumo de energia e emissão de carbono

Segundo o estudo, a geração de imagens é a tarefa baseada em IA que mais consome energia e emite carbono. Os resultados mostram que um gerador de imagem médio fica próximo da marca de 1,35 kWh (por 1.000 inferências). Para efeito de comparação, carregar um smartphone médio requer 0,012 kWh de energia.

Além disso, a geração de 1.000 imagens foi responsável por tanto dióxido de carbono quanto dirigir o equivalente a 6,5 quilômetros em um carro médio movido a gasolina.

A geração de texto, por sua vez, requer menos energia, com uma média de 0,042 kWh por 1.000 inferências. Isto, de acordo com o portal ExtremeTech, se traduz em uma taxa de emissão de carbono mais baixa, de 0,002 a 0,015 gramas por inferência, dependendo do modelo utilizado.

O MIT Technoloy Review destaca que os pesquisadores também descobriram que usar grandes modelos generativos para criar resultados consumia muito mais energia do que usar modelos menores de IA adaptados para tarefas específicas.

Por exemplo, usar um modelo generativo para classificar resenhas de filmes em positivas ou negativas consome cerca de 30 vezes mais energia do que um modelo ajustado criado especificamente para essa tarefa. A explicação é é que eles tentam fazer muitas coisas ao mesmo tempo, como gerar, classificar e resumir texto, em vez de apenas uma tarefa, como a classificação.

A expectativa de Luccioni é que a pesquisa encoraje as pessoas a serem mais seletivas sobre quando usar a IA generativa e optem por modelos mais especializados e menos intensivos em carbono, sempre que possível.

Texto: Época NEGÓCIOS