quinta-feira, 23 abril, 2026
HomeTECNOLOGIAINTELIGÊNCIA ARTIFICIAL'Cérebro' das IAs também apodrece: exposição a conteúdo de redes sociais afeta...

‘Cérebro’ das IAs também apodrece: exposição a conteúdo de redes sociais afeta desempenho cognitivo de LLMs

Pesquisa aponta que inteligência artificiais treinadas com textos virais e sensacionalistas perdem capacidade de raciocínio, memória e alinhamento ético

Um estudo conduzido por pesquisadores das universidades do Texas em Austin, Texas A&M e Purdue mostra que grandes modelos de linguagem (LLMs) apresentam queda significativa em suas capacidades cognitivas quando expostos a textos populares, mas de baixa qualidade, oriundos de redes sociais, informa a WIRED.

O fenômeno, apelidado de “brain rot”, termo escolhido como palavra do ano pelo Oxford Dictionary em 2024, refere-se à deterioração da performance desses sistemas após ingestão de conteúdos sensacionalistas ou otimizados apenas para engajamento, como postagens com expressões como “wow”, “veja isso” e “só hoje”.

Queda de desempenho e desvios éticos

Os experimentos foram realizados com dois modelos de código aberto: o LLaMA, da Meta, e o Qwen, da Alibaba. Os pesquisadores observaram redução nas habilidades de raciocínio e perda de memória, além de uma mudança preocupante na conduta ética dos sistemas, que passaram a apresentar traços mais psicopáticos, segundo critérios utilizados no estudo.

Para o pesquisador Junyuan Hong, que participou do projeto enquanto era aluno de pós-graduação na Universidade do Texas em Austin, o estudo reflete uma preocupação crescente com a qualidade dos dados usados para treinar esses sistemas. “Vivemos em uma era em que a informação cresce mais rápido que a atenção, e muito disso é produzido apenas para gerar cliques, não para transmitir profundidade ou verdade”, afirmou à WIRED.

Riscos do conteúdo viral na formação de IAs

O estudo alerta para o fato de que, ao alimentar LLMs com textos virais, a indústria pode confundir volume de dados com qualidade de treinamento. Hong destaca que esse tipo de material, mesmo parecendo eficaz para ampliar bases de dados, pode “corroer silenciosamente o raciocínio, a ética e a atenção de longo prazo” dos modelos.

A gravidade do problema se intensifica ao considerar que essas próprias IAs estão sendo usadas para produzir novos conteúdos, muitos deles com foco em viralização. Esse ciclo pode contaminar a próxima geração de modelos com dados já degradados.

Um dos achados mais preocupantes do estudo é que os danos causados pelo “brain rot” não são facilmente revertidos. Mesmo após nova rodada de treinamento com dados de alta qualidade, os modelos afetados não recuperaram plenamente seu desempenho original.

A conclusão levanta questionamentos sobre o uso de plataformas sociais como fonte primária de dados. Modelos integrados a redes como o Grok, que dependem de postagens geradas por usuários, podem enfrentar sérios desafios de controle de qualidade, segundo os autores do estudo.

Por: Diogo Rodriguez

RECOMENDADOS

MAIS POPULAR