quinta-feira, 23 abril, 2026
HomeTECNOLOGIAINTELIGÊNCIA ARTIFICIALA ciência contra o hype na inteligência artificial

A ciência contra o hype na inteligência artificial

A corrida por uma inteligência artificial “geral” ou “superior” à humana, movida mais por hype e protagonismo no ecossistema de IA do que por ciência sólida, sustenta-se em duas falácias: a de que pensamento é linguagem, e a de que existe uma inteligência única e linearmente escalável

A competição desenfreada na indústria de inteligência artificial (IA), alimentada pela ausência de modelos de negócios sustentáveis em IA generativa e pela pressão para manter o hype e o interesse do capital de risco, promove a narrativa de que em breve teremos sistemas de IA tão inteligentes ou mais inteligentes que os humanos (as denominadas IAG e “superinteligência”).

A coluna anterior – “A Ilusão do ‘Humano Universal’ na Inteligência Artificial” (28 de novembro) – alertou para a proliferação de testes que comparam o desempenho de sistemas de IA ao “humano”, ignorando, ao tratá-lo como monolítico, que o humano é uma espécie extremamente diversificada. É hora de ouvir mais a ciência, não que ela seja sempre portadora da verdade, ou que todos os cientistas sejam igualmente competentes, mas ao menos parte deles merece mais credibilidade do que às narrativas da indústria.

Primeiro aspecto é a dissociação entre pensamento e linguagem. O pensamento humano – um tipo específico de cognição, que também abrange memória, raciocínio e outros processos – pode ser visto como um “método de busca”: tomar uma decisão pressupõe um modo de pensar, de seguir etapas, de formular hipóteses, imaginar cenários, procurar no espaço de ideias o que vale a pena considerar.

Esse processo, que constrói o raciocínio, está além dos limites de redes neurais puramente probabilísticas, que estabelecem apenas correlações, mas não contemplam causalidades, cenários contrafactuais ou analogias, componentes intrínsecos ao raciocínio humano como defendem Judea Pearl e Dana Mackenzie no excepcional livro “The Book of Why” (tema da coluna “Raciocínio: habilidade vital para aproximar a IA da cognição humana”, 23 de fevereiro de 2024).

Já em 2018, a psicóloga Cecilia Heyes da Universidade de Oxford, dedicada ao estudo da evolução da mente humana, argumentava em “Cognitive Gadgets: The Cultural Evolution of Thinking” que o diferencial humano está no desenvolvimento de “dispositivos cognitivos” únicos, transmitidos culturalmente, e não geneticamente, entre gerações que nos permitem dar sentido ao mundo.

A IA generativa é, essencialmente, um modelo de linguagem. Mas o que é exatamente “linguagem”? Aparentemente, evidências recentes da neurociência sugerem que a linguagem é primariamente um recurso de comunicação, transmissão de conhecimento, cultura e sentimentos, e, contradizendo o senso comum, não a utilizamos necessariamente para pensar. Ela reflete a sofisticação da cognição humana, mas não a constitui.

Esse é o cerne do artigo publicado na Nature, uma das mais importantes revista científica, “Language is primarias a tool for Communication rather than though” (Evelina Fedorenko, Steven T.Piantodosi & Edward A.F. Gibson, 19 de Junho de 2024). Segundo os autores, “a linguagem não é necessária nem suficiente para o pensamento”, que, de modo geral, abrange nosso conhecimento do mundo e capacidade de fazer inferências e previsões. Se a linguagem mediasse o pensamento este não seria possível na ausência de linguagem, o que não se observa em indivíduos com danos ou distúrbios cerebrais.

“As evidências são inequívocas: há muitos casos de indivíduos com graves deficiências linguísticas, afetando tanto as habilidades lexicais quanto sintáticas, que, no entanto, exibem habilidades intactas para se envolver em muitas formas de pensamento; eles podem resolver problemas matemáticos, realizar planejamento executivo e seguir instruções não verbais, se envolver em diversas formas de raciocínio – incluindo raciocínio lógico formal, raciocínio causal sobre o mundo e raciocínio científico -, para entender o que outra pessoa acredita ou pensa, e realizar inferência pragmática para navegar no mundo, e para fazer julgamentos semânticos sobre objetos e eventos”, ponderam.

Por meio de ressonância magnética funcional (RMf), observou-se que as regiões cerebrais da rede da linguagem permanecem em grande parte inativas durante tarefas não linguísticas de pensamento, incluindo raciocínio matemático, raciocínio lógico formal e execução de tarefas.

No entanto, reconhecem que a linguagem, em algumas situações, pode ser crucial para o desenvolvimento de certos tipos ou maneiras de pensar, e concluem: “Embora o acesso à palavras, estruturas sintáticas ou símbolos não linguísticos possa facilitar o desempenho em certas tarefas cognitivas, a linguagem está duplamente dissociada do pensamento e raciocínio”. Como Yann LeCun tem reiterado: “o pensamento não requer linguagem. A linguagem é uma expressão do pensamento. A inteligência requer pensamento mais do que linguagem”.

Uma segunda ideia equivocada propagada pela indústria de IA é a suposição de que existe uma “inteligência geral” única, seja biológica ou artificial. Um artigo da Association for Psychological Science “Transmission Verrsus Truth, Imitation Versus Innovation: What Children Can Do That Large Language and Language-and-Vision Models Cannot (Yet)” (26 de outubro de 2023), contesta essa suposição, lembrando que a ciência cognitiva aponta para múltiplas formas de inteligência, com perfis de desenvolvimento distintos e que se compensam mutuamente.

O estudo rebate alegações de que modelos de IA podem realizar raciocínio abstrato e criatividade semelhantes aos humanos: “Nada no treinamento ou funções objetivas dos LLMs é projetado para cumprir as funções epistêmicas de sistemas de busca da verdade, como percepção, inferência causal ou formação de teorias”. O problema das “alucinações” é bem conhecido, mas mal formulado — a própria noção de “alucinar” pressupõe que o agente discrimina entre representações verídicas e não verídicas, algo que os LLMs simplesmente não fazem.

Portanto, a corrida por uma inteligência artificial “geral” ou “superior” à humana, movida mais por hype e protagonismo no ecossistema de IA do que por ciência sólida, sustenta-se em duas falácias: a de que pensamento é linguagem, e a de que existe uma inteligência única e linearmente escalável. Aparentemente, a ciência cognitiva e a neurociência nos mostram, ao contrário, que a mente humana transita por uma constelação de dispositivos cognitivos, muitos deles independentes da linguagem.

A IA generativa atual, por mais impressionante que seja, é um sistema de correlações estatísticas, e não um sistema de pensamento. Até que os modelos consigam incorporar os mecanismos fundamentais do raciocínio humano – como a causalidade, a contrafactualidade e a busca epidêmica por verdades -, a promessa de uma “superinteligência” será puramente ficção, e não uma realidade iminente. O caminho mais prudente não é projetar expectativas humanas universais sobre as máquinas, mas ouvir o que a ciência já sabe sobre a complexa e diversa natureza da inteligência humana.

Por: Dora Kaufman

RECOMENDADOS

MAIS POPULAR