quinta-feira, 23 abril, 2026
HomeTECNOLOGIAINTELIGÊNCIA ARTIFICIALInteligência artificial geral pode surgir da integração entre IA simbólica e redes...

Inteligência artificial geral pode surgir da integração entre IA simbólica e redes neurais

Avançam os esforços na combinação entre regras lógicas e aprendizado profundo

Muito tem se discutido sobre a inteligência artificial geral (IAG), um tipo de IA que teria a capacidade de compreender, aprender e aplicar conhecimento para realizar as mesmas tarefas intelectuais que o ser humano. Mas, isso, segundo muitos especialistas, ainda está longe de acontecer.

E, enquanto essa tecnologia não vira realidade, uma possibilidade começa a ganhar força visando a criação de uma IA mais inteligente e confiável: a combinação da inteligência artificial simbólica, que baseia-se em regras formais e em uma codificação das relações lógicas entre conceitos, com as redes neurais, no que está sendo chamada de “IA neurosimbólica”.

Brandon Colelough, cientista da computação da Universidade de Maryland em College Park, dos Estados Unidos, disse à revista Nature que uma melhor integração dessas duas estratégias poderia levar à IAG e, também, poderia ser útil para aplicações de alto risco, como a tomada de decisões militares ou médicas.

Ele explicou que, como a inteligência artificial simbólica é transparente e compreensível para os humanos, não sofre da síndrome da “caixa preta”, que pode dificultar a confiabilidade das redes neurais.

Atualmente, já há exemplos de IA neurosimbólica. Um deles é o AlphaGeometry do Google DeepMind, capaz de resolver com segurança problemas de Olimpíadas de Matemática.

Reportagem da Nature destaca que redes neurais e algoritmos simbólicos têm vantagens e desvantagens. As primeiras “são compostas por camadas de nós com conexões ponderadas que são ajustadas durante o treinamento para reconhecer padrões e aprender com os dados. Elas são rápidas e criativas, mas também estão sujeitas a gerar resultados aleatórios e não conseguem responder com segurança a perguntas que estejam além do escopo dos dados de treinamento”, diz o texto.

E segue: “Os sistemas simbólicos, por sua vez, têm dificuldade em abarcar conceitos ‘complexos’, como a linguagem humana, que envolvem vastos bancos de dados de regras difíceis de construir e lentos de pesquisar. Mas seu funcionamento é claro e eles são bons em raciocinar, usando a lógica para aplicar seu conhecimento geral a novas situações”.

Diante disso, muitos argumentam que adicionar simbolismo às redes neurais pode ser a melhor – ou a única – maneira de injetar raciocínio lógico na IA.

Jiayuan Mao, pesquisadora de IA que concluiu doutorado no Instituto de Tecnologia de Massachusetts (MIT), dos Estados Unidos, obteve sucesso ao usar IA neurosimbólica para tornar o treinamento de robôs mais eficiente. Sua estratégia consiste em usar uma rede neural para reconhecer objetos (como uma bola de borracha vermelha ou um cubo de vidro verde) em um campo visual e, em seguida, usar um algoritmo simbólico para raciocinar sobre questões relacionais relacionadas a esses objetos – por exemplo, como o objeto de borracha está atrás do objeto verde?

De acordo com ela, uma rede neural pura precisaria de 700.000 exemplos em seus dados de treinamento para atingir 99% de precisão nessa tarefa. Mas, ao adicionar técnicas simbólicas, precisaria de apenas 10% desse número. “Mesmo usando 1%, ainda é possível obter 92% de precisão, o que é bastante impressionante”, afirmou.

Desafios da IA simbólica

A Nature pontua que um dos grandes desafios da IA ​​simbólica é como codificar o conhecimento humano, por vezes complexo, em uma linguagem de lógica e regras. Uma das primeiras tentativas nesse sentido foi o projeto Cyc, iniciado pelo cientista da computação Doug Lenat em 1984 e posteriormente supervisionado por sua empresa de IA, a Cycorp.

A intenção era articular explicitamente fatos de senso comum e regras práticas, como “uma filha é uma criança”, “as pessoas amam seus filhos” e “ver alguém que você ama faz você sorrir”.

O Cyc, que agora contém mais de 25 milhões de axiomas, tem sido usado em diversos projetos de IA e inspirou outros, como o Knowledge Graph do Google, que armazena mais de 500 bilhões de fatos.

A roboticista Leslie Kaelbling, do MIT, disse à Nature que bancos de dados simbólicos podem ajudar uma IA a generalizar o conhecimento de uma situação e aplicá-lo em outra, o que é uma maneira poderosa de tornar o raciocínio mais eficiente. Mas há uma compensação na precisão ao lidar com assuntos para os quais existem muitas exceções às “regras” — nem todas as pessoas amam seus filhos, por exemplo, e ver algo que você ama nem sempre te faz sorrir.

Kaelbling salientou que o simbolismo deve ser incorporado apenas quando for útil. “O Cyc estava tentando transformar o senso comum em matemática. Isso é quase certamente uma má ideia”, apontou.

Para Colelough, o que se faz necessário é muito mais pesquisa sobre a “metacognição” da IA ​​- como a IA monitora e conduz seu próprio pensamento. Isso permitiria que os “maestros” da IA ​​supervisionassem uma integração mais sofisticada dos dois paradigmas, em vez de simplesmente terem diferentes mecanismos se revezando.

O cientista da computação da Universidade de Maryland em College Park afirmou que a AlphaGeometry faz isso bem, mas em um contexto limitado. Segundo ele, se um maestro flexível que funcionasse para qualquer domínio do conhecimento pudesse ser desenvolvido, “isso seria a Inteligência Artificial Geral (IAG)”.

Mao complementou que o objetivo final é aproveitar a capacidade de aprendizado das redes neurais para criar regras, categorias e linhas de raciocínio que os humanos ainda desconhecem.

“A esperança é que, eventualmente, possamos ter sistemas que também criem suas próprias representações simbólicas e algoritmos simbólicos, de modo que possam realmente ir além do conhecimento humano. Precisamos estudar como os computadores podem ensinar os humanos, e não como os humanos podem ensinar as máquinas”, ela finalizou.

Por: Renata Turbiani

RECOMENDADOS

MAIS POPULAR