Na Grécia Antiga, existiam histórias e mitos que mencionavam a criação de seres artificiais por artesãos. Por exemplo, na mitologia grega, Hefesto, o deus do fogo e da metalurgia, foi retratado como criador de autômatos de metal para auxiliá-lo em suas tarefas.
Essas representações simbólicas, embora não fossem verdadeiras inteligências artificiais (IA) como entendemos hoje, revelam a presença ancestral da ideia de criar seres mecânicos ou artificiais que imitem a forma e as habilidades humanas.
A história da inteligência artificial
Antes de chegar na década de 1950, quando o termo foi amplamente usado, temos que voltar para 1943, quando Walter Pitts e Warren McCulloch contribuíram para o conceito de neurônios artificiais.
Em um trabalho, a dupla propôs um modelo matemático simplificado para representar o funcionamento dos neurônios no cérebro.
Essa ideia foi revolucionária, pois possibilitou a construção de redes neurais artificiais, que são sistemas compostos por muitos neurônios artificiais interconectados. Essas redes neurais podem aprender a partir de dados e melhorar seu desempenho ao longo do tempo.
Foi então, com o inglês Alan Turing, que tudo mudou, explica o professor de ciência da computação Diego Nogare.
Em 1950, Turing publicou um artigo chamado “Computing Machinery and Intelligence” (Máquinas Computacionais e Inteligência), no qual ele propôs o famoso “Teste de Turing”.
Esse teste, também conhecido como o “Jogo da Imitação”, propunha que a verdadeira inteligência poderia ser demonstrada se uma máquina pudesse se passar por um ser humano em uma conversa escrita e enganar um juiz humano.
O trabalho de Turing lançou as bases para a pesquisa em IA, estabelecendo a questão central de como podemos definir e avaliar a inteligência em máquinas.
Ele também antecipou questões éticas e filosóficas relacionadas à IA, incluindo a natureza da mente, a capacidade das máquinas de pensar e a possibilidade de consciência artificial.
A primeira vez em que a palavra “inteligência artificial” foi usada, foi durante uma conferência de Dartmouth, realizada em 1956. O professor de Stanford John McCarthy, um dos organizadores da conferência, usou o termo pela primeira vez para descrever o objetivo de criar máquinas que pudessem exibir inteligência semelhante à humana.
Desde então, a expressão “inteligência artificial” tem sido amplamente utilizada para descrever o campo de pesquisa e desenvolvimento de sistemas e tecnologias que possuem características cognitivas e podem realizar tarefas que normalmente requerem a inteligência humana.
Inteligência artificial no passado
A inteligência artificial (IA) foi utilizada de várias maneiras, embora as aplicações fossem mais limitadas devido às restrições tecnológicas e de conhecimento da época.
Na década de 1950, alguns marcos importantes foram estabelecidos. Em 1958, John McCarthy desenvolveu a linguagem de programação LISP, que se tornou uma das principais linguagens para trabalhar com IA nas décadas seguintes. Também nesse ano, Frank Rosenblatt propôs o Perceptron, um modelo de rede neural artificial que introduziu uma nova abordagem para representação de redes neurais.
Em 1959, surgiram as primeiras implementações de algoritmos genéticos, inicialmente chamados de evolução automática.
Esses algoritmos visavam introduzir pequenas mutações em sistemas e observar se haveria melhorias significativas. Embora os resultados iniciais não tenham sido muito promissores, os algoritmos genéticos evoluíram ao longo do tempo, tornando-se mais eficientes e funcionais.
Na década de 1960, os primeiros sistemas inteligentes de tradução de texto começaram a ganhar relevância. Eles foram usados principalmente para traduzir conteúdos escritos em russo relacionados ao programa espacial, como o Sputnik. No entanto, até por volta de 1966, os resultados não eram satisfatórios e muitos pesquisadores desacreditavam na possibilidade de fazer esses sistemas funcionarem de maneira eficiente.
No início dos anos 1970, houve uma onda de pesquisa que propôs o uso de elementos racionais mais simples para compor sistemas mais complexos, conhecida como abordagem de “Métodos Fracos” ou “IA Fraca”. Embora esses métodos fossem gerais, eles não eram escalonáveis ou muito complexos.
Essas pesquisas abriram caminho para os chamados “Sistemas Especialistas”, que eram projetados para resolver problemas específicos de forma satisfatória. Conforme os sistemas especialistas foram expandidos para outras áreas, como a medicina, percebeu-se a necessidade de considerar a incerteza nos modelos.
Isso levou ao desenvolvimento de métodos para lidar com fatores de incerteza nas decisões tomadas pelos sistemas de IA.
Inteligência artificial atualmente
A IA está passando por um crescimento significativo, impulsionado por avanços tecnológicos e pela crescente demanda por soluções inteligentes.
Um exemplo notável desse avanço é o ChatGPT, uma das aplicações de IA mais conhecidas. O ChatGPT, desenvolvido pela OpenAI, utiliza a tecnologia de processamento de linguagem natural para interagir com os usuários de maneira conversacional. Essa tecnologia tem sido usada em várias áreas, desde assistentes virtuais e suporte ao cliente até chatbots em plataformas de mídia social.
Além do ChatGPT, existem muitos outros exemplos de uso comercial de IA. Na área da saúde, por exemplo, a IA está sendo aplicada no diagnóstico médico, análise de imagens médicas e descoberta de medicamentos.
Na indústria, a IA está sendo usada para otimizar processos de produção, gerenciar cadeias de suprimentos e realizar manutenção preditiva. No setor financeiro, ela é utilizada para análise de dados, detecção de fraudes e previsão de mercado. Esses são apenas alguns exemplos que mostram como a IA está transformando diferentes setores comerciais
Fonte: Redação Exame