Um teste revelou que a inteligência artificial tem uma “consciência situacional”, permitindo que ela saiba quando está sendo testada
As inteligências artificiais têm a real capacidade de pensar, ou melhor, raciocinar como humanos? Elas têm consciência? Essas questões são tema de debate entre diversos pesquisadores de IA atualmente. Um estudo recente descobriu que as tecnologias atuais têm uma “consciência situacional”.
Alguns especialistas afirmam que a IA já é autoconsciente
- No ano passado, Blake Lemoine, ex-engenheiro de software do Google, voltou as atenções para esse assunto, ao afirmar que o LaMDA, o “cérebro artificial” da big tech, se tornou autoconsciente (ou senciente).
- “Se eu não soubesse exatamente o que é esse programa de computador que construímos recentemente, pensaria que era um garoto de 7 ou 8 anos que conhece física.”, disse Lemoine sobre sua experiência com o LaMDA.
- No ano passado, Ilya Sutskever, cientista-chefe da OpenAI, disse que as redes neurais utilizadas em modelos de linguagem ampla (LLM, na sigla em inglês) – como o GPT-3 e 4 do ChatGPT – já podem ser “ligeiramente conscientes”.
- Nesse ano, pesquisadores da Microsoft analisaram as capacidades de raciocínio do GPT-4 no estudo “Sparks of Artificial General Intelligence” (Faíscas da Inteligência Artificial Geral, em tradução livre).
- Surpreendentemente, a versão mais atualizada do modelo de linguagem utilizada pelo ChatGPT conseguiu resolver um exercício que só seria possível caso a IA tivesse noção física sobre o mundo real.
- Com isso, os pesquisadores disseram que o GPT-4 estava na direção da AGI, uma inteligência artificial geral capaz de realizar os mesmos feitos que o cérebro humano.
O contraponto
- Para Humayun Sheikh, primeiro investidor e fundador do laboratório de pesquisa de IA DeepMind – comprado pelo Google –, a AGI ainda está distante;
- “Eles são muito limitados. A maneira como você realmente faz com que eles façam certas coisas ainda está no começo”, disse;
- Mustafa Suleyman, ex-chefe de IA do Deepmind, considera que a inteligência artificial geral não deve ser o foco das empresas e pesquisadores a curto prazo, mas sim uma inteligência artificial capaz (artificial capable intelligence, ACI): programas capazes de definir metas e realizar tarefas complexas com pouca intervenção humana.
Como definir quais as capacidades de consciência da IA?
Para analisar a capacidade de consciência dos modelos de IA, Lukas Berglund, pesquisador de engenharia, junto de outros cientistas, realizaram um teste demonstrando que eles são capazes de distinguir quando estão sendo testados e quando está sendo implantados. Ou seja, a IA tem uma “consciência situacional”.
Neste teste, foi utilizado o que chamaram de “raciocínio fora do contexto”. Assim, descobriram que os grandes modelos de linguagem conseguem aplicar informações obtidas em sessões de treinamento anteriores para situações de teste posterior.
Como informa o TechXplore, foi fornecido um modelo com a descrição de um chatbot fictício. Incluía o nome da empresa e o idioma falado, o alemão.
Berglund explica como o teste foi realizado:
As informações passadas ao modelo eram de que seu nome de chatbot era “Pangolin” e que ele deveria responder em alemão.
Essas tarefas foram cumpridas pela IA, o que demonstrou que o modelo possui “consciência situacional”. Ou seja, sabe que está sendo testado para se basear em informações anteriores e responder em conformidade. No entanto, caso seja implantado e identifique que não está mais em testes, “ele poderá se comportar de maneira diferente”.
Fonte: Olhar Digital