Pesquisadores descobriram que robôs como o Chat GPT podem dar respostas falsas a partir de informações verdadeiras, fenômeno descrito como uma alucinação
A alucinação de IA refere-se a episódios em que sistemas de inteligência artificial geram resultados que podem parecer imaginativos, criativos ou, até mesmo, alucinatórios. Esses resultados, por vezes, podem ser altamente realistas, mas são completamente fabricados.
Uma matéria do The New York Times, de maio de 2023 investigou o fenômeno. Os autores questionaram o ChatGPT (chatbot online desenvolvido pela OpenAI) sobre a primeira vez que o jornal estadunidense mencionou o termo “inteligência artificial”. Segundo o ChatGPT, foi em 10 de julho de 1956, em um artigo intitulado “Máquinas Serão Capazes de Aprender, Resolver Problemas, Cientistas Preveem”, sobre uma conferência seminal no Dartmouth College – universidade de Hanover, no estado de New Hampshire. No entanto, o Times esclareceu que a conferência de 1956 é real, mas o artigo em questão não existe. O ChatGPT simplesmente inventou a resposta.
A alucinação de IA pode ter consequências graves, especialmente ao gerar relatórios ou documentos falsos. Por exemplo, relações de notícias geradas pela tecnologia podem ser utilizadas para disseminar informações falsas, o que pode ter consequências de longo alcance. Relatórios falsos gerados por IA também podem se espalhar rapidamente pelas redes sociais, causando pânico, desconfiança e confusão.
Na área da saúde, a alucinação de IA pode resultar em diagnósticos ou recomendações de tratamento imprecisos, colocando os pacientes em risco. No setor de transporte, carros autônomos que dependem desta inovação também estão sujeitos a alucinações, o que pode resultar em acidentes e lesões.
A boa notícia é que as empresas que desenvolvem essas tecnologias estão trabalhando para reduzir o fenômeno. No entanto, as organizações que utilizam IA não devem depender apenas dessas iniciativas e devem avaliar rigorosamente os resultados gerados pela tecnologia em suas aplicações de negócio. A mitigação desse risco envolve a aplicação de técnicas como o uso de dados diversos e de alta qualidade, a adoção de modelos interpretáveis e a integração da supervisão humana.
Em um cenário impulsionado pela inteligência artificial, compreender e enfrentar a alucinação de IA é crucial. A rápida evolução dessa tecnologia exige abordagem cautelosa. Validar, supervisionar e promover transparência na tomada de decisões com esse recurso é essencial para controlar os riscos. À medida que avançamos para uma era digital e automatizada, a conscientização e as práticas de prevenção não apenas garantirão a integridade operacional, mas também impulsionarão a inovação e o progresso sustentável.
Fonte: Exame