A inteligência artificial tem introduzido vários debates existenciais na sociedade. Filmes de ficção científica pintam cenários apocalíticos e distópicos sobre um futuro onde a humanidade já não detém a primazia do conhecimento e está subjugada a uma nova ordem mundial controlada por robôs. No entanto, o próximo debate existencial em cima da mesa não tem como alvo a humanidade, mas sim a própria inteligência artificial (IA).
De acordo com um novo estudo realizado pelo grupo Epoch AI, os sistemas de IA, como é o caso do famoso ChatGPT, vão esgotar os recursos que os tornam cada vez mais inteligentes: “as dezenas de biliões de palavras retiradas de milhares milhões de páginas da internet”, lê-se no documento. E o momento está cada vez mais próximo: deve acontecer entre 2026 e 2032.
Tamay Besiroglu, uma das autoras do estudo, comparou esta problemática a uma “corrida ao ouro”, em conversa com a Associated Press. Se a IA mantiver o ritmo de aprendizagem que tem registado nos últimos anos, os recursos vão rapidamente esgotar-se, uma vez que os humanos não conseguem produzir conteúdo à velocidade a que os sistemas de IA o absorvem.
“Se começarmos a encontrar estas restrições no que respeita à quantidade de dados que temos disponíveis, deixamos de conseguir dar escala aos nossos modelos de forma eficiente. E esta é a forma mais importante de expansão das capacidades e da qualidade dos dados que a inteligência artificial produz”, explicou Besiroglu.
Até ao limite… e mais além
As gigantes tecnológicas têm, cada vez mais, ampliado os seus sistemas que operam com recurso a esta tecnologia, através de acordos com meios de comunicação social, como é o caso do Wall Street Journal, e, até mesmo, com o Reddit, para se aproveitarem das milhares de discussões realizadas por dia nos fóruns da rede social. No entanto, isto não é suficiente, uma vez que não existem fóruns, artigos ou estudos suficientes para sustentar o crescimento exponencial que a tecnologia tem registado, principalmente, nos últimos anos.
Que opções têm então as gigantes tecnológicas que querem expandir cada vez mais os seus sistemas de IA? De acordo com o estudo, aceder a dados privados, como mensagens de texto ou emails, das pessoas poderia ser uma opção, caso não fosse eticamente reprovável – e mesmo aí só estariam a expandir os limites, em vez de os eliminar. Pagar a milhões de humanos para criar texto que os sistemas de IA possam utilizar também “não parece ser uma forma economicamente sustentável” para resolver a problemática.
A resposta pode estar mesmo na criação de dados sintéticos – ou seja, não elaborados por humanos. Sam Altman, CEO da OpenAI, admitiu, numa audiência realizada nas Nações Unidas em maio, que a empresa já se encontra a experimentar com a criação deste tipo de dados para treinar os seus sistemas de IA.
“Eu acho que o que precisamos é de dados de alta qualidade. Existem dados sintéticos de baixa qualidade, como existem dados humanos de baixa qualidade também” concluiu Altman, que acabou por admitir que basear a expansão da IA apenas nesta técnica poderá ser “ineficiente”.
Ricardo Jesus Silva