domingo,24 novembro, 2024

Os exércitos humanos por trás da inteligência artificial

Em 1809, Napoleão Bonaparte perdeu uma partida de xadrez contra uma máquina. Composta por uma mesa cheia de engrenagens, um tabuleiro e um autômato vestido como um homem turco que mexia as peças, a invenção era capaz de jogar partidas completas e até responder perguntas simples em inglês, alemão e francês apontando para o alfabeto. Em seu tour pela Europa e pelos Estados Unidos, o Turco, como era chamado, venceu reis e imperadores e capturou a curiosidade de Benjamin Franklin e Edgar Allan Poe. 

Mas como um autômato com um mecanismo parecido com o de um relógio foi capaz de vencer partidas de xadrez quase duzentos anos antes do Deep Blue da IBM derrotar Garry Kasparov? A resposta simples é que não foi. O Turco não passava de um truque; era operado, na verdade, por um enxadrista habilidoso que se escondia no interior da mesa. A engenhosidade da máquina consistia não no mecanismo que mexia as peças e sim no uso de uma série de técnicas de mágica para gerar a ilusão de que não havia espaço para um operador humano dentro dela. 

A história inspirou a Amazon a criar, em 2001, o Amazon Mechanical Turk, um serviço de terceirização de tarefas que fossem caras demais ou até impossíveis de serem feitas com programação. Imagine que você precisasse fazer um programa de computador para comprar ingressos em um site com CAPTCHA, aquelas letras difíceis de ler que os sites pedem para digitar. Como há até pouco tempo robôs eram incapazes de burlar essas proteções, a única solução era contratar seres humanos para fazer essa parte. Assim como o Turco, essas pessoas faziam o trabalho complexo que as máquinas ainda não eram capazes de fazer. A plataforma do Amazon Mechanical Turk oferecia uma forma fácil de contratar essas pessoas, reunindo gente do mundo todo disposta a fazer pequenas tarefas em troca de dinheiro. A companhia chegou a cunhar o termo “inteligência artificial artificial” para se referir à solução. 

O serviço existe até hoje, mas a quantidade de tarefas que não podem ser realizadas por computadores diminuiu. O avanço da inteligência artificial fez com que tarefas antes impossíveis de se programar, como a leitura de placas de rua e de livros antigos, se tornassem muito mais baratas e dispensassem o componente humano do processo. 

Outro serviço da Amazon chamou atenção esta semana por razões parecidas. Quando a empresa anunciou que descontinuará sua linha de mercados com a tecnologia “Just Walk Out”, em que os clientes podem pegar os produtos da prateleira e sair andando sem passar por um caixa, diversos veículos de mídia noticiaram que o fechamento da rede se dera porque ela dependia não de câmeras com inteligência artificial e sim de um time de mais 1.000 pessoas na Índia assistindo aos vídeos e registrando o que cada pessoa tinha comprado. Seria a suposta tecnologia da Amazon, aplaudida pela proeza de engenharia, apenas mais um turco mecânico? 

Não é bem assim. A confusão que levou muita gente a acreditar que o sistema inteiro não passava de centenas de indianos classificando as compras por trás dos panos parece ter sido um telefone sem fio jornalístico que começou com uma matéria do Gizmodo. A matéria alega que a tecnologia meramente permitia que os atendentes estivessem em outro lugar (nesse caso, em outro país) assistindo por vídeo, em vez de processando pagamentos em um caixa. Além disso, afirma que 1.000 pessoas na Índia eram responsáveis pela tarefa, citando como fonte um artigo de quase um ano atrás do The Information

No entanto, a matéria do Gizmodo esclarece que a Amazon nunca confirmou esses números e, mais ainda, que a função do time na Índia não era registrar as compras e sim avaliar a qualidade do modelo de inteligência artificial. O esclarecimento não foi suficiente para evitar que a notícia se espalhasse como mais um caso de turco mecânico, levantando piadas de quem seriam as milhares de pessoas respondendo as perguntas no ChatGPT. 

O mais provável, contudo, era que o time na Índia não estivesse calculando e verificando cada compra, apenas classificando uma parte delas para comparar com a performance da tecnologia. Apenas um número mínimo das compras exigiam intervenção humana

Mas por que exatamente um modelo de inteligência artificial precisa de humanos para avaliar sua qualidade? O ponto todo da inteligência artificial não é justamente que a máquina vai fazer isso sozinha? 

Na verdade, os modelos de inteligência artificial não são muito diferentes de seres humanos quando se trata de como eles sabem fazer algo: primeiro, eles precisam aprender. Para treinar um robô a identificar que produtos uma pessoa está comprando em uma loja, não basta alimentar ele com vídeos de pessoas comprando; você precisa fornecer também qual a resposta certa, um gabarito de cada vídeo que ajude o robô a entender quando ele acertou e quando ele errou, de forma que ele possa ajustar seu “raciocínio”. 

Como esses modelos precisam de uma base gigantesca de treinamento, são necessárias milhares de pessoas fornecendo as respostas corretas para abastecê-los. Você certamente já trabalhou fazendo isso e provavelmente nem sabia. Sabe quando para acessar um site você precisa clicar nos quadradinhos que mostram semáforos ou motos? Suas respostas estão sendo usadas como gabarito para treinar uma inteligência artificial que identifica objetos de trânsito. Reunindo milhões de respostas no mundo todo, empresas como o Google conseguem criar uma base de dados enorme sem precisar contratar ninguém. 

(Aliás, antes desse tipo de solução se popularizar, empresas que precisassem de mão de obra para classificar suas bases de dados de treinamento muitas vezes recorriam ao… Amazon Mechanical Turk. A diferença é que deixar esse trabalho para os usuários sai de graça.) 

Embora a ideia de usar pessoas para isso já exista há algum tempo, ela ganhou força em 2017, quando a OpenAI, a empresa criadora do ChatGPT, publicou um estudo científico mostrando como fazer isso de forma mais escalável. Mais tarde, essa técnica se tornaria um componente fundamental na criação do ChatGPT: depois de treinar o modelo base usando textos na internet, a OpenAI contratou um grande número de trabalhadores quenianos para avaliar as respostas do modelo e punir resultados inapropriados. Por fim, a empresa ainda contratou alunos de doutorado de diversas áreas para avaliar as respostas do modelo quanto a sua acurácia científica. É isso que evita (ou tenta evitar) que o ChatGPT produza respostas ofensivas ou inverídicas, o que não seria possível se ele fosse treinado somente em textos da internet. 

Da mesma forma, os trabalhadores da Amazon na Índia, seja lá quantos são, ajudavam a aprimorar os modelos que captavam as compras dos clientes, sobretudo em lojas com tamanhos ou formatos diferentes. Sem esse componente humano, seria impossível o modelo saber, para começo de conversa, como ele deveria se comportar. Por isso não é de se espantar que a divisão contratasse muita gente, mesmo que os números tenham sido exagerados. 

Pelo menos pelo futuro próximo, empresas de inteligência artificial continuarão precisando de pessoas para classificar suas bases de dados e avaliar os resultados dos modelos. Evoluímos muito desde o Turco enganoso, mas não a ponto de conseguirmos dispensar a intervenção humana. Nem mesmo nos mercados sem atendentes. 

Por: Gabriel Prado

Redação
Redaçãohttp://www.360news.com.br
1º Hub de notícias sobre inovação e tendências da região Centro-Oeste e Norte do Brasil.

LEIA MAIS

Recomendados