Estamos construindo regras para um futuro que ainda não entendemos ou apenas maquiando os problemas do presente?
“Os agentes de IA estão chegando, estejamos prontos ou não”, alerta Daron Acemoglu, Prêmio Nobel de Economia de 2024. Nessa abordagem de “IA autônoma”, o economista identifica vários problemas, entre eles o aumento da desigualdade, pela automação de mais empregos – o que frustra a esperança de prosperidade compartilhada – e pelo acesso privilegiado de poucas empresas e pessoas aos agentes de IA. Ao comparar a tomada de decisão humana com a automatizada, Acemoglu pondera: “Os humanos tomam centenas de decisões todos os dias, algumas das quais têm consequências importantes para suas carreiras, meios de subsistência ou felicidade. Muitas dessas decisões são baseadas em informações imperfeitas ou incompletas, determinadas mais por emoções, intuições, instintos ou impulsos. Os humanos podem tomar a maioria das decisões sem raciocínio sistemático ou sem a devida atenção a implicações completas, e isso não é totalmente ruim. É o que nos torna humanos. A paixão reflete propósito e também pode desempenhar um papel fundamental em como lidamos com um mundo complexo”.
Embora não tenha surgido uma técnica disruptiva recente – a técnica de redes neurais profundas (deep learning), base da maioria das implementações atuais de IA, foi proposta na década de 1980 -, as redes neurais vêm sendo reorganizadas em distintas arquiteturas, modelos, soluções e aplicações, gerando desafios éticos, sociais e políticos inéditos. Apesar de parecer “mágica”, a IA generativa tem limitações estruturais: depende de correlações estatísticas para funcionar, sem compreender o significado por trás dos dados. Chatbots habilitados por IA podem prever a próxima palavra em uma frase para compor a melhor resposta à solicitação do usuário, mas não interpretam seu contexto, o que traz riscos concretos. Além da “evidência inconclusiva” dos resultados, função da variável de incerteza intrínseca a todo modelo estatístico de probabilidade – que produz conhecimento provável, mas inevitavelmente incerto –, a natureza estatística desses sistemas estabelece correlações imprecisas nos vastos conjuntos de dados, perpetuando vieses e discriminações presentes na sociedade.
Essas questões reforçam a relevância do conceito de “IA Responsável”, amplamente discutido, porém pouco implementado. Em essência, trata-se de desenvolver e adotar sistemas que beneficiem a sociedade, priorizando valores como justiça, confiabilidade, segurança, privacidade e responsabilidade. A construção de confiança pública nessa tecnologia é vital, inclusive para a democracia, já que a IA generativa – capaz de disseminar desinformação em massa – ameaça três pilares democráticos: representação, responsabilização e, sobretudo, a confiança no sistema político.
Na “IA Responsável”, a transparência é o elemento crítico. Quanto mais a sociedade, em todas as instâncias, conhecer e entender como os modelos são estruturados, treinados e implementados, maior a chance de uma adoção consciente, que maximize benefícios e minimize riscos. No entanto, a “transparência” não é um atributo muito observado no ecossistema de IA.
Um exemplo recente é o DALL·E 3 (baseado no modelo GPT-4), que viralizou ao transformar memes e fotos pessoais em imagens no estilo do Studio Ghibli, famoso estúdio de animação japonês. Por trás do encantamento de seus fãs, porém, esconde-se uma violação velada de privacidade: ao incentivar usuários a enviar fotos, a OpenAI contorna leis como o GDPR (Artigo 6.1.a) e a LGPD (Artigo 7), que exigiriam consentimento explícito para o processamento desses dados.
A falta de transparência também se manifesta nos chamados modelos de “código aberto”, como o Llama (Meta) e o DeepSeek R1 (China). Embora promovidos como abertos, eles facilitam o acesso e uso por desenvolvedores externos, mas não permitem inspeção total do código e dos dados de treinamento, ou ajustes para tarefas específicas. Esses modelos não estão alinhados com as diretrizes da Open Source Initiative, que exige acesso completo às informações técnicas.
São múltiplos e diversificados os exemplos ilustrativos da falta de transparência associada à inteligência artificial. Um caso de uso de IA pouco falado, mas com impacto significativo sobre o mercado e os consumidores em seu direito à igualdade, são os “preços personalizados”: o conhecimento inédito do cliente, extraído do perfil e comportamento online, incluindo o histórico de compras, permite ajustar o preço do produto ou serviço ao valor presumido que o cliente está disposto a pagar, conceder descontos ou zerar os custos de entrega. A Organização para a Cooperação e Desenvolvimento Econômico (OCDE), já em 2018, demonstrou preocupação com a prática: “Embora a precificação personalizada tenha o potencial de melhorar a eficiência alocativa e beneficiar consumidores de baixo poder aquisitivo que, de outra forma, seriam mal atendidos, em algumas ocasiões também pode levar a uma perda no bem-estar total do consumidor. Além disso, se essas práticas forem conduzidas usando meios não-transparentes ou enganosos, também há o risco de que reduzam a confiança do mercado e criem uma percepção de injustiça, potencialmente diminuindo a participação do consumidor em mercados digitais”. Na Europa, o Artigo 6(1) da Diretiva de Direitos do Consumidor (CRD) exige que os comerciantes informem os consumidores caso apliquem preços personalizados com base na tomada de decisão automatizada, mas o escopo de aplicação desta disposição é limitado a vendas à distância, e a obrigação de informação não é suficientemente eficaz, pois exige apenas divulgar que, e não como, o preço foi personalizado.
Virginia Dignum, professora de “Inteligência Artificial Responsável” na Universidade de Umeå, Suécia, alerta que o termo “IA Responsável” está se esvaziando de significado, transformando-se em mero jargão de marketing. “Governos, corporações e organizações internacionais frequentemente invocam a ideia de responsabilidade para projetar uma imagem de alto nível e comprometimento moral, ao mesmo tempo em que falham em tomar medidas significativas para enfrentar os desafios sistêmicos que a IA representa. As muitas diretrizes e princípios raramente são traduzidos em medidas executáveis ou mudanças sistêmicas. Em vez disso, eles servem como um verniz conveniente para manter o status quo”, adverte Dignum.
O ano de 2024 expôs contradições estridentes:
•Grandes empresas de tecnologia defenderam publicamente a “IA Responsável”, mas fazendo forte lobby contra regulamentações mais rígidas e limitando o escopo de auditorias para evitar questionamentos sobre vieses algorítmicos e impactos ambientais;
•Fóruns globais sobre governança de IA pregaram inclusão, mas excluíram vozes críticas, como representantes do Sul Global e organizações da sociedade civil;
•ONU e OCDE publicaram diretrizes éticas, mas sem mecanismos de fiscalização ou accountability, o que as transformou em meras recomendações ineficazes.
Dignum conclui: “Posturas éticas são adotadas superficialmente, permitindo que atores poderosos pareçam socialmente responsáveis sem arcar com os custos de mudanças genuínas. A opacidade dos sistemas de IA, controlados por poucos, reforça os desequilíbrios de poder existentes e enfraquece a democracia”.
Problemas sociais complexos – como os gerados pela IA – não têm soluções simplistas. Políticas públicas precisam lidar com uma tecnologia que evolui empiricamente, muitas vezes em “beta permanente”. Legisladores e juízes enfrentam dilemas inéditos, como punir discursos discriminatórios gerados por IA (e não por humanos); responsabilizar chatbots usados para crimes; e regular dados sintéticos que distorcem a realidade. Gestores de todas as áreas lidam com o desafio de letramento em IA.
Como Karl Popper lembrava, inovações radicais são por definição imprevisíveis: “Nenhuma invenção conceitualmente revolucionária pode ser antecipada, pois prever sua existência exigiria já conhecê-la”. A crença de que a Inteligência Artificial Geral (IAG) é inevitável e “previsível” ignora justamente que o caminho até ela pode exigir rupturas conceituais que ainda não imaginamos. Enquanto isso, a falta de transparência e o greenwashing ético seguem como obstáculos para uma IA verdadeiramente responsável.
A pergunta que fica é: estamos construindo regras para um futuro que ainda não entendemos ou apenas maquiando os problemas do presente?
Por: Dora Kaufman


