“Enquanto você tiver um pequeno número de empresas controlando as principais tecnologias, você vai obter os códigos que refletem as decisões tomadas nessas três ou quatro corporações”, afirma a autora do livro “Mais do que uma falha: confrontando preconceitos de raça, gênero e habilidade na tecnologia”; confira a entrevista

No debate público sobre os potenciais riscos e benefícios da IA generativa, Meredith Broussard adota uma perspectiva contrária à dos entusiastas da tecnologia. De forma bastante direta, ela afirma: “Precisamos parar com esse tecnochauvinismo, isto é, a ideia de que algumas soluções tecnológicas são superiores às outras e vão nos livrar de corrigir problemas que são humanos”.

Pesquisadora da NYU Alliance for Public Interest Technology, professora associada do Arthur L. Carter Journalism Institute of New York University e autora dos livros “More than a Glitch: Confronting Race, Gender, and Ability Bias in Tech” (Mais do que uma falha: confrontando preconceitos de raça, gênero e habilidade na tecnologia) e “Artificial Unintelligence” (Não-inteligência artificial, em tradução livre), Broussard não é contra a tecnologia. Pelo contrário — seu ponto de vista parte do entendimento de como operam os sistemas de machine learning.

“Você pega um conjunto de dados sobre o mundo real, insere no computador e diz: ‘Faça um modelo’. Então, o modelo mostra padrões matemáticos e você pode usá-los para tomar decisões, fazer predições, gerar textos e imagens. Tendemos a pensar nos computadores de um jeito mágico, mas eles são máquinas baseadas em matemática. Quando você entende desse jeito, é fácil compreender como os vieses humanos se infiltram nos modelos, porque vieses são históricos e estão nos dados”, observa.

Ela cita, como exemplo, algoritmos usados para autorização de hipotecas nos Estados Unidos. A organização sem fins lucrativos The Markup investigou os algoritmos de aprovação automatizada de hipotecas e descobriu que entre 40% a 80% deles tende a negar a aprovação para pessoas negras, em oposição a pessoas brancas. “Isso ocorre porque o algoritmo foi treinado com base em dados históricos sobre quem recebeu liberação para hipotecas ou aquisição de terrenos no passado nos Estados Unidos, um campo que historicamente discriminou pessoas negras”, afirma.

É possível corrigir os dados?

Do ponto de vista tecnológico, seria possível atualizar os algoritmos para que eles fossem menos enviesados, especialmente no momento do “input”, isto é, na hora de alimentar os sistemas com os dados. “O problema é que não existem dados com vieses menores. Não existe esse mundo onde a discriminação racial em relação à moradia não tenha acontecido nos Estados Unidos”, diz Meredith.

“O primeiro passo seria que as pessoas e as empresas admitissem o problema, e é nesse cenário que estamos agora. É muito difícil admitir que você construiu um algoritmo que pode estar enviesado, e especialmente difícil de abordar isso com seu time, porque as pessoas investiram tempo e dinheiro em criá-lo. Há também uma resistência em abandonar a ideia de que a tecnologia só faz tornar o mundo um lugar melhor. Como eu disse, algoritmos são muito bons em tomar decisões matemáticas, mas nem todas as decisões são baseadas em matemática”, reforça.

Alto e baixo risco

A pesquisadora não acredita em uma solução específica ou pontual. Para ela, é muito tentador pensar que a IA é totalmente boa ou totalmente má, “mas é mais complicado que isso”. Será preciso pensar em abordagens que combinem ambos os cenários: algoritmos apontando vieses humanos, seres humanos identificando vieses nos sistemas dos algoritmos. “Quase tudo em IA depende do contexto. Uma das abordagens de que gosto é a distinção entre alto risco e baixo risco, que a União Europeia está usando para a regulamentação da IA”, diz Meredith.

Um caso de uso de IA de baixo risco seria, por exemplo, o desbloqueio de smartphones via reconhecimento facial, ilustra a pesquisadora. Na outra ponta, essa mesma tecnologia pode ser usada para situações de alto risco, como reconhecimento facial em situações de vigilância em tempo real, por exemplo, por circuitos de segurança.

“Sabemos que as tecnologias de reconhecimento fácil são tendenciosas, porque a IA, em geral, é mais eficaz em reconhecer um homem do que uma mulher, mais eficaz em reconhecer uma pessoa de pele clara do que uma pessoa de pele escura. É um uso de alto risco que deve ser regulamentado e monitorado”, defende.

Ameaças reais

“Penso que a conversa sobre IA deveria realmente focar nas ameaças reais que estão sendo experimentadas pelas pessoas hoje. Não vejo a necessidade de focar em futuros riscos existenciais, porque há problemas suficientes acontecendo agora”, argumenta Meredith.

Ela faz uma comparação com o início do movimento ambiental nas décadas de 1960 e 1970. “A IA generativa pode estar, potencialmente, poluindo nosso ecossistema de informações, e uma das ações que os governos podem tomar é a regulação, da mesma forma que ocorreu com corporações cujos negócios impactam o meio ambiente”, diz.

Por fim, Meredith lembra que “não há nenhuma maneira rápida de sair disso”: “Penso que seja algo difícil de ouvir. É possível tornar a tecnologia menos hostil? Sim. É provável que isso aconteça em breve? Não”, diz.

“Os programas são escritos por pessoas com ideologias particulares e em contextos econômicos parciais. Enquanto você tiver um pequeno número de empresas controlando as principais tecnologias, você vai obter os códigos que refletem as decisões tomadas nessas três ou quatro corporações. O que espero é que haja cada vez mais conversas sobre o papel da IA em nossas vidas. É importante ter vários pontos de vista e abordar essa conversa como sociedade”, afirma.

Texto: Louise Bragado, Época NEGÓCIOS