Conversa promovida pelo Ministério da Igualdade Racial reuniu palestrantes que apresentaram as diversas perspectivas e problemáticas de um tema que atinge, principalmente, a população negra
Na última quarta-feira (30), pesquisadores sobre o racismo algorítmico na sociedade civil se reuniram em um webinário promovido pelo Ministério da Igualdade Racial (MIR). A iniciativa foi promovida pela Diretoria de Articulação Interfederativa (DAI) e a Diretoria de Avaliação, Monitoramento e Gestão da Informação (DAMGI), em parceria com a Escola Nacional de Administração Pública (Enap), que transmitiu a discussão em sua plataforma no YouTube.
Os estudiosos debateram diversas perspectivas a respeito do racismo algorítmico e seus danos, além da discussão conceitual em torno do termo. Entre os temas, os pesquisadores discutiram o uso do reconhecimento facial na segurança pública, o real impacto da diversidade em equipes de trabalho, auditoria de dados, além de impactos econômicos e sociais.
A mesa virtual foi composta quatro palestrantes: o pesquisador de tecnologia e sociedade Tarcízio Silva; a pesquisadora visitante do Centro para Inteligência Artificial (C4AI) da Universidade de São Paulo (USP) Mayane Batista; a cientista da computação, pesquisadora e hacker antirracista Nina da Hora; e o coordenador do Centro de Estudos de Segurança e Cidadania (CESeC), Pablo Nunes. A conversa foi mediada pelo professor e advogado abolicionista quilombista, Luciano Góes, que também é doutorando em direito da Universidade de Brasília (UnB).
Em sua fala, Nina da Hora compartilhou suas experiências enquanto profissional da computação e lembrou que o racismo algorítmico ainda é um conceito em construção. Para ela, esse fenômeno tem reprodução mais rápida que o conceito original e estrutural do racismo. A pesquisadora sugeriu uma reflexão sobre diversidade no combate ao racismo algorítmico. “Só vamos conseguir mitigar os danos se tivermos pluralidade na discussão. E essa pluralidade, não só de gênero e raça, mas também a pluralidade de áreas”, ressaltou.
A hackerativista apontou ainda a problemática por trás das grandes auditorias de dados. “Auditorias em conjunto de dados, que coletam massivamente nossos dados, são feitas por serviços contratados por grandes corporações ou por equipes internas de empresas. Não há documentações, regras de como foi feito o processo e os resultados. Não há garantias de que os dados estão sendo diversificados”, expôs.
A doutoranda em antropologia social da UFAM, Mayane Batista, trouxe para a discussão a forma social de interpretar as máquinas com as perguntas: “Como a visão computacional atua em corpos diversos?”, “como elas [as máquinas] se comunicam e interagem conosco e a gente com elas?”.
Para Batista, é importante analisar os algoritmos não só observando por quem eles são construídos, mas também levando em consideração como as saídas são feitas, quais corpos analisam esses algoritmos e de que contexto essas pessoas vêm.
Já o doutor em ciência política Pablo Nunes compartilhou em suas exposições dados associando racismo algorítmico e segurança pública. Nunes apontou que entre 2019 e 2022, 509 pessoas foram presas com o uso de reconhecimento facial no Brasil. No caso de 2019, mais de 90% eram negras.
O pesquisador ressaltou que o uso de reconhecimento facial já é amplamente utilizado no Brasil, sendo que todos os estados brasileiros já utilizam a tecnologia. Segundo Nunes, que tem publicações sobre o tema, o estado com o maior número de usos de reconhecimento facial é Goiás.
Ampla gama de danos
Finalizando o encontro, o pesquisador de políticas de tecnologia na Fundação Mozilla e doutorando em ciências humanas e sociais na Universidade Federal do ABC (UFABC) Tarcízio Silva apontou cinco categorias de danos causados pelo racismo algorítmico:
danos alocativos e econômicos (como a discriminação em score de créditos); danos à identidade e autodeterminação (quando um mecanismo de busca representa de forma negativa alguns grupos); danos epistêmicos (dados ligados ao conhecimento e o aprofundamento da desinformação causada pelos sistemas algorítmicos); danos ambientais e à saúde pública (no sentido do que é necessário de termos minerais, resfriamentos, emissão de carbono e poluição para gerar modelos de inteligência artificiais); danos necropolíticos (implementações relacionadas a segurança biométrica até filtragem de pacientes, onde alguns grupos minoritários são mais vulnerabilizados).
Apesar do pesquisador apontar um avanço ao identificar esse quadro, ele alertou que já existem danos registrados, históricos e especulativos relacionados ao racismo algorítmico, sobre os quais é preciso levar em consideração objetivos e alvos, além de relações de poder e imaginário sociotécnicos.
“Por exemplo, no campo de debate político sobre sistemas de inteligência artificial há um frequente exemplo utilizado sobre os terríveis scores sociais, em Estados como a China, nos quais o governo realizaria pontuações dos cidadãos de acordo com suas proximidades a algumas regras sociais e as ideologias do partido no poder. O que é algo terrível, que não deveria acontecer”, ressaltou, acrescentando, porém, que uma prática semelhante existe no Brasil por meio dos sistemas de score de crédito.
Texto: Solon Neto