É possível tornar os sistemas algorítmicos explicáveis. Isso tem um custo – que deve ser superado pelos benefícios que uma IA mais compreensível traria para a sociedade
Em 1799, soldados da expedição francesa ao Egito liderada por Napoleão Bonaparte encontraram um fragmento de monolito que viria a ficar mundialmente conhecido como Pedra de Roseta. Datada de 196 a.C., o achado continha inscrições em três tipos de escrita diferentes: hieroglífico, demótico e grego antigo. Este último, bem conhecido na época, serviu de chave para que estudiosos como Jean-François Champollion desvendassem os demais textos, já que seu conteúdo era semelhante: um decreto de um conselho de sacerdotes estabelecendo o culto ao jovem faraó Ptolemeu V, no primeiro aniversário de sua coroação.
Até então, os hieróglifos egípcios, encontrados em templos, túmulos e papiros – que, como na deliberação decodificada, podiam conter regras relevantes para quem vivia naquela sociedade –, eram um enigma. Hoje, o mistério é como as decisões são tomadas pela inteligência artificial (IA). Estamos sujeitos aos desígnios de algoritmos cujo funcionamento, muitas vezes, desconhecemos, e os riscos decorrentes. A preocupação com o crescimento desenfreado de uma IA inerentemente imprevisível, incompreensível e, por isso, incontrolável tem feito pesquisadores se dedicarem à busca de uma Pedra de Roseta para essa tecnologia, que a torne mais interpretável e explicável.10
Há uma diferença entre “interpretabilidade” e “explicabilidade” em IA, embora esses termos às vezes sejam utilizados indistintamente. O primeiro se refere ao fato de um modelo ser intrinsecamente entendível para os seres humanos. Alguns sistemas são transparentes e interpretáveis “por design”. É uma característica passiva. O segundo é a possibilidade de, ativamente e, se preciso, por meio de um módulo separado, fornecer explanações – visuais, textuais ou por meio de exemplos – sobre o funcionamento de determinado sistema, mesmo que este, em si, permaneça uma caixa-preta.
O campo de estudos que se propõe a desenvolver esse tipo de explanação se denomina “IA Explicável” (eXplainable artificial intelligence, ou XAI na sigla em inglês). Para atingir seus objetivos, a XAI procura desenvolver uma série de técnicas de aprendizado de máquina com função semelhante à que o monolito egípcio teve para Champollion, propiciando às pessoas acesso a uma linguagem que, sem essas ferramentas, elas naturalmente não entenderiam.
Uma boa explicação deve esclarecer a causalidade entre a resposta obtida e as variáveis consideradas, demonstrando quais fatores foram determinantes para uma decisão, por que dois casos aparentemente semelhantes produziram conclusões diferentes, e como uma mudança em um dos inputs poderia melhorar o resultado obtido. Ajuda a corrigir erros e garante previsões mais consistentes, aumentando nossa confiança nos algoritmos. Colabora para que os sistemas sejam mais seguros, evitando que façam recomendações perigosas ou adotem comportamentos nocivos. Permite, por fim, identificar e eliminar vieses, tornando a IA mais justa e imparcial.
Princípios como esses são objeto de outro campo emergente de pesquisa, a chamada “IA Responsável”, que se interessa também na possibilidade de se atribuir responsabilidade (“accountability) a esses modelos – ou a seus criadores e operadores –, ideia alinhada a alguns movimentos legislativos recentes, como a Regulação Geral de Proteção de Dados (GDPR, na sigla em inglês) da União Europeia, que prevê que processos decisórios automatizados mantenham sempre um humano “no circuito”, pronto para intervir se estes saírem dos trilhos.
Exigir explicações da IA pode, no entanto, levar a um dilema. Simplificar modelos a fim de que passem a ser mais acessíveis tende a piorar seu desempenho, produzindo soluções sub-ótimas. Além disso, explicações têm um custo. Criar sistemas mais interpretáveis pode demandar o desvio de recursos financeiros e esforços de engenharia que seriam dedicados a fazer a IA progredir – além de, possivelmente, criar um ônus com o qual algumas startups não conseguiriam arcar, favorecendo as big techs e diminuindo ainda mais a concorrência no setor. E forçar as empresas em geral a revelarem seus algoritmos pode ser contraproducente, já que a não proteção de seus direitos de propriedade intelectual as desestimularia a investir em IA. Tudo isso retardaria a evolução de tecnologias com enorme potencial de aumentar o bem-estar da sociedade.
Assim, o custo e a utilidade das explicações devem ser sopesados, e a opção de exigi-las dependeria dos riscos e do benefício social por elas gerado. Um modelo com alto grau de acurácia que se aplique a uma área sem grande impacto sobre a vida das pessoas pode prescindir de maiores explanações. Mas, talvez, estejamos dispostos a aceitar que sistemas que determinam como empréstimos serão concedidos ou prisões serão efetuadas sacrifiquem um pouco de sua eficiência e sejam mais custosos, em troca da segurança de que não tomarão decisões enviesadas.
Por outro lado, entender esses sistemas possibilita que as causas e correlações por eles estabelecidas em uma aplicação, por vezes inalcançáveis para a mente humana, venham a ser assimiladas e extrapoladas para outros domínios, permitindo que se achem novos padrões e estratégias que podem levar a avanços na ciência – além do que IAs compreensíveis e responsáveis tendem a ser mais bem-aceitas, o que contribui para a adoção generalizada dessas tecnologias e, portanto, das soluções por elas encontradas, multiplicando seus efeitos.
Desvendar os hieróglifos egípcios nos fez compreender melhor aquela civilização, abrindo as portas a todo um universo de conhecimento até então inacessível. Decifrar a IA pode não apenas evitar que ela nos devore, mas também ajudar a iluminar nosso caminho rumo a novas descobertas.
Fonte: Epoca Negócios