Carros autônomos, cidades inteligentes e robôs. Esses são apenas alguns exemplos de inovações ainda distantes da realidade da maioria das pessoas. Entre eles, há algo em comum. Uma outra tecnologia que, hoje, já é utilizada para aplicações mais simples e que, cada vez mais, migra do mundo do imaginário para a realidade: a Inteligência Artificial.

Elementos como dados, preditividade e algoritmos fazem parte de um cenário futuro em que a Inteligência Artificial (IA) poderá tomar decisões simples e complexas. Hoje, ela já orienta o consumidor em diferentes circunstâncias, pois reconhece padrões, faz associações e, a partir disso, elabora sugestões – seja de filmes, em plataformas de streaming; seja de trajeto, em apps de trânsito. No entanto, na maioria dos casos (e principalmente quando a aplicação envolve a saúde e a segurança de pessoas), a IA ainda não toma decisões por conta própria.

Nesse futuro sonhado por muitos e temido por outros, no entanto, ela deverá decidir o que fazer inclusive um situações muito mais complexas, para as quais não existem respostas óbvias. Um exemplo clássico é a tomada de decisão dos carros autônomos: Como decidir o que fazer diante de uma situação em que, inevitavelmente, tivesse de escolher entre atropelar uma criança ou um idoso? Em outras palavras, como programar a Inteligência Artificial em casos que envolvem questões éticas, culturais ou morais?

Outro exemplo é o uso de dados, padrões e previsibilidade nos sistemas de Justiça Criminal e nas polícias. Neste caso, o viés é o principal risco. Como programar a Inteligência Artificial sem que haja a influência de preconceitos, crenças pré-estabelecidas e até mesmo traumas do ser humano que trabalha diante da máquina?

Uma Inteligência Artificial realmente inteligente
Diante de situações como essa, uma alternativa comum e frequente em diferentes mercados é direcionar situações mais complicadas para o humano. Entretanto, quando a intenção é dar autonomia ao recurso no qual está embutida a IA – seja um carro, seja um sistema de análise de perfis –, essa não pode ser uma opção.

É urgente encontrar alternativas para lidar com tais dilemas, afinal, a evolução da aplicação da IA depende da certeza de que ela tomará as decisões certas quando necessário e da consequente confiança do usuário nessa tecnologia. Mas como tornar a IA mais confiável? Essa foi uma questão levantada no CES 2023, maior evento de tecnologia do mundo.

Para Nikki Pope, Sr. Director, AI & Legal Ethics da NVIDIA Corporation, é fundamental que a empresa tenha consciência de quem, como e para que a Inteligência Artificial será utilizada – ponderando desde os possíveis vieses até ocorrências improváveis e que demandarão decisões rápidas e complexas, para as quais a Inteligência Artificial também deverá estar preparada.

Beena Ammanath, executive diretor do Global AI Institute da Deloitte, por sua vez, reflete que não é possível eliminar totalmente o viés. Por isso, defende que os critérios e princípios a serem seguidos pela IA precisam ser seguidos e, a partir disso, colaboradores devem ser ouvidos e opiniões devem ser levadas em consideração. Dessa forma, muitos pontos de vista poderão agregar valor à Inteligência Artificial.

Por Melissa Lulio