sábado,12 outubro, 2024

Inteligência artificial: ameaça ou fortalece a democracia?

A democracia sobreviverá ao big data e à inteligência artificial? A pergunta provoca respostas que oscilam entre dois extremos: a esperança de melhora dos atuais mecanismos democráticos, e a preocupação com a perda de controle da sociedade. Entre as externalidades negativas mais citadas, destacam-se o potencial de aumentar a polarização promovendo a divisão política entre os cidadãos, a desinformação em larga escala, e os sistemas de mensagem personalizada em campanhas eleitorais. No entanto, como toda tecnologia, a IA é social e humana, seus efeitos dependem de como os seres humanos a inserem nos ambientes técnico-sociais.

Ben Buchanan and Andrew Imbrie, no livro “The New Fire: War, Peace, and Democracy in the Age of AI” (2022), alertam sobre a desigualdade na apropriação da IA entre os regimes democráticos, limitados por políticas e leis de proteção da sociedade, e os regimes autocráticos, como a China, sem restrições para coletar e usar os dados da população. Para os autores a IA favorece o controle do Estado sobre os cidadãos, particularmente em autocracias e, por outro lado, as democracias ainda não têm o senso apropriado de urgência. Os governos democráticos precisam antecipar, de forma proativa, o futuro da tecnologia balanceando, entre outros, a privacidade e a segurança no uso de sistemas de reconhecimento facial e vigilância.

Não é trivial definir o que seja inteligência artificial e, consequentemente, discernir tecnologias de IA do conjunto de tecnologias digitais, mais fácil é definir o que não é IA. Não é inteligência artificial, por exemplo, os “robôs impulsionadores” empregados com o objetivo de disseminar notícias nas redes sociais – muito utilizado em eleições com o objetivo não só de influenciar o voto, mas também de fornecer argumentos para os “militantes”. Esses “robôs” são programados para tarefas específicas – publicar mensagens contra ou a favor de determinado candidato, retuitar mensagens de determinada conta -, executadas em intervalos muito curtos; inflando posições políticas específicas, o sistema tenta manipular o debate público favorecendo a polarização.

A inteligência artificial, no entanto, potencializa os efeitos danosos das fake news com as denominadas “deep fakes” – “falsificações profundas”, numa analogia com deep learning, técnica de aprendizado de máquina, subárea da IA -, que são tecnologias habilitadas a manipular textos e imagens digitais com tal precisão que dificulta distinguir do original. As deep fakes são criadas pela GAN (generative adversarial networks), arquitetura de redes neurais que sintetiza imagem e voz.

A IA potencializa, igualmente, a eficiência das estratégias da comunicação personalizada (microtargeting). Yochai Benkler e coautores (“Network Propaganda: manipulation, desinformation, and radicalisation in American politics”, 2018) reconhecem que a mídia social, particularmente o Facebook, contribuíram para a eleição de Trump ao disponibilizar à campanha seu sistema de propaganda direcionada (acesso dos anunciantes à mídia hipersegmentada), contudo, atribuem a maior responsabilidade às normas americanas de política eleitoral ao permitir o uso de marketing comportamental. Ainda é tímido o uso de IA em processos eleitorais, e não existe evidência de que tenha sido decisiva em nenhuma vitória de um candidato mundo afora (como alertam Benkler e coautores no caso americano).

O Ministério da Educação e Pesquisa da Alemanha (Federal Ministry of Education and Research) e a Acatech (National Academy of Science and Engineering), com o propósito de identificar e mitigar os potenciais danos, investigaram os efeitos da inteligência artificial em eleições na Alemanha. O resultado foi publicado no Relatório “White paper AI systems and the individual electoral decision – opportunities and challenges for democracy” (2021).

O Relatório minimiza o protagonismo da IA nas eleições democráticas, mesmo assim sugere duas estratégias de gerenciamento de risco: a) moderação de conteúdo pelas próprias plataformas e pelas autoridades reguladoras, removendo desinformação, discurso de ódio, conteúdo violento e as deep fakes. O enfrentamento do discurso de ódio online, contudo, conflita com o interesse comercial das redes sociais – em modelos de negócio baseados em dados, quanto maior a interação dos usuários nas plataformas, maior a geração de dados, maior a eficiência do negócio – ademais a “detecção automatizada” de discurso de ódio (ou seja, mediação algorítmica de conteúdo) pode comprometer a liberdade de expressão. Neste sentido, é crítica que essa moderação seja pautada em critérios transparentes definidos pelo poder público; e b) campanhas sobre e contra a desinformação, estimulando os cidadãos a não repassarem informações de fontes desconhecidas, não verificáveis; nesse caso, os sistemas de IA podem contribuir para detectar padrões suspeitos (fake news). O grau de influência desses mecanismos é inversamente proporcional ao grau de consciência/familiaridade da população, logo campanhas de esclarecimento são estratégias para a estabilidade democrática.

A inteligência artificial, no entanto, pode ser parceira na defesa da democracia. A UNESCO e o Oxford Internet Institute firmaram um acordo de colaboração em torno da “Estratégia e Plano de Ação das Nações Unidas sobre Discurso de Ódio” (“United Nations Strategy and Plan of Action on Hate Speech: Detailed Guidance on Implementation for United Nations Field Presences”, setembro de 2020), com o objetivo de desenvolver um kit de recursos para mapear projetos de pesquisa existentes visando monitorar a produção e a disseminação de discurso de ódio online, bem como avaliar capacidades e práticas para combatê-lo. O artigo “Addressing hate speech on social media: Contemporary challenges Discussion paper” (UNESCO, 2021) – que aborda essa colaboração – ressalta que, do ponto de vista tecnológico, o discurso de ódio online é difícil de detectar pela natureza opaca dos algoritmos proprietários e de difícil acesso aos dados mantidos pelas plataformas. Neste sentido, a própria IA é um recurso poderoso para processar e analisar grandes amostras de dados, identificar textos que contém palavras-chave potencialmente odiosas, e criar métodos para quantificar e categorizar semelhanças entre palavras, frases e sentenças.

Ponderando sobre os dilemas da inteligência artificial, o Parlamento Europeu (“Artificial intelligence: threats and opportunities”) adverte que a subutilização da IA ameaça a democracia ao comprometer a vantagem competitiva em relação aos países mais avançados no desenvolvimento e implementação da tecnologia, e o uso excessivo pode ser problemático, particularmente quando aplicada em domínios sociais complexos.

Agravando essa “incertitude”, palavra em francês que significa ausência de garantia ou confiança, o futuro da IA no ocidente está sendo definido basicamente pelo setor privado, pelas grandes empresas de tecnologia americanas, cabendo papel secundário aos governos (o investimento privado é pautado pelos interesses de seus acionistas, nem sempre convergentes com os interesses da sociedade).

Cabe ao poder público, portanto, encontrar um ponto de equilíbrio entre proteger os direitos humanos civilizatórios sem criar barreiras intransponíveis à inovação e ao avanço tecnológico, entre a abertura do acesso aos dados para beneficiar a sociedade sem inviabilizar os modelos de negócio emergentes, entre aumento de produtividade e desemprego, entre a crescente desigualdade entre países, empresas e pessoas, e entre a livre expressão e a manipulação dos processos democráticos.

Por: DORA KAUFMAN*

Redação
Redaçãohttp://www.360news.com.br
1º Hub de notícias sobre inovação e tendências da região Centro-Oeste e Norte do Brasil.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

LEIA MAIS

Recomendados