sábado,23 novembro, 2024

CNJ rejeita pedido para proibir uso do ChatGPT por magistrados para fundamentar decisões

Por unanimidade, o Plenário do Conselho Nacional de Justiça (CNJ) decidiu rejeitar um pedido de providências que requeria a proibição do uso da ferramenta de inteligência artificial ChatGPT para fundamentar decisões de magistrados no Brasil. O acórdão foi proferido na última quinta-feira (25/6) pelo relator, conselheiro João Paulo Schoucair. Leia a íntegra do acórdão.

Schoucair destacou a necessidade de uma análise criteriosa, fundamentada em princípios éticos e jurídicos sólidos, sobre o uso de ferramentas de inteligência artificial no Poder Judiciário. Segundo ele, embora a IA possa “aprimorar a eficiência e a eficácia do sistema judicial”, é necessário que o seu uso seja pautado na “ética, equidade e responsabilidade”.

Na decisão, o relator destacou que há um Grupo de Trabalho sobre Inteligência Artificial no Poder Judiciário, sob a coordenação do conselheiro Bandeira de Mello, que tem como objetivos realizar estudos e apresentar proposta de regulamentação do uso de sistemas de inteligência artificial generativa baseada no Poder Judiciário.

A ideia é o grupo trate de questões como: modelo de governança para gestão do processo de desenvolvimento, sustentação e uso de soluções de inteligência artificial; colaboração e compartilhamento de informações acerca do uso das soluções de inteligência artificial; auditoria de modelos e soluções de inteligência artificial; mapeamento e gerenciamento de riscos; práticas e casos de uso permitido, regulado e proibido.

O procedimento foi apresentado pelo advogado Fábio de Oliveira Ribeiro, que buscava uma liminar para proibir magistrados de usar a ferramenta em decisões judiciais. Ribeiro alegou que o uso do ChatGPT comprometeria a “validade e eficácia da norma constitucional que garante aos cidadãos brasileiros o direito de ver seus processos julgados apenas pelas autoridades competentes”.

No pedido, o advogado argumentou que, apesar do êxito do ChatGPT na aprovação em teste dos EUA equivalente ao exame da OAB, a ferramenta falhou na avaliação de processos da Suprema Corte norte-americana, e em um caso no Brasil em que não reconheceu lei que tipifica o crime de genocídio.

Schoucair pontuou que a própria empresa desenvolvedora, OpenAI, reconheceu as limitações da ferramenta e afirmou que a “supervisão humana permanece fundamental”, ressaltando a necessidade de medidas para “mitigar e monitorar o viés algorítmico”, a fim de garantir a equidade e a imparcialidade das decisões judiciais.

Ao julgar o caso, o relator considerou que “os juízes e profissionais do direito devem manter a prerrogativa de revisão e controle das decisões geradas pelas ferramentas de inteligência artificial, preservando o exercício do julgamento humano e a responsabilidade ética”.

Na análise inicial do pedido, em fevereiro de 2023, o relator já havia rejeitado a liminar devido à ausência de indícios sobre do uso do ChatGPT.

O processo tramita com o número 0000416-89.2023.2.00.0000 no CNJ.

HUMBERTO VALE – Repórter em Brasília. Atua na cobertura política e jurídica do site do JOTA. Estudante de Jornalismo no Centro Universitário IESB. Foi estagiário no Programa das Nações Unidas para o Desenvolvimento (PNUD) e no Poder360. E-mail: humberto.vale@jota.info

LEIA MAIS

Recomendados