O senador Eduardo Gomes (PL-TO) apresentou nesta quarta-feira (24) seu relatório preliminar sobre a regulação da Inteligência Artificial (IA) no Brasil. Ele é o relator da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), presidida pelo senador Carlos Viana (Podemos-MG). A proposta está em sintonia com regulamentos já existentes na União Europeia, nos Estados Unidos e no Reino Unido, entre outros.

— A regulação da IA não é urgente, como alguns querem pontuar. Urgente é a proteção dos direitos do cidadão. Podemos assumir riscos, mas não podemos tolerar injustiças. E o Congresso não vai se omitir quanto à regulação de tecnologias que podem trazer prejuízos ao cidadão — afirmou Eduardo.

Em seu relatório, o senador apresenta um texto alternativo ( substitutivo) que mescla vários projetos de lei em tramitação no Senado, em especial o PL 2.338/2023, do senador Rodrigo Pacheco (PSD-MG), presidente do Senado e do Congresso Nacional, e o PL 21/2020 — já aprovado na Câmara — de autoria do deputado Eduardo Bismarck (PDT-CE). O projeto de Pacheco é fruto do trabalho de uma comissão de juristas criada por ele em 2022.

O senador Eduardo disse que sua proposta é preliminar e que está aberta a debates e sugestões. Para ele, a regulação da IA precisa mirar a proteção dos direitos e garantias fundamentais sem prejudicar a inovação e o desenvolvimento do país.

— A IA é promessa de desenvolvimento e de competitividade, mas tem que ser sustentável e seu uso, responsável.

Ele explicou que o substitutivo prioriza a inovação e o desenvolvimento econômico inclusivos e apresenta diretrizes para investimento público em pesquisa e educação sustentáveis.

— Não existe inovação, ainda mais no Brasil, sem proteger a música, as artes, enfim, o jeito criativo brasileiro. Por isso, avançamos neste ponto. As propostas anteriores eram muito tímidas para a proteção do artista, do compositor, do jornalismo, enfim, do que é o humano na inteligência artificial. (…) Trazemos deveres para que não haja mais fake news, ódio e violência que desgastam a nossa democracia, preservando especialmente a integridade da informação.

O texto substitutivo do senador propõe uma lei para tratar “sobre o desenvolvimento, fomento, uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana”.

Apresenta normas gerais para regular “concepção, desenvolvimento, implementação, utilização, adoção e governança responsável de sistemas de inteligência artificial no Brasil, com o objetivo de proteger os direitos fundamentais, estimular a inovação responsável e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento econômico, científico e tecnológico”.

O substitutivo estabelece que o Brasil terá um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado por autoridade a ser designada pelo Poder Executivo. O senador sugere que esta autoridade seja a já existente Autoridade Nacional de Proteção de Dados Pessoais (ANPD), que teria de ser aperfeiçoada e ampliada para o propósito. Essa regulação seria feita em harmonia com os demais órgãos reguladores brasileiros, como o Banco Central, Cade e as agências reguladoras Anatel, Anvisa, ANS e outros.

Em seu art. 4º, o substitutivo define dezenas de elementos relativos à regulação da IA, como ciclo de vida, modelos fundacionais, IA generativa, desenvolvedor de sistema de IA, fornecedor, aplicador, agentes de IA, discriminação direta e indireta, mineração de textos e dados, avaliação de impacto algorítmico, conteúdos sintéticos derivados, integridade informacional e outros.

O ‘sistema de inteligência artificial’ é definido como “sistema baseado em máquina que, com graus diferentes de autonomia e para objetivos explícitos ou implícitos, infere, a partir de um conjunto de dados ou informações que recebe, como gerar resultados, em especial, previsão, recomendação ou decisão que possa influenciar o ambiente virtual ou real”.

A proposta prevê avaliação preliminar de riscos antes da introdução de sistema de IA no mercado. Haverá também obrigatoriedade de ‘avaliação de impacto algorítmico’ em determinados casos. Também estabelece regras para o uso de ‘sistemas de armas autônomas’, letais ou não, que deverão garantir o ‘controle humano significativo’ e respeitar as regras do Direito Internacional Humanitário e do Direito Internacional dos Direitos Humanos.

O uso de sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público, será proibido, salvo em situações que envolvam autorização judicial para instrução em processo criminal; busca de vítimas ou de pessoas desaparecidas; investigação e repressão de flagrantes de crimes com pena máxima de reclusão superior a dois anos; e recaptura de fugitivos, cumprimento de mandados de prisão e de medidas restritivas ordenadas pelo Poder Judiciário.

O texto apresentado por Eduardo também trata do fomento à inovação sustentável; proteção ao trabalho e aos trabalhadores; direitos autorais e demais direitos da personalidade conexos; formação e capacitação.

O senador Carlos Viana afirmou que a regulação da IA precisa garantir direitos como privacidade, combate ao preconceito e a todo tipo de discriminação, mas que também dê liberdade aos desenvolvedores para pesquisarem e inovarem na área em prol do desenvolvimento científico e econômico do Brasil. Ele disse que o relatório preliminar ficará à disposição de toda a sociedade e aberto a novas sugestões e aperfeiçoamentos.

Também participaram da reunião os senadores Astronauta Marcos Pontes (PL-SP) e Alessandro Vieira (MDB-SE), o ministro de Relações Institucionais, Alexandre Padilha, e os deputados federais Orlando Silva (PCdoB-SP), Eduardo Bismarck e Luise Canziani (PSD-PR), relatora do PL 21/2020 na Câmara.

Pontes opinou que a regulação deve proteger o cidadão sem prejudicar a pesquisa e a competitividade nacionais no setor. Ele elogiou a proposta por trazer pontos como as responsabilidades de desenvolvedores, operadores e usuários e análise de riscos.

 Outras determinações do substitutivo

A lei não se aplicará a sistema de IA:

  • usado por um indivíduo para fim particular não econômico
  •  desenvolvido e utilizado exclusivamente para defesa nacional
  • atividades de testagem, desenvolvimento e pesquisa que não sejam colocados em circulação no mercado
  • padrões e formatos abertos e livres, com exceção daqueles considerados de alto risco 

Fundamentos da IA no Brasil:

  •  centralidade da pessoa humana;
  • respeito aos direitos humanos e aos valores democráticos;
  • livre desenvolvimento da personalidade e liberdade de expressão;
  •  proteção ao meio ambiente e ao desenvolvimento ecologicamente equilibrado;
  •  igualdade, não discriminação, pluralidade e diversidade;
  •  direitos sociais, em especial a valorização do trabalho humano;
  •  desenvolvimento econômico, científico e tecnológico e inovação;
  • livre iniciativa, livre concorrência e defesa do consumidor;
  • privacidade, proteção de dados pessoais e autodeterminação informativa;
  •  promoção da pesquisa e do desenvolvimento;
  • acesso à informação e à disseminação de dados, de forma aberta e estruturada;
  •  proteção de direitos culturais e a promoção dos bens artísticos e históricos;
  •  educação e conscientização sobre os sistemas de inteligência artificial;
  •  proteção de grupos vulneráveis, em especial de idosos, de pessoas com deficiência e, com absoluta prioridade, de crianças e adolescentes, reconhecendo a vulnerabilidade agravada;
  •  integridade da informação mediante a proteção e a promoção da confiabilidade, precisão e consistência das informações;
  •  fortalecimento do processo democrático, pluralismo político e enfrentamento da desinformação e dos discursos que promovam o ódio ou a violência;
  • proteção de direitos de propriedade intelectual;
  • garantia da segurança da informação e segurança cibernética.

Princípios da IA no Brasil:

  •  crescimento inclusivo, desenvolvimento sustentável e bem-estar, incluindo a proteção do trabalho e do trabalhador;
  • autodeterminação e liberdade de decisão e de escolha;
  •  supervisão humana efetiva no ciclo de vida da IA;
  •  não discriminação ilícita e abusiva;
  • justiça, equidade e inclusão;
  • transparência e explicabilidade, observado o segredo comercial e industrial;
  •  devida diligência e auditabilidade ao longo de todo o ciclo de vida do sistema de IA;
  •  confiabilidade e robustez do sistema de IA;
  • proteção dos direitos e garantias fundamentais, incluindo o devido processo legal, contestabilidade e contraditório;
  • prestação de contas, responsabilização e reparação integral de danos;
  • prevenção, precaução e mitigação de riscos e danos;
  • não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas do sistema de IA;
  •  desenvolvimento e uso ético e responsável da IA;
  •  governança transparente, participativa e orientada à proteção de direitos fundamentais individuais, sociais e econômicos;
  • promoção da interoperabilidade de IA para permitir acesso mais amplo e inovação colaborativa;
  • possibilidade e condição de utilização de sistemas e tecnologias com segurança e autonomia por pessoa com deficiência, garantida a plena acessibilidade à informação e à comunicação; e
  •  conformidade com a legislação aplicável.

Direitos das pessoas e grupos afetados pela IA:

  • direito à informação prévia quanto às suas interações com sistemas de inteligência artificial, de forma acessível e de fácil compreensão, inclusive sobre caráter automatizado da interação;
  •  direito à privacidade e à proteção de dados pessoais;
  •  direito à determinação e à participação humana em decisões de sistemas de IA, levando-se em conta o contexto e o estado da arte do desenvolvimento tecnológico;
  •  direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos.

Proibição da implementação e uso de sistemas de IA:

  •  que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir a pessoa a se comportar de forma prejudicial ou perigosa à saúde ou segurança própria ou de terceiros;
  • que explorem quaisquer vulnerabilidades, tais como as associadas à idade, situação socioeconômica ou deficiência física ou mental, de modo a induzi-las a se comportar de forma prejudicial à saúde ou segurança própria ou de terceiros;
  • pelo poder público, para avaliar, classificar ou ranquear as pessoas, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional;
  • que possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual infantil;
  • que avaliem os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência;
  • sistemas de armas autônomas que não permitam controle humano significativo, cujos efeitos sejam imprevisíveis ou indiscriminados ou cujo uso implique violação do Direito Internacional Humanitário.

Sanções a infrações à lei da IA:

  •  advertência;
  • multa simples, limitada, no total a R$ 50  milhões de reais por infração, sendo, no caso de pessoa jurídica de direito privado, de até 2% de seu faturamento, de seu grupo ou conglomerado no Brasil no seu último exercício, excluídos os tributos;
  • publicização da infração;
  • proibição ou restrição para participar de regime de sandbox regulatório, por até cinco anos;
  •  suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA; e
  •  proibição de tratamento de determinadas bases de dados.

Fonte: Agência Senado