Em 13 de março último, o Parlamento Europeu aprovou a proposta de regulamentação da inteligência artificial (IA), em debate desde 21 de abril de 2021 (AI Act, Lei de IA), representando a mais abrangente barreira de proteção aos potenciais danos da IA no desenvolvimento e no uso da tecnologia. Em princípio, as regras de IA de uso geral serão aplicáveis um ano após a entrada em vigor, em maio de 2025, e as obrigações para sistemas de alto risco, em três anos. A supervisão caberá às agências nacionais dos Estados-membros, que deverão ser criadas no prazo de 12 meses, apoiadas pelo “Gabinete de IA” da Comissão Europeia. O documento final tem 113 artigos e 13 anexos, distribuídos ao longo de 458 páginas.
Nas 180 considerações iniciais, a Lei de IA define a inteligência artificial como “uma família de tecnologias em rápida evolução que contribui para um vasto conjunto de benefícios econômicos, ambientais e sociais em todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da IA pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais […] Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação, utilização e nível de evolução tecnológica específicos, a IA pode criar riscos e prejudicar interesses públicos e direitos fundamentais protegidos pela legislação da União. Esses danos podem ser materiais ou imateriais, incluindo danos físicos, psicológicos, sociais ou econômicos”.
Basicamente, a Lei de IA:
a) proíbe o uso de sistemas de categorização biométrica baseados em características sensíveis, a captação de imagens faciais da internet ou de circuito fechado de TV para criar bases de dados de reconhecimento facial, o reconhecimento de emoções no local de trabalho e nas escolas, a classificação social, o policiamento preditivo (perfil ou características do cidadão), e a manipulação do comportamento humano e exploração de vulnerabilidades;
b) os sistemas de uso geral devem respeitar as normas da União Europeia sobre direitos autorais, publicando informação detalhada dos conteúdos usados no treinamento dos modelos de IA. Os modelos de IA de uso geral com potencial de provocar riscos sistêmicos terão que cumprir requisitos adicionais, tais como avaliar e atenuar riscos sistêmicos e comunicar incidentes;
c) são considerados sistemas de IA de alto risco quando aplicados a infraestruturas críticas, educação e formação profissional, emprego, serviços públicos e privados essenciais – particularmente, cuidados de saúde e sistemas bancários -, migração e gestão das fronteiras, justiça e processos democráticos (por exemplo, influenciar eleições). Os provedores e implementadores de sistemas de alto risco são obrigados a avaliar e reduzir os riscos, manter registros de uso, e garantir supervisão humana em todo o processo. Em paralelo, os usuários afetados terão direito de apresentar queixas e receber explicações sobre as decisões automatizadas por IA que afetem os seus direitos; e
d) para o desenvolvimento de novos produtos ou serviços habilitados por IA, ou seja inovação, deverão ser criados ambientes de testagem (testes em condições reais, não em laboratório), acessíveis a pequenas empresas e startups.
O texto da lei é mais flexível em relação aos modelos de IA de uso geral (modelos de IA multitarefas, como as soluções de IA generativa), consequência da pressão no final de 2023 dos governos da França e Alemanha contra medidas mais restritivas com impacto negativo sobre as startups europeias, como a francesa Mistral e a alemã Aleph Alpha; consideradas como promessas de “big techs europeias”, vale observar que a Mistral firmou uma parceria com a Microsoft (investimento inicial de €15 milhões em 26 de fevereiro último), e a Aleph Alpha tem como parceira a americana Hewlett-Packard (HP).
O “Gabinete Europeu de Inteligência Artificial”, a ser criado pela Comissão Europeia, terá papel estratégico na aplicação das regras da IA pelas autoridades nacionais, com foco principal nos modelos e sistemas de IA de uso geral (GPAI); caberá ao Gabinete:
a) elaborar metodologias e parâmetros de referência para avaliar as capacidades de tais modelos GPAI;
b) monitorar a aplicação das regras e riscos imprevistos, com base em alertas de peritos independentes;
c) recolher reclamações e emitir solicitações de documentos; e
d) conduzir avaliações e solicitar medidas de execução para mitigar as violações.
Adicionalmente, o Gabinete de IA coordenará a aplicação da Lei relativa à IA nos sistemas de IA já abrangidos por outra legislação da UE, como os sistemas de recomendação das redes sociais e os algoritmos de classificação dos motores de pesquisa, além de garantir a aplicação uniforme dos regulamentos e fornecer orientações e protocolos normalizados e estabelecer um fórum de cooperação com a comunidade de código aberto para desenvolver melhores práticas no desenvolvimento e utilização seguros de modelos e sistemas de IA de código aberto.
O Gabinete também promoverá ecossistemas de inovação, colaborará com entidades públicas e privadas e monitorizará o progresso de iniciativas como GenAI4EU. Incompatível com a dimensão de suas funções, o Gabinete enfrentará restrições orçamentais: o departamento de política digital da Comissão (DG CNECT) disponibilizará recursos humanos, e a contratação de pessoal temporário e as despesas operacionais serão financiadas pelo orçamento do Programa Europa Digital.
Alex Voss, representante alemão no Parlamento Europeu e um dos mais atuantes neste processo, considera que a União Europeia adotou uma lei flexível e cooperativa, com base em princípios internacionalmente aceitos e em uma abordagem baseada em riscos. Voss, contudo, alerta que “temos sérias dúvidas se a abordagem de segurança é conceitualmente capaz de regular uma tecnologia em evolução. A lei, muitas vezes vaga e por vezes contraditória, com o seu sistema de governação demasiado complicado, arrisca-se a repetir muitos problemas desde o momento em que a #GDPR se tornou aplicável. Nossos desenvolvedores de IA muitas vezes não saberão como cumprir a Lei de IA e a quem recorrer se enfrentarem problemas”.
Para garantir que a insegurança jurídica não comprometa o desenvolvimento e a implantação da IA, Voss sugere dez medidas adicionais: harmonizar normas técnicas; harmonizar diretrizes, modelos de termos contratuais; corrigir sobreposições gerais; melhorar o sistema de governança; simplificar os sandboxes regulatórios; simplificar a conformidade para as PME; resolver o treinamento e acesso a conjuntos de dados de alta qualidade; desenvolver uma estratégia abrangente de IA; atrair talentos para o escritório de IA, pré-condição para o funcionamento dos órgãos de fiscalização; e suspender penalidades até que essas etapas sejam cumpridas.
Como esperado, as reações são díspares: as empresas europeias avaliam a lei como rígida demais, aumentando a desvantagem competitiva em relação às big techs americanas e chinesas, e os órgãos europeus de controle avaliam como flexível demais. Cecilia Bonefeld-Dahl, chefe da organização comercial da UE Digital Europe, por exemplo, declarou após a votação: “Hoje, apenas 3% dos unicórnios de IA do mundo vêm da UE, com cerca de 14 vezes mais investimento privado em IA nos EUA e cinco vezes mais na China. Até 2030, espera-se que o mercado global de IA atinja 1,5 bilhão de dólares e precisamos de garantir que as empresas europeias aproveitam isso sem se envolverem em burocracia”.
O desafio é tornar a Europa competitiva em escala global, econômica e geoestratégica. “Sem a ‘IA made in Europe’, baseada nos valores democráticos europeus, outras potências decidiram como (mal) usar a IA e como mitigar seus riscos cruciais. A fim de tornar o AIACt uma verdadeira história de sucesso da UE, temos de simplificar o cumprimento, evitar burocracias desnecessárias e deixar espaço para a inovação”, ponderam especialistas europeus.
Por Dora Kaufman