Estamos testemunhando avanços extraordinários na inteligência artificial (IA), especialmente com o desenvolvimento de modelos generativos como o Chat GPT, que têm causado um misto de fascínio e apreensão em razão das inúmeras possibilidades que podem surgir a partir dessa tecnologia. Esses avanços alimentam uma série de especulações sobre o futuro da IA e seu potencial, levantando questões sobre seu papel, os desafios éticos que ela pode trazer e principalmente como seguiremos com a regulamentação dessa tecnologia.
O investimento bilionário da Microsoft no Chat GPT contribuiu para sua popularização, fazendo com que empresas e indivíduos começassem a enxergar a IA como um atalho para automatizar tarefas e contribuir para ações do cotidiano. Segundo um estudo da Bain & Company, a disponibilidade de tecnologias de Inteligência Artificial pode impulsionar as organizações a otimizar cerca de 20% das atividades dos colaboradores, mantendo os padrões de qualidade intactos.
Apesar de, até o momento, termos experienciado majoritariamente mudanças positivas devido à integração da IA no fluxo de trabalho, existe um temor que essa nova tecnologia possa superar barreiras éticas com sua ampla capacidade de produção, principalmente quando se trata da esfera imagética, e causar problemas complexos envolvendo informação que ainda não temos respostas concretas de como evitá-los.
A tecnologia de deepfake representa um exemplo da preocupação no cenário da disseminação de fake news. Ao empregar inteligência artificial, essa técnica possibilita a substituição de rostos em vídeos, sincronização precisa de movimentos labiais, reprodução de voz e outros elementos, conferindo aos vídeos gerados por IA uma aparência autêntica, tornando-os em alguns casos, praticamente indistinguíveis da realidade.
Com a ampla disseminação da Inteligência Artificial, tornou-se evidente o impressionante avanço alcançado em um período relativamente curto, o que levanta questões sobre a capacidade da sociedade de lidar com os impactos dessa tecnologia. Nesse contexto, surge o debate sobre a necessidade de regulamentação da IA. Personalidades influentes, como o presidente dos Estados Unidos, Joe Biden, já tomaram medidas nesse sentido, assinando um decreto que exige testes de segurança de desenvolvedores capazes de identificar conteúdo gerado por IA e análise de riscos ao mercado de trabalho.
Outros lugares, como a União Europeia, também trabalham na regulamentação da IA. Lá foi alcançado um acordo preliminar sobre normas históricas da União Europeia para regular o uso de inteligência artificial (IA), incluindo vigilância biométrica e sistemas como o ChatGPT. Após negociações, os países do bloco e membros do Parlamento Europeu chegaram a um consenso. O acordo requer transparência para modelos básicos e sistemas de IA antes de serem lançados no mercado, além de avaliações e relatórios para modelos de alto impacto. Apesar de um primeiro passo considerado positivo, não agradou a todos. O grupo empresarial DigitalEurope, por exemplo, criticou as regras como um ônus adicional para as empresas, considerando o acordo morno. De qualquer forma, acredito que esses primeiros passos sobre a discussão sejam positivos para o avanço das regulamentações no geral.
Durante as conversas que cercam a regulamentação da IA, surgem oportunidades para abordar questões como privacidade, segurança, viés algorítmico e responsabilidade social, porém isso é um desafio que exige uma abordagem colaborativa. Acredito que, da mesma forma que aconteceu com a Lei Geral de Proteção de Dados (LGPD), que foi inspirada na norma europeia, o Brasil deve ser influenciado pelas discussões que começam a surgir no exterior antes de seguir com algo efetivo.
Ainda existe muito a ser discutido neste contexto uma vez que muitos especialistas se preocupam com o resultado de normas no desenvolvimento e na inovação da IA. Vale ressaltar que já lidamos com descobertas mais perigosas, como a energia nuclear, e suas regulamentações contribuíram para o progresso e a segurança. Sigo com a opinião que o debate sobre a regulamentação deve sempre encontrar um equilíbrio que não impeça os avanços de uma ferramenta tão versátil, mas também não prejudique o coletivo com uso que ultrapasse as barreiras éticas, garantindo assim que seus benefícios sejam maximizados e seus impactos negativos sejam mitigados.
O desenvolvimento responsável da IA requer um delicado equilíbrio entre inovação tecnológica e a proteção dos direitos e interesses humanos. Para alcançarmos esse potencial máximo, é primordial a percepção da IA não como uma mera tendência, mas como uma oportunidade a ser explorada e que pode se beneficiar de regulamentações para avaliar seu potencial. Isso demanda uma colaboração entre especialistas em ética, juristas, legisladores, pesquisadores e stakeholders da indústria, a fim de estabelecer políticas e diretrizes que promovam o uso ético e responsável da IA.
À medida que continuamos a explorar as possibilidades da inteligência artificial e suas aplicações potenciais, deve-se manter um diálogo aberto e informado sobre os desafios e oportunidades que ela apresenta. Somente através de uma abordagem colaborativa e baseada em evidências podemos garantir que a IA seja uma força positiva para o progresso humano, em vez de uma fonte de preocupação e medo.
Por: Antônio Paes Jr, ex-NASA e professor universitário, é Chief Chief AI Officer da Zallpy, empresa especializada no desenvolvimento de soluções digitais personalizadas para empresas de grande porte.