Uma recente pesquisa da Bain & Company sobre aplicação da inteligência artificial (IA) nas empresas brasileiras mostra um avanço acelerado da tecnologia no país. O levantamento, realizado com cerca de 120 executivos brasileiros C-Level, indica que 58% dos entrevistados consideram a IA uma das cinco maiores prioridades estratégicas da sua companhia. O indicador não fica muito atrás do mercado global, em que 86% dos pesquisados deram a mesma prioridade para a IA. 

Com a adoção acelerada da tecnologia, os líderes das empresas procuram aproveitar os benefícios ao mesmo tempo em que mitigam os riscos desta tecnologia emergente. O uso responsável da IA surge como uma grande tendência na área de tecnologia.

Na esfera da segurança, os ataques adversários são uma preocupação para muitas empresas, já que podem manipular dados para enganar modelos de IA e levar a decisões equivocadas ou até mesmo omissões críticas, afetando negativamente os resultados das aplicações.

Os ataques de adversários podem ocorrer de duas formas. Durante o treinamento, o envenenamento de dados e a inserção de backdoors são estratégias comuns. Na fase de inferência, os ataques de evasão e de exploração de modelo podem levar à manipulação dos resultados ou à introdução de vieses indesejados nos modelos.

Outro ponto negativo é a espionagem por meio da IA, que pode explorar a capacidade de processar grandes volumes de dados de forma eficiente para coletar informações confidenciais de maneira menos detectável. Além disso, a automação de ataques é outra ameaça significativa, permitindo que os invasores explorem vulnerabilidades em grande escala e com alta velocidade.

Do ponto de vista ético, a disseminação de desinformação também é preocupante. A IA pode ser usada para gerar conteúdo falso, como deep fakes, que têm o potencial de causar danos substanciais à reputação e à confiança pública. Ameaças à privacidade também são potencializadas pela capacidade da IA de analisar e processar dados pessoais sensíveis em grande escala. 

A implementação de diretrizes éticas, frameworks de segurança e maior ênfase na explicabilidade da IA (XAI) são cruciais para lidar com essas implicações de maneira eficaz.

Para proteger os sistemas de IA contra manipulação de dados, é essencial adotar práticas robustas de segurança da informação. Estratégias como o fortalecimento dos modelos, a validação e a limpeza de dados, a detecção de anomalias e o monitoramento contínuo são importantes para proteger os modelos de IA contra ataques de adversários. Além disso, a adoção de técnicas de criptografia, privacidade diferencial e gerenciamento adequado de configuração e versão do modelo contribuem para mitigar os riscos de segurança.

A capacidade de análise de dados em larga escala, a precisão na personalização, a reidentificação de dados anonimizados e as decisões automatizadas representam desafios adicionais para a privacidade dos indivíduos. A mitigação desses riscos requer uma abordagem holística que inclua medidas técnicas, regulatórias e de conscientização.

Portanto, o uso responsável da IA requer uma compreensão clara dos riscos e desafios associados, juntamente com a implementação de medidas de segurança e ética adequadas em todas as fases do desenvolvimento e implantação. Essa abordagem é fundamental para garantir que ela beneficie a sociedade de maneira segura, justa e ética.

Por: Wesney Silva, head of Cyber Security da NAVA Technology for Business