Um vírus ladrão de dados, uma ferramenta de criptografia que poderia ser usada em um golpe de ransomware e um sistema completo para um marketplace ilegal. São estas algumas das criações dos cibercriminosos ao lado do ChatGPT, um sistema baseado em inteligência artificial que, na mesma medida em que pode auxiliar em atividades cotidianas, na programação de códigos ou até como companhia para um bate-papo, também pode servir para atividades maliciosas.
Uma análise feita pelos pesquisadores da Check Point Research, empresa global de cibersegurança, mostrou como os bandidos estão se aproveitando das ferramentas para auxiliar em suas ações perigosas. Em um fórum na superfície da web, os criminosos compartilham conhecimento e falam sobre suas criações, enquanto indicam códigos e explorações que podem ser possíveis a partir do que é indicado pela IA.
O relatório traz os três casos citados, mas apontam estas como apenas as primeiras ocorrências neste espaço, e outro sinal de uma tendência que vem chamando a atenção dos especialistas. Um dos focos é a entrada de novos players no cenário de ameaças, principalmente aqueles com baixo conhecimento técnico, assim como o aprimoramento de ferramentas de exploração conhecidas, que podem ser adaptadas a cenários específicos ou desenvolvidas de maneira mais rápida e eficiente.
No caso do vírus ladrão de dados, por exemplo, o bandido fala na análise de estudos de malwares conhecidos e técnicas de intrusão para gerar o código de um stealer em Python. Ele não precisou programar nem digitar códigos, bastando indicar à inteligência artificial o que o programa deveria fazer e quais passos deveria tomar, incluindo métodos de furtividade e obtenção de determinados tipos de informações de um sistema invadido.
O segundo caso demonstra o auxílio do ChatGPT na criação de uma ferramenta de criptografia multicamadas, também desenvolvida em Python, com direito à criação de chaves e certificados. Enquanto o resultado, em si, não tem fins necessariamente maliciosos, seu uso ao lado de uma contaminação de sistemas, por exemplo, poderia levar a um ataque de ransomware, enquanto o próprio código também poderia ser implementado em uma solução já existente com esse intuito. Novamente, a postagem fala sobre um usuário sem muito conhecimento técnico em programação, mas que ainda assim foi capaz de criar algo completo e complexo.
No terceiro exemplo de atividade fraudulenta, foram gerados scripts de marketplace para a montagem de um mercado ilegal na web. Novamente, só foi preciso indicar a inteligência artificial o que era necessário para que a IA respondesse com um código completo; neste caso, a criação foi de um script para realização de pagamentos com criptomoedas, com o responsável argumentando que os recursos ainda são básicos, servindo mais para a montagem de uma loja por um indivíduo, por exemplo, do que um e-commerce robusto.
“Assim como o ChatGPT pode ser usado para ajudar desenvolvedores a escrever códigos, ele também pode ser aplicado a fins maliciosos, com o potencial de acelerar o processo para os [cibercriminosos]”, explica Sergey Shykevich, gerente do gruo de inteligência de ameaças da Check Point Software. Segundo ele, os sistemas vistos nesse começo de ano são básicos, mas já sinalizam um risco iminente na medida em que agentes maliciosos aumentam a sofisticação na utilização da plataforma.
O perigo está só começando
Tudo acontece, inclusive, com a presença de algoritmos e sistemas de detecção de atividades ilegais implementados pelos responsáveis pelo ChatGPT. E enquanto alguns dos cibercriminosos envolvidos na prática indicam que bloqueios impediram alguns tipos de implementação determinados, existem casos mais complexos em que a IA foi um auxiliar importante no desenvolvimento de códigos maliciosos.
“Não há como prevenir todo tipo de abuso [na plataforma], mas ele pode ser reduzido significativamente”, aponta Shykevich. “O mecanismo de IA pode ser treinado e melhorado para identificar solicitações que possam ser usadas de maneira maliciosa ou sistemas de autenticação e autorização podem ser implementados para uso do motor OpenAI”, completa, indicando algo semelhante com o que acontece hoje com sistemas de pagamento online.
Ao mesmo tempo, o relatório da empresa indica ainda ser cedo para taxar a tecnologia como uma aliada importante dos agentes de ameaça, justamente, por conta de sua pluralidade. Mesmo dentro do mercado de cibersegurança, a recíproca também é verdadeira, com os mesmos mecanismos usados para obter malwares, códigos maliciosos ou brechas também podendo ser utilizados no combate contra tais explorações.
“O ChatGPT pode tornar o trabalho dos pesquisadores mais eficiente ou para melhorar o código e sua segurança”, completa o especialista, que também deixa um alerta. “Devemos ter em mente que, quando você carrega algo proprietário para [a ferramenta], isso ajuda no treinamento de modelos abertos de IA e, de maneira indireta, também pode auxiliar concorrentes que a utilizarem para solicitações semelhantes.”
Por Felipe Demartini