O ChatGPT foi lançado há apenas alguns meses, mas sua popularidade disparou, com a inteligência artificial passando a ser usada para uma série de atividades, desde a produção de e-mails até uma espécie de buscador, respondendo às dúvidas de usuários. Entretanto, a ferramenta também pode ser utilizada em áreas menos benéficas, incluindo crimes.
Rafael Costa Abreu, diretor de Fraude e Identidade LATAM da LexisNexis Risk Solutions, destaca que a tecnologia permite aos criminosos realizar uma quantidade maior de golpes em várias vítimas ao mesmo tempo. Além disso, ela permite criar mensagens mais realistas e com menos erros, dificultando a identificação de tentativas de fraude e, com isso, possivelmente aumentando a taxa de sucesso dos criminosos.
Ele explica que ferramentas de inteligência artificial como o ChatGPT “podem aprender rapidamente como interagir e fornecer boas respostas para qualquer pergunta. É possível que fraudadores automatizem alguns golpes, como os de engenharia social, usando uma ferramenta de IA para realizar conversas com os usuários”.
Os golpes de engenharia social são aqueles que não envolvem um uso de vírus ou outra técnica para invadir dispositivos e obter dados. Nesses casos, mensagens em aplicativos, e-mail ou ligações são usadas para convecer as pessoas a compartilharem seus dados pessoais achando que estão interagindo com um banco ou outra empresa, ou então respondendo a uma oportunidade de emprego ou para ganhar dinheiro.
“Os fraudadores podem realizar cerca de cinco conversas simultâneas usando uma ferramenta de IA. O mesmo fraudador poderia multiplicar seu alcance, entregando golpes de engenharia social para milhares de alvos potenciais ao mesmo tempo”, ressalta Abreu sobre os perigos ligados ao ChatGPT.
Abreu pontua ainda que “as ferramentas de inteligência artificial podem aprender rapidamente e fornecer conversas muito convincentes”, o que tende a tornar os golpes mais eficazes. Mesmo assim, o objetivo dos criminosos continuará o mesmo: “obter acesso a informações privilegiadas, como números de cartão de crédito e informações pessoais”.
Isso significa que a forma para se proteger desses golpes continuará a mesma, independentemente de ferramentas como o ChatGPT serem ou não usadas. “Os consumidores devem evitar compartilhar informações privadas por telefone ou em mensagens de bate-papo para evitar serem vítimas de golpes de engenharia social. As empresas devem aplicar proteção em camadas, validando o contexto da transação e aplicando desafios adicionais para verificar a legitimidade de qualquer transação suspeita”, aconselha o especialista.
Diferente dos golpes tradicionais, o uso da inteligência artificial permite criar diálogos com as vítimas que continuarão sendo falsos, mas poderão parecer mais verdadeiros, inclusive com menos erros de digitação, uma marca já conhecida desses golpes. Uma vez que os dados sejam obtidos, eles podem ser usados para aberturas de compras, transações e outros tipos de danos financeiros.
Dados da LexisNexis Risk Solutions apontam que, no primeiro semestre de 2022, o volume global de transações digitais subiu 37% na comparação com o mesmo período de 2021. Ao mesmo tempo, a taxa de ataques por humanos cresceu 32%, enquanto a de uso de bots aumentou 38%. Na América Latina, essa modalidade disparou, com alta de 83%.
Para Abreu, a tendência para os próximos anos é de um aumento do uso de robôs automatizados, os bots, conectados a inteligências artificiais para aumentar o alcance dos golpes, e o ChatGPT não ficará de fora. “A evolução tecnológica sempre caminha lado a lado com a evolução na complexidade das fraudes. Nesse cenário, cidadãos devem redobrar cuidados ao receber mensagens com ofertas tentadoras e links rápidos de acesso”, observa.
Fonte: Exame