Desde o lançamento do ChatGPT, IAs generativas fraudulentas cresceram e estão ajudando hackers a melhorar crimes virtuais
Poucos meses depois que o ChatGPT foi lançado, em novembro de 2022, os primeiros chatbots de inteligência artificial (IA) para criar fraudes também começaram a funcionar. As duas tecnologias – a legítima e a fraudulenta – estão aparecendo em ritmos parecidos e hackers já usam essas versões “alternativas” para melhorar golpes, e-mails de phishing e a criação de malwares.
Recentemente, por exemplo, um funcionário de Hong Kong de uma empresa multinacional recebeu um e-mail de seu CEO. Ele entrou em reunião de vídeo com seus pares executivos e fez transação de US$ 25,5 milhões (R$ 126,17 milhões, em conversão direta), só para, meses depois, descobrir que tanto o e-mail quanto a videochamada eram falsas e geradas por IA.
Apesar de não ser possível pontuar exatamente se o culpado pelo e-mail foi um chatbot de IA, a tecnologia está crescendo. Hoje, mais de 200 modelos de linguagem com serviços de hacking são vendidos na dark web, segundo análise de pesquisadores da Universidade de Indiana (EUA).
Chatbots fraudulentos
- “BadGPT” e “FraudGPT” são algumas das versões fraudulentas do ChatGPT, por exemplo. Os chatbots hackers ajudam a melhorar golpes e cibercrimes, como, por exemplo, tornar e-mails de phishing mais críveis;
- De acordo com levantamento de outubro de 2023 da empresa de segurança cibernética SlashNext, os e-mails de phishing cresceram 1.265% em 12 meses depois do lançamento do ChatGPT. A média é de 31 mil ataques todos os dias;
- Ainda, segundo reportagem do The Wall Street Journal, companhias públicas, que constantemente têm informações divulgadas, são alvos mais fáceis, já que é possível personalizar as mensagens falsas;
- Outro problema são as informações adicionais obtidas na dark web. Os dados fraudulentos usados para treinar os chatbots de IAs também vêm da porção obscura da internet, que, muitas vezes, se aproveita de vazamentos para calibrar a tecnologia e sua capacidade de extorsão.
Perigos da IA de código aberto
Apesar de não ser possível definir exatamente quantos dos e-mails enviados são confeccionados usando a tecnologia, a maioria dos chatbots fraudulentos que surgiram no último ano são criados a partir de modelos de IA de código aberto, como o Llama 2, da Meta, ou os modelos “jailbroken” (códigos desbloqueados de desenvolvedoras que não os revelam publicamente e são vendidos na dark web).
Jason Clinton, diretor de segurança da informação da Anthropic, criadora do Claude, disse ao WSJ que a empresa monitora esses vazamentos para controlá-los. Já uma porta-voz da OpenAI diz que a dona do ChatGPT trabalha para que suas ferramentas não sejam usadas para fins maliciosos.
No entanto, segundo Brian Miller, CISO da seguradora de saúde sem fins lucrativos Healthfirst, a comunidade de hackers está sempre à frente. Ele é um dos que viu sua empresa ser alvo de ataques, com falsos fornecedores tentando aplicar golpes.
Fonte: Olhar Digital