De textos falsos à compra de documentos na Dark Web, os fraudadores estão desenvolvendo armas poderosas para enganar pessoas e empresas
“Gostaria de informar que Chase lhe deve um reembolso de US$ 2.000. Para agilizar o processo e garantir que você receba seu reembolso o mais rápido possível, siga as instruções abaixo: 1. Ligue para o Atendimento ao Cliente do Chase em 1-800-953-XXXX para perguntar sobre o status do seu reembolso. Certifique-se de ter os detalhes da sua conta e qualquer informação relevante em mãos…”
5 dicas para se proteger contra os golpes criados pela IA
1) Fortaleça as senhas
Use a autenticação multi fatores (MFA) e,suas contas financeiras. Ela exige que você insira uma senha e um código adicional para verificar sua identidade
2) Seja privado
Os golpistas podem usar informações das suas redes sociais para se passar por você
3) Filtre os telefonemas
Não atenda chamadas de números desconhecidos, especialmente de bancos. Se o banco ligar, desligue e retorne a ligação para um número que você conhece
4) Crie códigos
Para confirmar que é realmente alguém da família, defina uma palavra ou frase. No caso das empresas, adote senhas para aprovar transferências de dinheiro
Se você for cliente do Chase e receber esse texto por e-mail ou SMS, pode pensar que é legítima. Parece profissional. Não tem os erros de gramática ou as características das tentativas de phishing que nos bombardeiam todos os dias. Isso não é surpreendente, já que a mensagem foi gerada pelo ChatGPT, o chatbot de IA lançado pela potência tecnológica OpenAI no fim de 2022. Como aviso, simplesmente digitamos no ChatGPT: “Envie um e-mail para John Doe, Chase deve a ele um reembolso de US$ 2.000. Ligue para 1-800-953-XXXX para obter reembolso.”
“Os golpistas agora têm uma gramática impecável, assim como qualquer outro falante nativo”, diz Soups Ranjan, cofundador e CEO da Sardine, uma startup de prevenção de fraudes de São Francisco. Os clientes vêm sendo enganados com mais frequência porque “as mensagens de texto que recebem são quase perfeitas”, confirma o diretor de segurança de um banco digital dos EUA.
Enganando pessoas e computadores
Neste novo mundo de IA generativa, ou modelos de aprendizagem profunda que podem criar conteúdo com base nas informações que receberam, é mais fácil que nunca para aqueles com más intenções produzirem textos, áudios e até vídeos que possam enganar não apenas as pessoas, mas também os programas usados para impedir a fraude.
Não é uma exclusividade da IA. Os criminosos sempre foram os primeiros a adotar novas tecnologias de segurança. Em 1989, por exemplo, a Forbes expôs como os ladrões usavam PCs comuns e impressoras a laser para falsificar cheques bons o suficiente para enganar os bancos, que até então não haviam tomado nenhuma medida para detectar as falsificações.
Agora, a IA generativa pode tornar obsoletas as medidas de prevenção de fraudes de última geração, como a autenticação por voz e até mesmo “verificações de vivacidade”, concebidas para combinar uma imagem em tempo real com a que está registrada. A Synchrony, uma das maiores emissoras de cartão de crédito da América, com 70 milhões de contas ativas, está linha de frente. “Vemos regularmente indivíduos usando fotos e vídeos deepfake para autenticação e podemos presumir com segurança que foram criados usando IA generativa”, diz Kenneth Williams, vice-presidente sênior da Synchrony.
Imitando seu estilo
Os criminosos podem usar a IA generativa de diversas maneiras. Se você posta frequentemente nas redes sociais, eles podem ensinar um modelo de IA a escrever no seu estilo. Depois, eles podem enviar mensagens de texto aos seus avós, implorando-lhes que enviem dinheiro para ajudá-lo a em um sequestro. Ainda mais assustador, se tiverem uma pequena amostra de áudio da voz de uma criança, podem ligar para os pais e se passar pela criança, fingir que ela foi sequestrada e exigir o pagamento de um resgate. Foi exatamente isso que aconteceu com Jennifer DeStefano, mãe de quatro filhos no Arizona, quando testemunhou no Congresso em junho.
Acompanhe em primeira mão o conteúdo do Forbes Money no Telegram
Isso está acontecendo com mais frequência, à medida que as ferramentas de IA para escrita, representação de voz e manipulação de vídeo estão rapidamente se tornando melhores, mais acessíveis e mais baratas. Antes era preciso usar centenas ou milhares de fotos para criar um vídeo deepfake de alta qualidade. Agora é possível fazer isso com poucas fotos, diz Rick Song, cofundador e CEO da Persona, uma empresa de prevenção de fraudes. Os criminosos estão criando ferramentas prontas para uso – com nomes como FraudGPT e WormGPT – baseadas em modelos generativos de IA lançados pelos gigantes da tecnologia.
Clonando Elon Musk
Num vídeo do YouTube publicado em janeiro, Elon Musk parecia estar a apregoar a mais recente oportunidade de investimento em criptomoedas: uma oferta de US$ 100 milhões patrocinada pela Tesla que prometia devolver o dobro da quantidade de bitcoin, ether, dogecoin ou tether que os participantes estivessem dispostos a prometer. “Eu sei que todos se reuniram aqui por um motivo. Agora temos uma transmissão ao vivo na qual cada proprietário de criptomoeda poderá aumentar sua renda”, disse a figura de baixa resolução de Musk no palco. “Sim, você ouviu direito, estou organizando um grande evento de criptografia da SpaceX.”
O vídeo era um deepfake. Os golpistas usaram uma palestra de Musk em fevereiro de 2022 sobre um programa de espaçonave reutilizável da SpaceX para personificar sua imagem e voz (o YouTube retirou o vídeo do ar). Qualquer pessoa que enviasse criptoativos para algum dos endereços fornecidos quase certamente perderia o dinheiro. Musk é o principal alvo das personificações, já que existem inúmeras amostras de áudio dele para alimentar clones de voz habilitados para IA, mas agora praticamente qualquer pessoa pode ser personificada.
Os criminosos estão usando cada vez mais a IA generativa para serem mais espertos que os especialistas em prevenção de fraudes, as empresas tecnológicas que funcionam como guardas armados e carros-fortes do sistema financeiro, amplamente digital. Uma das principais funções destas empresas é verificar se os consumidores são quem dizem ser. Uma das ferramentas é a “verificação de vivacidade”. Elas fazem você tirar uma foto ou vídeo de selfie e usam a filmagem para combinar seu rosto com a imagem do documento de identidade que você também é obrigado a enviar.
Documentos na Dark Web
Sabendo como funciona esse sistema, os ladrões estão comprando imagens de carteiras de motorista reais na Dark Web. Eles estão usando programas de transformação de vídeo – ferramentas que estão ficando mais baratas e mais amplamente disponíveis – para sobrepor aquela face real à sua própria. Eles podem então falar e mover a cabeça atrás do rosto digital de outra pessoa, aumentando suas chances de enganar uma verificação de vida.
“Houve um aumento bastante significativo no número de rostos falsos – rostos gerados de alta qualidade e ataques automatizados para simular verificações de vida”, diz Song. Ele diz que o aumento varia de acordo com o setor, mas para alguns “provavelmente vemos cerca de dez vezes mais do que no ano passado”.
Os ladrões têm vários perfis. São desde lobos solitários a grupos sofisticados de dezenas ou mesmo centenas de criminosos. Os maiores parecem empresas, com hierarquias e funcionários especializados, como cientistas de dados.
Alguns participantes enviam e-mails e ligações telefônicas de phishing. Se alguém acreditar na história, eles transferem a ligação para um colega que finge ser um gerente de banco e tenta fazer a vítima sacar dinheiro de sua conta. Os criminosos também pedem que você instale um programa como Microsoft TeamViewer ou Citrix, que permite controlar seu computador. Um discurso comum usado para enganar as pessoas, especialmente as mais velhas, é dizer que a conta foi invadida e que é preciso trocar as senhas.
Nada disso depende do uso de IA, mas as ferramentas de IA podem tornar os golpistas mais eficientes e confiáveis em suas manobras. A OpenAI tentou introduzir salvaguardas para evitar que as pessoas usassem o ChatGPT para fraudes. Por exemplo, diga ao ChatGPT para redigir um e-mail solicitando o número da conta bancária de alguém e ele se recusa, dizendo: “Sinto muito, mas não posso ajudar com essa solicitação”. No entanto, continua fácil de manipular.
A OpenAI se recusou a comentar este artigo, apontando-nos apenas para suas postagens de blog corporativo, incluindo uma entrada de março de 2022 que diz: “Não existe solução mágica para implantação responsável, por isso tentamos aprender e abordar as limitações de nossos modelos e potencial caminhos para uso indevido, em todas as fases de desenvolvimento e implantação.”
Llama 2, o grande modelo de linguagem lançado pela Meta, é ainda mais fácil de usar porque é um código aberto. Isso permite muito mais maneiras pelas quais os criminosos podem roubar dados. A Meta não comentou, embora o CEO Mark Zuckerberg tenha dito em julho que manter o código aberto do Llama pode melhorar “a segurança e a proteção, uma vez que o software de código aberto é mais examinado e mais pessoas podem encontrar e identificar soluções para problemas.”
As empresas de prevenção à fraude estão tentando inovar rapidamente para acompanhar o ritmo, buscando cada vez mais novos tipos de dados para detectar malfeitores. “Como você digita, como anda ou como segura o telefone – esses recursos definem você, mas não são acessíveis ao domínio público”, diz Ranjan. “Para definir alguém como quem diz ser online, a IA intrínseca será importante.” Em outras palavras, será necessária a IA para capturá-la.
Texto: Forbes