Imagine receber uma chamada de emergência de um familiar ou cônjuge, pedindo ajuda financeira após um acidente ou problema com a lei, apenas para perceber, bem depois, se tratar de um robô. A alternativa parece saída diretamente de um filme, mas é bem real, com criminosos utilizando inteligência artificial para simular vozes conhecidas e aplicar golpes.
A evolução da tecnologia levou a uma explosão das chamadas “fraudes do impostor”. De acordo com números da Comissão Federal de Comércio (FTC, na sigla em inglês), esse foi o crime digital mais comum nos EUA em 2022, com mais de 36 mil casos registrados ao longo do ano. A prática também trouxe o segundo maior prejuízo aos cidadãos, com mais de US$ 11 milhões perdidos, cerca de R$ 56 milhões.
Uma reportagem do jornal americano The Washington Post demonstrou casos em que a IA foi absolutamente convincente. Em um deles, um casal de idosos perdeu mais de US$ 15 mil, aproximadamente R$ 77 mil, após a falsificação da voz do próprio filho, que estaria sendo acusado de matar um diplomata americano após um acidente de carro. O contato envolveu indivíduos reais, se passando por advogados e policiais, além da tecnologia, com a transferência acontecendo a partir de um caixa eletrônico de criptomoedas.
As situações também começam a chamar a atenção dos bancos. Foi o que impediu um casal de idosos no Canadá de transferir mais de US$ 2,2 mil, ou cerca de R$ 10 mil, após terem o neto supostamente preso e solicitando o pagamento de fiança. O gerente da instituição usada para o saque notou o problema e alertou aos dois sobre o golpe, que já havia sido sofrido por outro cliente na mesma semana.
Mesmo criminosos com pouco conhecimento tecnológico seriam capazes de realizar fraudes desse tipo. Softwares de geração de modelos de voz estão disponíveis ao público e custam pouco, com valores de assinatura a partir de US$ 5 (aproximadamente R$ 25) de acordo com a quantidade de falas geradas; o céu é o limite, assim como as opções de tom, volume, níveis e outros ajustes que tornam a simulação mais realista.
Enquanto isso, obter amostras se torna cada vez mais fácil. Meros stories no Instagram ou mensagens de áudio no WhatsApp podem ser usadas para treinar modelos de simulação de voz por inteligência artificial, e a quantidade de informações só aumenta caso a vítima tenha um podcast, canal na Twitch ou goste de publicar vídeos no YouTube e outras redes sociais.
Celebridades, claro, são um alvo usual, mas os cidadãos comuns se tornam cada vez mais o centro da mira, justamente, pela maior possibilidade de ganhos. A fidelidade dos modelos criados é alta, enquanto mesmo indivíduos com conhecimento desse tipo de fraude e da própria tecnologia podem acabar caindo pela tensão de um contato de emergência altamente realista.
Há como se proteger de golpes com IAs que simulam vozes?
Ao falar sobre o aumento dos casos, as próprias autoridades americanas admitem que eles ainda são difíceis de rastrear. As chamadas se originam de diferentes lugares do mundo, enquanto a preferência por criptomoedas faz com que os fundos transferidos sejam rapidamente pulverizados. Além disso, há uma dificuldade técnica, principalmente de forças policiais locais, em lidar com as fraudes altamente tecnológicas.
Enquanto isso, segundo a FTC, a conscientização é o melhor caminho. No Brasil, a dinâmica do crime via inteligência artificial se assemelha à dos velhos golpes do falso sequestro, com a abordagem dos cidadãos, também, devendo ser parecida. É importante se certificar que o contato é legítimo e que o ente querido efetivamente está em perigo antes de ceder a pressões ou realizar transferências. Muitas vezes, basta uma ligação ou mensagem de texto para perceber a fraude.
A FTC possui guias de melhores práticas no uso de inteligência artificial e controle de recursos pelas empresas, com contatos constantes sobre os riscos e danos em potencial envolvidos no uso da tecnologia. Entretanto, não existem regulamentações jurídicas para a atuação de desenvolvedores desse tipo de solução, principalmente quanto à moderação de uso ou penalização caso os softwares sejam usados para fins mal-intencionados.
Fonte: The Washington Post
Por: Felipe Demartini