Criminosos usam deepfakes de voz e dados para induzir decisões via WhatsApp e outras ; especialista recomenda validações em múltiplos canais
Fraudes usando clonagem de voz por inteligência artificial estão em rápida expansão, causando perdas bilionárias e afetando milhões de brasileiros.
No primeiro semestre de 2025, a Serasa Experian registrou 6.937.832 tentativas de fraude no país, com média de uma ocorrência a cada 2,3 segundos, das quais 53,7% foram direcionadas a bancos e emissores de cartões, segundo a própria Serasa Experian.
Nos Estados Unidos, perdas com impersonation scams chegaram a quase US$ 3 bilhões em 2024, de acordo com a FTC. O aumento de deepfakes preocupa reguladores e autoridades policiais, que alertam para o uso de voz sintética para obter acesso a contas bancárias e informações pessoais, segundo o FBI/IC3.
Palavra de especialista
Segundo Luiz Claudio, CEO e fundador da LC SEC, empresa especializada em cibersegurança e compliance internacional, o realismo do áudio sintético transforma a voz em uma prova emocional imediata.
“Agora, o criminoso não precisa invadir sistemas: ele convence pessoas e processos a liberar transações em segundos. A combinação de pressa, confiança e dados já expostos amplia o risco em pagamentos instantâneos.”
O problema cresce em escala global. A FinCEN, autoridade financeira dos EUA, alertou sobre aumento de fraudes usando deepfakes para contornar verificações de identidade e autenticação, segundo a própria FinCEN.
Relatórios como o Identity Fraud Report 2025 indicam que, em 2024, houve uma tentativa de deepfake a cada cinco minutos, sendo deepfakes responsáveis por parcela significativa das fraudes biométricas analisadas, conforme a Entrust.
Volume de transações
No Brasil, o volume de transações via Pix em 2024 atingiu R$ 27,3 trilhões, em 63,7 bilhões de operações, segundo a Febraban, ampliando a superfície para golpes que exploram rapidez e pressão.
Para instituições financeiras, a LC SEC recomenda revisões de fluxos de atendimento e autenticação, validações em múltiplos canais, treinamentos para reconhecer sinais de manipulação, como urgência, pedidos fora do fluxo ou tentativa de manter a vítima na linha, e políticas proporcionais ao impacto.
Para usuários, a orientação central é: desligue ao suspeitar, valide pelo número oficial e combine palavras-código familiares fora de redes sociais. Limites e alertas em aplicativos ajudam a reduzir danos caso a pressão funcione.
Luiz Claudio conclui: “Estamos diante de uma nova fronteira do crime digital, onde a engenharia social supera barreiras técnicas. O apoio de bancos e fintechs, aliado a programas de conscientização e monitoramento de táticas emergentes, é essencial para proteger clientes e reduzir perdas.”