Golpe do Pix com Deepfake: golpistas clonam voz e imagem para enganar vítimas

​A tecnologia de deepfake, que utiliza inteligência artificial para criar vídeos e áudios falsos extremamente realistas, tornou-se uma ferramenta perigosa nas mãos de golpistas, que podem clonar a voz e a imagem de familiares para simular situações de emergência, como problemas em caixas de supermercado, solicitando transferências via Pix. A técnica é tão sofisticada que consegue sincronizar perfeitamente a fala com os movimentos labiais, tornando difícil a distinção entre o que é real e o que é fabricado.

​O especialista em IA, Márcio Carneiro alerta que o processo de criação dessas falsificações está cada vez mais simples e acessível, não exigindo profundo conhecimento técnico. Atualmente, basta um pequeno trecho de vídeo ou áudio capturado na internet para que a inteligência artificial consiga clonar a voz e as expressões de uma pessoa. Isso permite que os criminosos realizem até chamadas de vídeo falsas, tentando convencer as vítimas de que ganharam prêmios inexistentes ou que parentes estão em apuros.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *