Internet

Ataques com deepfakes crescem 126% no Brasil e elevam risco digital

Tecnologia de IA torna fraudes mais realistas e difíceis de detectar

Compartilhar
Compartilhar

Ataques envolvendo deepfakes, vídeos ou áudios falsos gerados por inteligência artificial, aumentaram 126% no Brasil em 2025, como mostra o Identity Fraud Report 2025 – 2026. O país concentrou 39% de todos os casos detectados na América Latina, com foco em fintechs, bancos e plataformas de apostas online. A sofisticação dos golpes eleva o risco para consumidores, empresas e para a própria confiança em sistemas digitais.

Deepfakes não são apenas vídeos falsos de figuras públicas. Eles podem imitar rostos, vozes e até documentos oficiais, criando identidades sintéticas convincentes. A velocidade e a qualidade dessas falsificações complicam a detecção por sistemas de verificação tradicionais. 

Brasil lidera fraudes sofisticadas

O relatório da empresa de verificação de identidade Sumsub analisou milhões de tentativas de fraude entre 2024 e 2025 e entrevistou profissionais de risco e usuários finais. No Brasil, apesar de a taxa geral de fraude digital ter diminuído para cerca de 0,9% em 2025, o crescimento de ataques com deepfakes foi expressivo, sublinhando uma mudança no perfil da ameaça. 

Especialistas citam a complexidade do sistema de identificação brasileiro como um dos fatores que torna o país um alvo atraente para criminosos digitais. A multiplicidade de documentos e variações de dados pessoais facilita a criação de perfis falsos que podem passar por verificações iniciais.

Fintechs e bancos figuram entre os segmentos mais impactados. Os sistemas financeiros, especialmente em ambientes digitais, atraem golpistas que combinam deepfakes com outras técnicas de fraude, como engenharia social e roubo de credenciais. Plataformas de apostas online também sofreram com tentativas de manipulação de contas e criação de perfis falsos. 

O uso de deepfakes em fraudes pode resultar em perdas financeiras diretas para empresas e consumidores. Quando uma identidade falsa é aceita por um sistema de verificação, isso pode permitir acesso não autorizado a contas, transferência de fundos ou abertura de serviços em nome de vítimas reais.

IA generativa e eleições elevam o risco

O avanço acelerado da IA generativa intensifica a produção de conteúdo falso. Vídeos e áudios quase indistinguíveis da realidade aparecem em contextos variados, desde tentativas de golpe financeiro até manipulação de opinião pública. Em um ano eleitoral, essa realidade acende alerta sobre a circulação de fake news e deepfakes políticos, que podem influenciar percepções sem fácil detecção. 

Tecnologias de deepfake já foram usadas em golpes concretos no Brasil. Investigações policiais revelaram casos em que vídeos falsos de celebridades foram usados em anúncios fraudulentos, resultando em perdas financeiras e prisões de suspeitos.

Para escapar dessa trama, especialistas em segurança cibernética recomendam camadas múltiplas de defesa. Verificações que combinam análise de comportamento, biometria robusta e inteligência artificial adaptativa conseguem identificar padrões anômalos mais cedo. Além disso, empresas e usuários precisam estar atentos a sinais de conteúdo manipulado ou inconsistências em perfis digitais.

Apesar do uso de IA pelos criminosos, a mesma tecnologia também é empregada por bancos e plataformas para melhorar a detecção de fraudes em tempo real, reduzindo falsos positivos e acelerando respostas a ameaças emergentes.

O crescimento exponencial de ataques com deepfakes representa um novo capítulo da guerra entre segurança digital e crime organizado. Com IAs mais acessíveis e sofisticadas, a linha entre conteúdo real e falso é cada vez mais estreita.

A missão é árdua: para que haja confiança nos sistemas digitais essenciais para a economia, como bancos online, ou que permitem  interações sociais ou atuam em período de eleições, é preciso investir rapidamente em ferramentas e regulamentações capazes de acompanhar a evolução das tecnologias que hoje permitem criar deepfakes com poucos cliques.

Compartilhar

Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *