Deepfakes passaram a ser usados para obter credenciais e colocar sistemas internos em risco ( Laurence Dutton/Getty Images)
Plataforma de conteúdo
Publicado em 3 de março de 2026 às 13h00.
Usada para falsificar voz e imagem por meio de inteligência artificial, a tecnologia de deepfake começa a tornar-se um problema para as empresas brasileiras. Segundo o Identity Fraud Report 2025–2026, os ataques cresceram 126% no Brasil em 2025.
O foco destes ataques é sobretudo a invasão de redes corporativas, executada com a tecnologia deepfake. Por meio de engenharia social e obtenção de credenciais legítimas, os criminosos conseguem o acesso aos sistemas internos das empresas.
Em 2025, um relatório internacional que monitora incidentes reais envolvendo inteligência artificial — o OWASP GenAI Incident Exploit Round-Up (Q2 2025) — documentou campanhas em que criminosos simularam a identidade de autoridades do governo dos Estados Unidos por meio de voz sintética, para induzir funcionários a compartilhar informações sensíveis e dados de acesso.
“Esse tipo de ataque explora a confiança nas comunicações digitais e acontece antes mesmo que os controles técnicos tradicionais sejam acionados. Quando uma solicitação parece legítima, o fator humano se torna o principal ponto de entrada”, diz João Neto, CRO da Unentel.
Deepfakes vêm sendo usados para simular chamadas de executivos, equipes de TI e fornecedores, fazendo com que o acesso obtido seja válido do ponto de vista do sistema. A partir daí, a movimentação ocorre dentro da rede corporativa sem gerar alertas imediatos, o que amplia o impacto e dificulta a identificação do ataque.
Para conter esse tipo de ameaça, empresas têm reforçado estratégias de proteção de identidade, indo além de senhas e autenticações pontuais.
Soluções que combinam autenticação multifator adaptativa, validação contextual e análise de comportamento permitem identificar tentativas de acesso fora do padrão, mesmo quando as credenciais utilizadas são legítimas. Esse modelo reduz significativamente o risco de invasões baseadas em engenharia social e deepfakes.
A integração entre gestão de identidade, visibilidade de acessos e protocolos claros de resposta permite bloquear sessões suspeitas, revisar permissões em tempo real e limitar a movimentação lateral dentro da rede.
Somado a isso, programas estruturados de conscientização ajudam colaboradores a reconhecer abordagens suspeitas e seguir fluxos de verificação antes de autorizar acessos ou processos sensíveis.
“O deepfake transformou a confiança em vetor de ataque. A proteção das redes corporativas passa por identidade, visibilidade e controle contínuo sobre quem acessa o quê, quando e de onde”, conclui João Neto.