(Diarlle Carvalho/Exame)
Repórter
Publicado em 18 de dezembro de 2025 às 06h00.
Última atualização em 18 de dezembro de 2025 às 07h21.
Em 2026, mais de 60 países vão às urnas em meio à consolidação da inteligência artificial (IA) como parte estrutural do ecossistema político. No Brasil, as eleições gerais coincidem com o ápice do uso de vídeos sintéticos gerados por ferramentas como Sora, da OpenAI, e Veo 3, do Google, com vozes humanas sintéticas capazes de mimetizar com perfeição qualquer ser humano.
O ambiente social também é inédito: eleitores hiperconectados, fácil acesso aos recursos de IA e um sistema jurídico que tenta correr atrás da disrupção com regulação emergencial. Segundo um estudo da Universidade de Waterloo, marcas d’água, rótulos e metadados inseridos por plataformas como OpenAI, Google e Meta para notificar o conteúdo artificial podem ser removidos com poucos cliques, tornando-o virtualmente indistinguível do real.
Para tentar conter o efeito no Brasil, o TSE criou um marco de referência global ao proibir deepfakes em campanhas e responsabilizar plataformas pela não remoção de conteúdo falso.
A resolução exige rotulagem de materiais com IA, proíbe robôs que simulem interação com o eleitor e autoriza o tribunal a determinar contrainformação em casos de boatos virais. Paralelamente, o Congresso aprovou projetos que criminalizam o uso eleitoral de conteúdos manipulados, prevendo cassação e prisão.
Apesar disso, os mecanismos técnicos ainda não garantem proteção eficaz. Especialistas afirmam que a maioria das ferramentas de detecção falha com frequência e que o padrão mais promissor para notificação de presença de IA, como a aliança C2PA, fundada por Adobe, Arm, Intel, Microsoft e Truepic, depende da adesão de toda a cadeia de mídia, o que ainda não ocorreu. A consequência é um cenário híbrido, com conteúdos verdadeiros desacreditados e falsos tomados como reais.
Consultorias internacionais já recomendam que empresas e governos invistam em rastreabilidade, educação midiática e parcerias com validadores externos. Startups de fact-checking e autenticação digital devem receber capital em volume crescente.
Já os bancos de investimento alertam: a desinformação em campanhas pode gerar volatilidade regulatória e institucional, afetando diretamente ativos locais. Ganha não quem manipula melhor, mas quem oferece sinais auditáveis de verdade. O custo da mentira caiu; o da transparência subiu. Para líderes, a mensagem é objetiva: não haverá confiança política ou econômica sem reconstruir, tecnicamente, o que é real.