Colunistas

Segurança pública: ‘polícia contra bandido’ ou ‘IA contra IA’?

Enquanto o debate público permanece ancorado na criminalidade das ruas, o Brasil vem se consolidando como epicentro dos crimes cibernéticos

Cerimônia de  entrega de itens de segurança para 23 estados e o Distrito Federal. Os bens, que fazem parte do acervo da Força Nacional de Segurança Pública. (Marcelo Camargo/Agência Brasil)

Cerimônia de entrega de itens de segurança para 23 estados e o Distrito Federal. Os bens, que fazem parte do acervo da Força Nacional de Segurança Pública. (Marcelo Camargo/Agência Brasil)

Publicado em 16 de dezembro de 2025 às 22h20.

A segurança pública é hoje a principal preocupação dos brasileiros. Ela supera, inclusive, a economia no ranking dos temas que mais geram inquietação na população. Tradicionalmente, a sensação de insegurança está associada à violência urbana — homicídios, latrocínios, e o roubo de celulares. No entanto, enquanto o debate público permanece ancorado na criminalidade das ruas, o Brasil vem se consolidando como epicentro de uma nova e menos visível modalidade criminosa: os crimes cibernéticos.

Os números revelam a magnitude dessa transformação. Um estudo recente aponta que, apenas em 2024, mais da metade da população brasileira (51%) foi vítima de fraudes digitais, com prejuízos que somaram R$ 4,9 bilhões apenas por meio do Pix — um crescimento de 35% em relação ao ano anterior. Golpes via SMS se multiplicaram por 14 no mesmo período, enquanto o uso de deepfakes — tecnologias baseadas em inteligência artificial, capazes de gerar áudios, imagens e vídeos falsos extremamente realistas — cresceu 830% em esquemas de fraude. Contudo, embora 75% dos brasileiros afirmem saber identificar golpes, mais de 70% acabaram sendo vítimas de ao menos um deles ao longo do último ano. O crime evoluiu mais rápido do que a capacidade de defesa do cidadão.

Essa nova fronteira da insegurança não afeta apenas indivíduos. Em 2024, hackers ligados ao governo chinês utilizaram uma ferramenta de inteligência artificial para automatizar um ataque de ciberespionagem contra dezenas de empresas americanas, no episódio considerado o primeiro caso documentado de um ciberataque em larga escala executado por IA. Esse episódio ilustra como o desafio central da segurança não reside no uso da IA em si, mas na assimetria entre criminosos tecnologicamente sofisticados e modelos obsoletos de defesa.

Mas se criminosos estão usando a inteligência artificial para perpetrar seus ataques, como podemos utilizá-la para proteger a sociedade? 

Primeiramente, devemos entender que a IA não é panaceia ou nêmesis, mas simplesmente instrumento tecnológico capaz de alavancar a segurança pública. Trata-se de uma ferramenta que permitirá que a segurança pública migre de um modelo predominantemente reativo para um paradigma preventivo, analítico e eficiente. 

Um exemplo está no combate às fraudes baseadas em clonagem de voz, que afetam de forma desproporcional pessoas idosas. Instituições financeiras já utilizam algoritmos de IA capazes de identificar padrões anômalos em chamadas telefônicas — como variações sutis de entonação incompatíveis com a voz original — e sistemas que detectam transações fora do comportamento usual do cliente em tempo real. Nessa mesma direção, o Banco Central lançou o serviço BC Protege+, que permite ao cidadão bloquear preventivamente a abertura de contas em seu nome. São exemplos de como tecnologia bem aplicada pode reduzir riscos sem necessariamente ampliar o poder do Estado sobre cidadãos.

Outro campo promissor é a prevenção de crimes violentos. Ao integrar grandes volumes de dados — registros policiais, padrões temporais, eventos locais — sistemas de IA conseguem identificar áreas de maior risco para homicídios e assaltos, permitindo uma alocação mais inteligente e antecipada do policiamento. Em países como Israel, centros de coordenação conhecidos como fusion centers já utilizam modelos de predictive policing para orientar decisões operacionais. Veículos e sistemas de monitoramento equipados com IA também podem identificar comportamentos anômalos e alertar agentes antes que situações de risco se concretizem.

No enfrentamento ao crime organizado e ao tráfico, o potencial da IA é ainda maior. Satélites e drones com sistemas de visão computacional já permitem detectar áreas de plantio ilegal e movimentações suspeitas em regiões como a Amazônia. No Brasil, o Sistema Integrado de Monitoramento de Fronteiras (SISFRON) utiliza sensores, radares e drones para monitorar fronteiras secas do Centro-Sul e outras áreas de difícil acesso. Algoritmos de link analysis ajudam a mapear fluxos financeiros e redes logísticas de facções criminosas, contribuindo para desarticular operações de tráfico e lavagem de dinheiro. Em um país continental com a complexidade territorial brasileira, essas ferramentas se tornam indispensáveis para a soberania e para desarticular as estruturas do crime transnacional.

Ainda assim, embora muito promissora, há perigos reais no uso da inteligência artificial - especialmente pelo Estado. O principal risco da IA na segurança pública é a expansão silenciosa de mecanismos de vigilância em massa. O que começa como detecção de anomalias pode, sem limites claros, transformar-se em monitoramento permanente da população. A história mostra que regimes autoritários frequentemente utilizam a segurança como justificativa para controlar e silenciar opositores. Mesmo em democracias consolidadas, algoritmos de IA demonstraram reproduzir vieses, como nos casos de reconhecimento facial com taxas de erro maiores para determinados grupos sociodemográficos.

Por isso, para evitar que seja usada contra os cidadãos, qualquer aplicação da IA na segurança pública deve obedecer a princípios inegociáveis do rule of law: a tecnologia deve ser instrumento de apoio, jamais instância decisória final; toda ação automatizada precisa estar sujeita à revisão humana e ao devido processo legal; os sistemas utilizados pelo Estado devem ser transparentes, auditáveis por terceiros independentes e, sempre que possível, baseados em código aberto; e erros devem gerar responsabilização clara. A tecnologia deve proteger o cidadão do arbítrio estatal — nunca blindar o arbítrio estatal do escrutínio cívico.

Esse equilíbrio entre o enfrentamento ao crime e a proteção dos direitos fundamentais se torna ainda mais sensível no contexto eleitoral. Em 2026, o Brasil provavelmente enfrentará eleições em um ambiente inundado por deepfakes e campanhas de desinformação altamente sofisticadas. Vídeos falsificados de candidatos, dizendo o que nunca disseram, poderão influenciar percepções e votos. Ainda assim, o Estado não deve recorrer à censura prévia em nome do combate às fake news. Afinal, o melhor antídoto contra a desinformação é mais informação, não a censura. 

É justamente aqui que políticas públicas eficazes se distanciam de regulações federais centralizadoras e engessadas. Segurança baseada em IA exige inovação descentralizada e coordenação federativa, não comando vertical. Assim como a inovação tecnológica tende a florescer mais rapidamente em ambientes diversos e competitivos do que em estruturas centralizadas, a segurança pública pode se beneficiar significativamente de uma abordagem fundamentada no federalismo. Estados e municípios enfrentam realidades criminais distintas e precisam de mais autonomia decisória para definir prioridades de inteligência. O governo federal deve atuar como coordenador, financiador e integrador de dados, mas não como centro decisório único. Parcerias público-privadas e arranjos colaborativos entre órgãos de segurança pública e o setor privado são caminhos mais eficientes do que a imposição de uma solução única de cima para baixo.

No enfrentamento à desinformação, o modelo também se aplica. Plataformas privadas, organizações da sociedade civil, jornalistas e grupos cívicos podem identificar, sinalizar e desmentir conteúdos fraudulentos por meio de processos abertos e auditáveis. Entregar ao Estado o poder de decidir o que é verdade ou mentira não apenas cria riscos institucionais graves, como enfraquece a própria democracia.