Inteligência Artificial

Receita cria ‘curador de IA’ para reduzir erros e vieses no uso da tecnologia

Nova política define limites, responsabilização e governança no uso de IA no setor público

O profissional pode buscar novas habilidades a partir do feedback de recrutadores e ingressar na empresa em outro processo seletivo | Unsplash /

O profissional pode buscar novas habilidades a partir do feedback de recrutadores e ingressar na empresa em outro processo seletivo | Unsplash /

Publicado em 2 de abril de 2026 às 14h36.

O uso da inteligência artificial no setor público brasileiro entra em uma nova fase, mais regulada e estruturada. A Receita Federal anunciou a criação de uma política inédita para orientar o uso da tecnologia, incluindo a figura do “Curador de IA” — responsável por monitorar erros, vieses e qualidade das respostas geradas por sistemas automatizados. 

A medida posiciona o Brasil entre os países que buscam equilibrar inovação com governança, em um momento em que a IA avança rapidamente sobre processos críticos.

Curador de IA: uma nova função no setor público

O destaque da política é a criação de um papel inédito: o Curador de Inteligência Artificial Generativa. Na prática, esse profissional será responsável por supervisionar o funcionamento dos sistemas de IA, avaliando:

  • Inconsistências nas respostas

  • Presença de vieses

  • Qualidade das informações geradas

A função surge como resposta direta à natureza probabilística da IA generativa, que pode produzir respostas plausíveis, mas nem sempre corretas.

A maioria das pessoas ainda não entendeu como usar IA no trabalho, mas você pode! Clique aqui

O modelo aproxima o setor público brasileiro de discussões internacionais sobre governança de IA, que já vêm sendo conduzidas por organismos como a OCDE e a União Europeia.

Decisão final continua sendo humana

Um dos pilares da política é a preservação da autonomia humana.

A Receita Federal deixa explícito que a inteligência artificial será utilizada como ferramenta de apoio — e não como substituição do julgamento humano. Decisões administrativas e atos legais continuam sob responsabilidade exclusiva de servidores públicos.

A diretriz segue uma tendência global. Relatórios recentes da OCDE e da Comissão Europeia reforçam a necessidade de manter os humanos no centro de decisões críticas, especialmente em áreas sensíveis como tributação e segurança.

Limites éticos e responsabilização

A nova política também estabelece regras claras sobre o uso da tecnologia. Entre as práticas proibidas estão:

  • Uso de IA para manipulação subliminar

  • Classificação social de cidadãos

  • Vigilância em massa

Além disso, o uso inadequado da tecnologia passa a ser tratado como responsabilidade individual do agente público, e não apenas como falha sistêmica.

Proteção de dados e soberania digital

Outro eixo central é a proteção de dados. A Receita Federal proíbe que informações tributárias sejam utilizadas por terceiros ou fornecedores para treinar modelos comerciais de inteligência artificial. A medida reforça o conceito de soberania digital, priorizando controle interno sobre dados e infraestrutura.

Esse movimento acompanha discussões globais sobre segurança da informação. Segundo análises de entidades como o Fórum Econômico Mundial, o uso de dados sensíveis em IA é um dos principais pontos de risco na expansão da tecnologia.

Acompanhe tudo sobre:Branded MarketingBranded Marketing IAInteligência artificial

Mais de Inteligência Artificial

OpenAI diz a investidores que superou Anthropic em poder computacional

O truque de quatro palavras que faz o ChatGPT responder como se fosse o Sam Altman

Conheça o AI washing, febre de corporações que dizem dominar IA, mas estão mentindo

⁠Essas 4 ferramentas de IA que estão criando “times de uma pessoa só”; veja quais são