Uma Nova Abordagem no Uso da Inteligência Artificial
A Receita Federal deu um passo significativo no debate global sobre o uso responsável da Inteligência Artificial (IA) no setor público com a publicação de sua Política de Inteligência Artificial. Este marco regulatório estabelece princípios éticos, jurídicos e técnicos que orientam a aplicação da tecnologia em atividades tributárias e aduaneiras. O Subsecretário de Gestão Corporativa, auditor-fiscal Juliano Neves, apresentou essa nova política na Organização das Nações Unidas (ONU) na última sexta-feira (27 de março), durante a reunião “2026 ECOSOC Special Meeting on International Cooperation in Tax Matters”.
Alinhada aos principais padrões internacionais, a política brasileira introduz salvaguardas inovadoras, enfatizando a centralidade do ser humano nas decisões, a soberania dos dados públicos e a responsabilidade individual dos agentes públicos.
O Papel Central das Decisões Humanas
Um dos fundamentos dessa nova política é a preservação da autonomia humana. Embora a IA seja uma ferramenta de apoio, a Receita Federal destaca que as decisões administrativas e atos legais são de responsabilidade exclusiva dos servidores públicos. A norma deixa claro que nenhum sistema de IA deve condicionar, substituir ou vincular o exercício das competências legais da administração tributária e aduaneira. O julgamento crítico e fundamentado do agente público representa a última linha de defesa contra decisões automatizadas que possam ser injustas ou inadequadas.
Em resumo, a IA apoia, mas não substitui a capacidade de decisão do ser humano, garantindo que os contribuintes tenham pleno acesso aos mecanismos de revisão e defesa administrativa.
Inovação com o Curador de IA Generativa
Outro aspecto distintivo da política brasileira é a criação de uma função inédita: o Curador de Inteligência Artificial Generativa. Enquanto normas internacionais tratam de modelos de uso geral de forma ampla, a Receita Federal instituiu um agente específico responsável por monitorar continuamente erros, vieses e alucinações, avaliar a qualidade e a precisão das respostas, além de assegurar que os sistemas operem dentro de parâmetros éticos e institucionais.
Essa estrutura proporciona um nível de supervisão operacional muito mais detalhado e adaptado à natureza probabilística da IA generativa.
Responsabilidade e Limites Éticos Estritos
A política é clara ao afirmar que o uso inadequado de Inteligência Artificial resulta em responsabilidade disciplinar individual. O descumprimento das salvaguardas éticas e técnicas não é considerado uma falha sistêmica, mas sim uma conduta pessoal do agente público. Além disso, a Receita Federal proíbe expressamente o uso de IA para manipulação subliminar, pontuação ou classificação social e vigilância em massa.
Essas restrições colocam a política brasileira entre as mais rigorosas e protetivas em relação aos direitos fundamentais.
Soberania dos Dados Públicos
Em termos de proteção de dados, a política vai além das exigências tradicionais de privacidade. É expressamente proibido que fornecedores ou terceiros utilizem dados tributários de cidadãos brasileiros para treinar ou calibrar modelos comerciais de Inteligência Artificial. Sempre que possível, a Receita Federal prioriza ambientes tecnológicos sob governança técnica integral, garantindo controle sobre armazenamento, processamento, localização geográfica, infraestrutura e acessos.
O uso de ambientes externos ou não soberanos será permitido apenas após uma análise técnica rigorosa, garantindo assim a proteção dos dados fiscais e aduaneiros.
Gestão de Riscos e Segurança em Múltiplos Níveis
A política estabelece uma robusta estrutura de gestão de riscos para sistemas de IA, exigindo resiliência contra falhas técnicas, ataques cibernéticos e usos indevidos. Cada iniciativa passa por uma avaliação em três camadas: unidade de negócio responsável, área de tecnologia da informação e comitê de TI institucional. Esse modelo garante acompanhamento contínuo dos riscos ao longo de todo o ciclo de vida da solução.
Inovação Responsável com o Modelo “Fast Track”
Com o intuito de equilibrar segurança e inovação, a Receita Federal criou um mecanismo ágil para o desenvolvimento de protótipos e soluções experimentais. Projetos de baixo risco podem ser desenvolvidos em ambientes controlados sem a necessidade de aprovação prévia do comitê superior, permitindo testes rápidos e aprendizado institucional, sem comprometer a governança. Esse modelo proporciona maior dinamismo do que estruturas excessivamente rígidas observadas em outras jurisdições, especialmente em comparação com regimes que tratam apenas de sistemas de alto risco.
Capacitação Contínua e Cultura de IA
A Receita Federal reconhece que a tecnologia é probabilística e possui limitações, por isso instituiu um plano permanente de capacitação em Inteligência Artificial. O foco é assegurar que os servidores compreendam o funcionamento dos modelos, seus limites, os riscos associados e a importância do papel humano na tomada de decisão.
Transparência e Auditabilidade
Por fim, a política reafirma o compromisso com a transparência. Os sistemas devem ser capazes de explicar, de maneira compreensível, os critérios e processos que levam a determinado resultado, priorizando soluções que possibilitem auditoria técnica e institucional. A explicabilidade é vista como um requisito central para a legitimidade do uso da Inteligência Artificial no setor público.
Um Modelo de Referência Internacional
Com essa nova política, a Receita Federal estabelece uma abordagem que combina inovação tecnológica, proteção de direitos, segurança jurídica, responsabilidade individual e soberania digital.

