Esfera Brasil

O que é uma IA de alto risco

Sistemas podem impactar de forma significativa direitos fundamentais, a segurança pública ou a saúde da população

Big techs ficaram de fora do texto, que propõe regras que equilibram a inovação tecnológica e a proteção de direitos fundamentais (Jonathan Raa/Getty Images)

Big techs ficaram de fora do texto, que propõe regras que equilibram a inovação tecnológica e a proteção de direitos fundamentais (Jonathan Raa/Getty Images)

Esfera Brasil
Esfera Brasil

Plataforma de conteúdo

Publicado em 6 de janeiro de 2025 às 05h54.

Última atualização em 10 de janeiro de 2025 às 12h52.

O Senado Federal aprovou, em dezembro de 2024, o Projeto de Lei (PL) 2.338/23, que estabelece diretrizes para o uso da inteligência artificial (IA) no Brasil. O texto, que agora está na Câmara dos Deputados para apreciação, propõe regras que equilibram a inovação tecnológica e a proteção de direitos fundamentais, criando diretrizes para o desenvolvimento e uso da IA em setores públicos e privados. Um dos pontos centrais do projeto é a definição e regulamentação das chamadas “IAs de alto risco”.

De acordo com o texto aprovado no Senado, sistemas de IA de alto risco são aqueles que podem impactar de forma significativa direitos fundamentais, a segurança pública ou a saúde da população. Essa definição segue uma tendência internacional, inspirada no AI Act, regulamentação pioneira da União Europeia.

Esses sistemas incluem, por exemplo:

  • IAs usadas em diagnósticos médicos ou para decisões críticas de tratamento;
  • sistemas de reconhecimento facial, amplamente utilizados em vigilância e segurança pública;
  • decisões administrativas ou judiciais, como concessão de benefícios ou julgamentos automatizados;
  • plataformas de recrutamento, que utilizam algoritmos para filtrar candidatos em processos seletivos.

Para garantir que esses sistemas operem de forma segura e ética, o projeto determina que fornecedores de IA de alto risco devem:

  • realizar avaliações de impacto algorítmico antes da implementação dos sistemas;
  • garantir maior transparência no funcionamento dos algoritmos, incluindo acesso a auditorias;
  • seguir normas rígidas de governança, monitoramento e mitigação de riscos.

Entre os destaques da proposta está a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), a fim de evitar abusos e garantir que os sistemas respeitem os direitos dos cidadãos.

Big techs de fora

O senador Eduardo Gomes (PL-TO), relator do PL que regulamenta a IA no Brasil, excluiu do texto o dispositivo que considerava de alto risco os sistemas usados pelas plataformas digitais – as big techs – para produção, análise, recomendação e distribuição de conteúdos. A retirada do trecho foi um acordo entre as bancadas para fazer o texto avançar na Comissão Especial do Senado criada para analisar o tema.

O trecho em questão afirmava que seria uma IA de alto risco o sistema de big tech de “produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.

De autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), o PL determina que sistemas de IA considerados de alto risco devem ser submetidos a regras mais rígidas de governança, monitoramento e fiscalização.

Acompanhe tudo sobre:Inteligência artificial

Mais de Esfera Brasil

Como o expansionismo ou contracionismo fiscal impactam a economia

O papel do alumínio na descarbonização

A bula digital substitui a bula impressa?

As diferenças entre sistema regulado e voluntário do mercado de carbono