Inteligência Artificial

Políticas de IA se multiplicam no mundo; OCDE já contabiliza mais de 1.300 medidas regulatórias

G7 e UE lideram iniciativas, enquanto países do Sul Global ficam para trás

André Lopes
André Lopes

Repórter

Publicado em 22 de setembro de 2025 às 06h37.

O número de políticas de inteligência artificial disparou 30% desde 2022, alcançando mais de 1.300 regulamentações, diretrizes e normas em todo o mundo, segundo dados da OCDE. A corrida começou após o lançamento do ChatGPT e reflete o esforço de grandes potências em controlar riscos da tecnologia, mas também evidencia a falta de consenso internacional.

Enquanto Estados Unidos, União Europeia e China avançam em agendas próprias, o Sul Global segue dependente. Apenas um terço dos países em desenvolvimento possui estratégias nacionais de IA, contra dois terços das economias avançadas. A ONU estima que 118 países ainda não participam de discussões globais sobre governança de IA.

No Brasil, o governo lançou em 2021 a Estratégia Brasileira de Inteligência Artificial, mas a implementação prática segue limitada. Atualmente, tramita no Congresso o Projeto de Lei 2338/23, que propõe um marco legal para a IA inspirado em diretrizes da União Europeia.

Corrida regulatória entre EUA, Europa e China

O G7 e a União Europeia concentram cerca de 30% das políticas existentes, incluindo subsídios para infraestrutura e exigências de mitigação de riscos e desinformação. A nova Lei de IA da UE, que entra em vigor em agosto de 2026, prevê avaliações obrigatórias de risco e multas a infratores.

Nos EUA, a política mudou com o governo Trump, que revogou diretrizes de segurança de Biden e lançou um plano para exportar tecnologia americana em busca de “domínio global da IA”. Já a China bloqueou serviços estrangeiros como o ChatGPT, investindo em semicondutores próprios, modelos locais e aplicações militares.

Apesar de alguns esforços multilaterais, como a estrutura de monitoramento de riscos proposta pelo G7, divergências persistem. Em fevereiro, EUA e Reino Unido se recusaram a assinar uma declaração de Paris sobre desenvolvimento “inclusivo” da IA, apoiada por 60 países.

Analistas alertam que a falta de alinhamento internacional aumenta o risco de mau uso da IA em armas letais e ciberataques. A Universidade de Stanford registrou 230 incidentes graves em 2024, 60% a mais do que no ano anterior. Casos associados ao ChatGPT chegaram a ser vinculados a suicídios.

No setor privado, apenas 39% das empresas mantêm comitês de governança, segundo a Associação Internacional de Profissionais de Privacidade. Embora líderes como a OpenAI já tenham pedido cooperação internacional, a competição entre países e companhias parece ter suplantado a busca por regras globais.

Acompanhe tudo sobre:Inteligência artificialRegulamentação

Mais de Inteligência Artificial

Google ameaça OpenAI e Nvidia com avanço do Gemini e chips próprios

CEO do SoftBank diz que ‘chorou’ ao vender ações da Nvidia para investir na OpenAI

Nvidia lança modelo de IA aberto para pesquisas com veículos autônomos

OpenAI entra em alerta máximo para melhorar ChatGPT com Google na cola