Exame Logo

Os problemas da regulamentação de IA

PL aprovado cria barreiras que podem tornar o desenvolvimento de IA no Brasil praticamente inviável

O Senado aprovou, nesta terça-feira (10), o projeto que regulamenta a inteligência artificial (IA) no Brasil (Edilson Rodrigues/Agência Senado)
Instituto Millenium

Instituto Millenium

Publicado em 11 de dezembro de 2024 às 09h48.

Por Matheus Dias*

Nesta terça-feira, o Senado aprovou o projeto de lei 2338/2023, que pretende regular a IA no Brasil. Regular novas tecnologias é importante e necessário - ninguém quer ver IA sendo usada para prejudicar pessoas ou violar direitos fundamentais. Porém, o texto atual do PL vai muito além da proteção necessária: ele cria barreiras que podem tornar o desenvolvimento de IA no Brasil praticamente inviável.

Um dos focos principais do PL é a regulação da chamada IA Generativa - sistemas de inteligência artificial capazes de criar conteúdos novos, como textos, imagens, músicas ou códigos de programação. São exemplos que você provavelmente já conhece: ChatGPT gerando textos, Midjourney criando imagens, ou GitHub Copilot ajudando programadores. Estas ferramentas estão revolucionando diversos setores, mas o PL pode dificultar significativamente seu desenvolvimento no Brasil.

Os dois principais problemas do Projeto de Lei são:

Barreira dos direitos autorais: O projeto joga nos desenvolvedores a missão impossível de filtrar bilhões de conteúdos protegidos, mas de acesso público. Na prática, isso pode impedir a criação e uso de IAs avançadas no país.

Toda aplicação de IA Generativa é tratada como alto risco: O PL propõe que toda aplicação de IA Generativa passe por testes e regulações similares, independente do risco de fato da aplicação. Isso pode gerar uma burocracia desnecessária e impedir ciclos de iteração rápidos no desenvolvimento de IA.

Além destes dois problemas principais, o PL cria uma nova agência regulatória: o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Esta agência terá amplos poderes para regular o setor, incluindo a capacidade de criar novas regras mesmo em áreas não definidas pelo Congresso. Embora a existência de um órgão regulador seja importante, a concentração de tanto poder em uma única agência é preocupante.

Barreira dos Direitos Autorais

O PL permite que qualquer detentor de direitos autorais proíba o uso de seus conteúdos no treinamento de IAs, transferindo a responsabilidade de retirar esses conteúdos dos dados de treinamento para o desenvolvedor (Capítulo X - Seção IV).

Para entender por que isso é problemático, vamos olhar para um dos modelos de código aberto mais avançados, o LLaMA 3.3. Seus desenvolvedores afirmam que usaram em seu treinamento o equivalente a mais de 23 bilhões de páginas de texto. Seria preciso verificar a existência de cada potencial conteúdo protegido por direitos autorais nesse enorme volume de dados. Como não há uma base de dados centralizada com o registro de todos os conteúdos protegidos por direitos autorais, essa tarefa precisaria ser feita de forma manual. Na prática, isso é impossível.

Isso significa que um modelo avançado como esse não poderia ser desenvolvido no país. Pior, seria juridicamente arriscado distribuí-lo e usá-lo em aplicações comerciais. Isso não afetaria somente as grandes empresas de tecnologia, mas qualquer empresa brasileira ou startup que queira treinar seus próprios modelos ou usar esses modelos maiores como base para modelos mais especializados, algo muito comum na área. Potencialmente, isso afetaria todos os usuários de modelos de AI, visto que muito provavelmente nenhum modelo avançado atual treinado em português conseguiria garantir que não foi treinado com dados autorais.

Enquanto o Brasil caminha para uma das legislações mais restritivas do mundo, outros países já encontraram maneiras mais sensatas de equilibrar a proteção de direitos autorais com o desenvolvimento tecnológico. O Japão, desde 2018, permite expressamente a mineração de dados para pesquisa e desenvolvimento de IA, reconhecendo que este uso é fundamentalmente diferente da reprodução tradicional de obras. Singapura seguiu caminho similar e criou exceções específicas para IA em sua lei de direitos autorais, permitindo que empresas inovem com segurança jurídica. Mesmo a União Europeia, conhecida por sua rigidez regulatória, encontrou um meio-termo pragmático: permite o treinamento de IA com dados públicos, mas dá aos autores uma forma simples de optarem por não participar (através de marcações que os modelos de IA podem ler automaticamente).

Uma ideia temporária para sanar esse problema seria criar um sistema similar à taxa do ECAD (que gerencia direitos musicais): desenvolvedores de IA, a partir de certo tamanho, pagariam uma taxa pelo uso do conteúdo autoral. Isso protegeria os criadores sem inviabilizar a inovação. No futuro, com o avanço da tecnologia, esse sistema poderia ser substituído por uma contribuição mais direcionada ao produtor do conteúdo específico que foi usado no treinamento do modelo.

O PL 2338/23 prevê a criação de um 'sandbox regulatório' sob supervisão da SIA, no Capítulo X. Este ambiente controlado permite que empresas testem novas tecnologias e modelos de negócio com certas flexibilidades regulatórias, desde que sob supervisão. Seria um espaço ideal para experimentar diferentes formas de compensação aos detentores de direitos autorais, como o sistema de taxa sugerido acima.

IA Generativa como Categoria de Risco

A ideia de separar as aplicações de IA por sua categoria de risco faz bastante sentido. Esta inspiração veio da legislação europeia, que define as diferentes aplicações de IA entre Risco Excessivo (proibidas), Alto Risco (fortemente reguladas), Risco Limitado (algumas regulações), e Risco Mínimo (Sem restrições).

O problema é que a legislação brasileira não define essas duas últimas categorias, e deixa em aberto de fato qual será a regulação para aplicações de baixo risco. No atual texto do PL, qualquer sistema que gere texto ou imagens (chamado de "IA Generativa") precisa passar por testes de impacto social e ambiental, documentação técnica e análises de risco antes de ser colocado no mercado (Capítulo IV - Seção V). Além disso, a legislação cria uma agência regulatória, o SIA, que poderá definir e alterar as categorias de risco de cada aplicação, tirando essa prerrogativa do processo democrático.

Quais as consequências disso? Imagine que você desenvolve um sistema de IA para ajudar restaurantes a reduzir desperdício de alimentos. Pelo texto atual do PL, seu sistema poderia precisar passar pelos mesmos testes rigorosos que um sistema usado para decisões judiciais ou diagnósticos médicos. Não faz sentido, certo? Como os testes ainda não foram definidos e nem a maneira como eles serão realizados ou pagos, há um risco enorme de captura regulatória - ou seja, é possível que estes testes sejam usados para permitir que apenas algumas empresas possam aplicar a tecnologia, mesmo que o risco de fato seja baixo.

Para aumentar a segurança jurídica e manter a competitividade do mercado, a legislação precisa separar entre sistemas simples (como um assistente de atendimento) e complexos (como análise de crédito) e de uso interno (como organização de estoque) e aplicações que afetam pessoas diretamente (como chatbots). Aplicações de baixo risco ou que não serão expostas a usuários externos deveriam ser protegidas de regulação excessiva na própria legislação.

O PL também proíbe completamente certas aplicações, classificando-as como de 'risco excessivo' (Capítulo III - Seção II). Entre elas, está o desenvolvimento de sistemas autônomos para defesa nacional. Embora o controle rigoroso dessas tecnologias seja fundamental, uma proibição total pode comprometer a soberania nacional, visto que outros países continuarão desenvolvendo estas capacidades. Embora muito do texto seja idêntico ao Europeu, essa parte não existe no texto deles e me causou estranheza ter sido adicionada à versão brasileira.

O que pode ser feito?

O PL agora segue para a Câmara dos Deputados, e ainda há tempo para melhorias antes que se torne lei. Porém, existe forte pressão para manter o texto como está. Se você usa IA no seu dia a dia ou se preocupa com inovação no Brasil, este é o momento de prestar atenção.

Os problemas do texto atual são preocupantes. Por um lado, cria barreiras significativas ao desenvolvimento de IA no Brasil, com restrições excessivas a direitos autorais e requisitos burocráticos pesados para aplicações de baixo risco. Por outro, concentra poder demais no SIA (Sistema de Inteligência Artificial), a nova agência regulatória, que poderá decidir quais empresas podem ignorar certas restrições, escolher quais aplicações precisam passar por processos burocráticos, e criar novas regras mesmo em áreas não definidas pelo Congresso.

* Matheus Dias é parte do time fundador da startup Orby AI, onde atua como Engenheiro de Machine Learning. Possui mestrado em Estatística pela Universidade de Stanford e bacharelado em Matemática pela Universidade de Duke

Veja também

Por Matheus Dias*

Nesta terça-feira, o Senado aprovou o projeto de lei 2338/2023, que pretende regular a IA no Brasil. Regular novas tecnologias é importante e necessário - ninguém quer ver IA sendo usada para prejudicar pessoas ou violar direitos fundamentais. Porém, o texto atual do PL vai muito além da proteção necessária: ele cria barreiras que podem tornar o desenvolvimento de IA no Brasil praticamente inviável.

Um dos focos principais do PL é a regulação da chamada IA Generativa - sistemas de inteligência artificial capazes de criar conteúdos novos, como textos, imagens, músicas ou códigos de programação. São exemplos que você provavelmente já conhece: ChatGPT gerando textos, Midjourney criando imagens, ou GitHub Copilot ajudando programadores. Estas ferramentas estão revolucionando diversos setores, mas o PL pode dificultar significativamente seu desenvolvimento no Brasil.

Os dois principais problemas do Projeto de Lei são:

Barreira dos direitos autorais: O projeto joga nos desenvolvedores a missão impossível de filtrar bilhões de conteúdos protegidos, mas de acesso público. Na prática, isso pode impedir a criação e uso de IAs avançadas no país.

Toda aplicação de IA Generativa é tratada como alto risco: O PL propõe que toda aplicação de IA Generativa passe por testes e regulações similares, independente do risco de fato da aplicação. Isso pode gerar uma burocracia desnecessária e impedir ciclos de iteração rápidos no desenvolvimento de IA.

Além destes dois problemas principais, o PL cria uma nova agência regulatória: o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Esta agência terá amplos poderes para regular o setor, incluindo a capacidade de criar novas regras mesmo em áreas não definidas pelo Congresso. Embora a existência de um órgão regulador seja importante, a concentração de tanto poder em uma única agência é preocupante.

Barreira dos Direitos Autorais

O PL permite que qualquer detentor de direitos autorais proíba o uso de seus conteúdos no treinamento de IAs, transferindo a responsabilidade de retirar esses conteúdos dos dados de treinamento para o desenvolvedor (Capítulo X - Seção IV).

Para entender por que isso é problemático, vamos olhar para um dos modelos de código aberto mais avançados, o LLaMA 3.3. Seus desenvolvedores afirmam que usaram em seu treinamento o equivalente a mais de 23 bilhões de páginas de texto. Seria preciso verificar a existência de cada potencial conteúdo protegido por direitos autorais nesse enorme volume de dados. Como não há uma base de dados centralizada com o registro de todos os conteúdos protegidos por direitos autorais, essa tarefa precisaria ser feita de forma manual. Na prática, isso é impossível.

Isso significa que um modelo avançado como esse não poderia ser desenvolvido no país. Pior, seria juridicamente arriscado distribuí-lo e usá-lo em aplicações comerciais. Isso não afetaria somente as grandes empresas de tecnologia, mas qualquer empresa brasileira ou startup que queira treinar seus próprios modelos ou usar esses modelos maiores como base para modelos mais especializados, algo muito comum na área. Potencialmente, isso afetaria todos os usuários de modelos de AI, visto que muito provavelmente nenhum modelo avançado atual treinado em português conseguiria garantir que não foi treinado com dados autorais.

Enquanto o Brasil caminha para uma das legislações mais restritivas do mundo, outros países já encontraram maneiras mais sensatas de equilibrar a proteção de direitos autorais com o desenvolvimento tecnológico. O Japão, desde 2018, permite expressamente a mineração de dados para pesquisa e desenvolvimento de IA, reconhecendo que este uso é fundamentalmente diferente da reprodução tradicional de obras. Singapura seguiu caminho similar e criou exceções específicas para IA em sua lei de direitos autorais, permitindo que empresas inovem com segurança jurídica. Mesmo a União Europeia, conhecida por sua rigidez regulatória, encontrou um meio-termo pragmático: permite o treinamento de IA com dados públicos, mas dá aos autores uma forma simples de optarem por não participar (através de marcações que os modelos de IA podem ler automaticamente).

Uma ideia temporária para sanar esse problema seria criar um sistema similar à taxa do ECAD (que gerencia direitos musicais): desenvolvedores de IA, a partir de certo tamanho, pagariam uma taxa pelo uso do conteúdo autoral. Isso protegeria os criadores sem inviabilizar a inovação. No futuro, com o avanço da tecnologia, esse sistema poderia ser substituído por uma contribuição mais direcionada ao produtor do conteúdo específico que foi usado no treinamento do modelo.

O PL 2338/23 prevê a criação de um 'sandbox regulatório' sob supervisão da SIA, no Capítulo X. Este ambiente controlado permite que empresas testem novas tecnologias e modelos de negócio com certas flexibilidades regulatórias, desde que sob supervisão. Seria um espaço ideal para experimentar diferentes formas de compensação aos detentores de direitos autorais, como o sistema de taxa sugerido acima.

IA Generativa como Categoria de Risco

A ideia de separar as aplicações de IA por sua categoria de risco faz bastante sentido. Esta inspiração veio da legislação europeia, que define as diferentes aplicações de IA entre Risco Excessivo (proibidas), Alto Risco (fortemente reguladas), Risco Limitado (algumas regulações), e Risco Mínimo (Sem restrições).

O problema é que a legislação brasileira não define essas duas últimas categorias, e deixa em aberto de fato qual será a regulação para aplicações de baixo risco. No atual texto do PL, qualquer sistema que gere texto ou imagens (chamado de "IA Generativa") precisa passar por testes de impacto social e ambiental, documentação técnica e análises de risco antes de ser colocado no mercado (Capítulo IV - Seção V). Além disso, a legislação cria uma agência regulatória, o SIA, que poderá definir e alterar as categorias de risco de cada aplicação, tirando essa prerrogativa do processo democrático.

Quais as consequências disso? Imagine que você desenvolve um sistema de IA para ajudar restaurantes a reduzir desperdício de alimentos. Pelo texto atual do PL, seu sistema poderia precisar passar pelos mesmos testes rigorosos que um sistema usado para decisões judiciais ou diagnósticos médicos. Não faz sentido, certo? Como os testes ainda não foram definidos e nem a maneira como eles serão realizados ou pagos, há um risco enorme de captura regulatória - ou seja, é possível que estes testes sejam usados para permitir que apenas algumas empresas possam aplicar a tecnologia, mesmo que o risco de fato seja baixo.

Para aumentar a segurança jurídica e manter a competitividade do mercado, a legislação precisa separar entre sistemas simples (como um assistente de atendimento) e complexos (como análise de crédito) e de uso interno (como organização de estoque) e aplicações que afetam pessoas diretamente (como chatbots). Aplicações de baixo risco ou que não serão expostas a usuários externos deveriam ser protegidas de regulação excessiva na própria legislação.

O PL também proíbe completamente certas aplicações, classificando-as como de 'risco excessivo' (Capítulo III - Seção II). Entre elas, está o desenvolvimento de sistemas autônomos para defesa nacional. Embora o controle rigoroso dessas tecnologias seja fundamental, uma proibição total pode comprometer a soberania nacional, visto que outros países continuarão desenvolvendo estas capacidades. Embora muito do texto seja idêntico ao Europeu, essa parte não existe no texto deles e me causou estranheza ter sido adicionada à versão brasileira.

O que pode ser feito?

O PL agora segue para a Câmara dos Deputados, e ainda há tempo para melhorias antes que se torne lei. Porém, existe forte pressão para manter o texto como está. Se você usa IA no seu dia a dia ou se preocupa com inovação no Brasil, este é o momento de prestar atenção.

Os problemas do texto atual são preocupantes. Por um lado, cria barreiras significativas ao desenvolvimento de IA no Brasil, com restrições excessivas a direitos autorais e requisitos burocráticos pesados para aplicações de baixo risco. Por outro, concentra poder demais no SIA (Sistema de Inteligência Artificial), a nova agência regulatória, que poderá decidir quais empresas podem ignorar certas restrições, escolher quais aplicações precisam passar por processos burocráticos, e criar novas regras mesmo em áreas não definidas pelo Congresso.

* Matheus Dias é parte do time fundador da startup Orby AI, onde atua como Engenheiro de Machine Learning. Possui mestrado em Estatística pela Universidade de Stanford e bacharelado em Matemática pela Universidade de Duke

Acompanhe tudo sobre:SenadoInteligência artificial

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se