Exame Logo

Parlamento Europeu aprova "EU AI Act", primeiro marco regulatório de IA do mundo

Nova lei pode inspirar países como o Brasil a adotar regulações próprias para a tecnologia

Parlamento europeu: primeiro passo na regulação da IA (Dursun Aydemir/Anadolu Agency/Getty Images)
André Lopes

Repórter

Publicado em 25 de junho de 2023 às 11h40.

Última atualização em 26 de junho de 2023 às 13h55.

O Parlamento Europeu deu um passo significativo para amenizar os riscos da inteligência artificial (IA) à sociedade com a aprovação, na última quarta-feira, 21, do "EU AI Act".

A medida poderá incitar outros países a estabelecer suas próprias normativas, como é o caso do Brasil, onde discussões acerca de um projeto semelhante foram retomadas este ano no Congresso.

Veja também

A proposta, que vem sendo discutida desde 2020, regulamenta o funcionamento de ferramentas de automação, aprendizado de máquina e modelos amplos de linguagem.

Isso abrange desde algoritmos de redes sociais e serviços de streaming até infraestrutura urbana, como redes elétricas, passando por carros autônomos e ferramentas como o ChatGPT.

O ChatGPT, chatbot popular da OpenAI, potencializou o desconforto dos países membros da União Europeia em relação às novas tecnologias.

Em abril passado, a Itália decidiu banir o ChatGPT do país, alegando que o robô coletou dados de usuários sem consentimento e expôs menores a materiais impróprios.

Três semanas depois, um acordo restabeleceu o serviço. Dias depois, a autoridade de dados da Espanha declarou que estava investigando possíveis infrações cometidas pelo ChatGPT.

A regulamentação da IA pode entrar em vigor no próximo ano. Antes disso, o texto deve passar pela Comissão Europeia e pelo Conselho Europeu, e ser aprovado por todos os 27 países-membros do bloco.

Primeiro passo

Embora ainda seja um rascunho inicial, o documento aprovado na última quarta-feira fornece uma perspectiva sobre o futuro da IA no continente.

O ponto principal do EU AI Act consiste em categorizar diferentes modelos de inteligência artificial através de uma "abordagem baseada em risco".

Nesse modelo, cada sistema de IA é classificado em uma das categorias definidas pelas autoridades: baixo risco à sociedade (como jogos), risco limitado (como chatbots), alto risco (como veículos autônomos) e inaceitável (como sistemas biométricos de vigilância).

Com base nessa classificação, as empresas têm uma série de obrigações de privacidade e transparência a cumprir, dependendo da categoria em que seus serviços e produtos foram enquadrados.

Em maio, os eurodeputados adicionaram um adendo dedicado às IAs de propósito geral, como o ChatGPT.

Pelo projeto, essas ferramentas deverão exibir um aviso indicando que o conteúdo é gerado por uma máquina - uma medida que os políticos europeus esperam que previna a disseminação de desinformação - e detalhar em relatórios os materiais protegidos por direitos autorais que foram utilizados para treinar esses sistemas.

Svenja Hahn, eurodeputada alemã, considera o projeto uma defesa dos valores da União Europeia. Contudo, apesar do progresso, a permissão concedida pelo EU AI Act para que ferramentas de IA possam ser utilizadas nas fronteiras dos países é vista como um retrocesso por organizações de direitos humanos.

Sarah Chander, consultora da organização European Digital Rights (EDRi), critica o fato de que a União Europeia está criando uma regulação de IA de duas categorias, com os migrantes recebendo menos proteções que o resto da sociedade.

Acompanhe tudo sobre:Inteligência artificialChatGPTUnião Europeia

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Inteligência Artificial

Mais na Exame