Faculdade Exame

Regulação da IA no Brasil: quais são os desafios éticos e impactos sociais

Regulação da Inteligência Artificial no Brasil deveria seguir os passos da União Europeia, mas ainda falta estrutura para isso

 (iStock/Reprodução)

(iStock/Reprodução)

Leonardo Fabri de Oliveira
Leonardo Fabri de Oliveira

Professor da Faculdade Exame

Publicado em 9 de outubro de 2024 às 11h45.

Tudo sobreFaculdade EXAME
Saiba mais

A ascensão da Inteligência Artificial no Brasil ainda desperta discussões sobre seus impactos sociais e econômicos, especialmente no mundo do trabalho. Embora essa tecnologia ofereça grandes oportunidades para impulsionar tanto produtividade quanto inovação, seus riscos também são evidentes.

O Brasil, com sua legislação em constante transformação, tem o desafio de encontrar um equilíbrio entre inovação tecnológica e responsabilidade social.

Desafios regulatórios no Brasil

O cenário regulatório brasileiro para IA ainda está em construção. A criação da Estratégia Nacional de Inteligência Artificial, em 2021, representa um passo considerável para orientar o uso ético e seguro dessa tecnologia, mas muito ainda precisa ser feito.

A Lei Geral de Proteção de Dados (LGPD), promulgada em 2018, já estabelece diretrizes para a manipulação de dados pessoais, sendo um pilar essencial no controle do uso da IA. Além disso, o Marco Civil da Internet define garantias sobre a liberdade e privacidade na rede, elementos essenciais para o uso de sistemas de IA conectados à internet.

Atualmente, a regulação está fragmentada entre diferentes leis, como a Lei de Inovação e o Plano Nacional de Internet das Coisas, que focam no incentivo da inovação tecnológica, porém falham em abordar de forma abrangente os impactos éticos e sociais da IA.

O Brasil precisa de uma abordagem mais ampla, semelhante ao modelo europeu, que classifica o uso de IA em níveis de risco. Para Fabro Steibel, membro do conselho do World Economic Forum, isso é exatamente o que falta por aqui: um modelo específico que classifique os riscos e oriente a aplicação de IA em setores de alto impacto, como saúde e segurança pública.

Impactos sociais e éticos

Por um lado, a IA pode ajudar a melhorar a qualidade de vida, oferecendo novas soluções em áreas como saúde, educação e transporte. A automação de processos tem potencial de proporcionar serviços públicos mais eficientes, como no caso do poder judiciário brasileiro, que já utiliza IA para acelerar o julgamento de processos, conforme Resolução do CNJ nº 332, de 2020.

Entretanto, há sérias preocupações sobre o uso ético da IA, especialmente no que tange à privacidade e à discriminação algorítmica. Sistemas de IA que utilizam grandes volumes de dados pessoais para fazer previsões podem reproduzir vieses e perpetuar desigualdades existentes, principalmente raciais. Isso é particularmente perigoso em áreas sensíveis, como decisões judiciais, seleção de candidatos para emprego e concessão de crédito.

Como bem detalhado por Carlos  Affonso de Souza no artigo “O direito à explicação: Inteligência Artificial e ética no Brasil”, incluso no livro “Tratado de Proteção de Dados Pessoais”, o uso de sistemas de reconhecimento facial e vigilância em massa também levanta questões sobre o direito à privacidade e os limites da intervenção estatal na vida dos cidadãos.

A Lei Geral de Proteção de Dados (LGPD) oferece algumas salvaguardas ao garantir que os dados pessoais sejam tratados com responsabilidade e transparência. No entanto, ainda há uma lacuna em termos de regulação específica para IA.

A LGPD foi projetada antes do uso massivo de IA, o que significa que seus mecanismos de proteção podem não ser suficientes para lidar com as complexidades dessa tecnologia. Além disso, a falta de fiscalização efetiva por parte da Autoridade Nacional de Proteção de Dados (ANPD) pode comprometer a eficácia da lei.

O papel das empresas e dos profissionais

As empresas brasileiras têm uma grande responsabilidade em promover o uso ético da IA. A adoção de uma abordagem de privacy by design, onde a privacidade é considerada desde o início do desenvolvimento de sistemas, é um passo importante para evitar abusos.

Além disso, David Freeman Engstrom, pesquisador de Stanford, em artigo, diz que as empresas devem promover uma cultura organizacional e governança corporativa que valorize a ética no uso de dados, garantindo que seus algoritmos sejam auditáveis, transparentes e responsáveis.

O mesmo deve acontecer de baixo para cima. Profissionais da área de IA devem ir além das competências técnicas, incorporando formação em ética, direitos humanos e responsabilidade social.

Universidades e centros de pesquisa brasileiros precisam adaptar seus currículos para formar profissionais preparados para lidar com os dilemas morais que emergem do uso da IA.

Para Celina Bottino, diretora do Instituto de Tecnologia e Sociedade do Rio de Janeiro, é igualmente importante que esses profissionais se engajem em diálogos com a sociedade civil e governos, contribuindo para o desenvolvimento de políticas públicas que promovam o uso responsável da IA.

A regulação da IA no Brasil está apenas no início, mas os desafios já estão postos. O país tem potencial para liderar o desenvolvimento e o uso de IA, mas precisa garantir que essa tecnologia seja implementada de forma ética, inclusiva e sustentável. Para tanto, é necessário avançar em três frentes principais: fortalecer o arcabouço legal que regula a IA, promover a capacitação de organizações, empresas e profissionais para o futuro digital e assegurar que a IA seja usada para reduzir desigualdades, e não as ampliar.

Acompanhe tudo sobre:Faculdade EXAME

Mais de Faculdade Exame

Como o ESG está mudando a cultura das organizações

Está pensando em empreender? Conheça quatro ferramentas para te ajudar a sair do papel

Liderança situacional: o que é e como aplicá-la em sua equipe

Como o Japão usou a natureza para revolucionar seus trens-bala