Inteligência Artificial

A humanidade e o poder digital: impactos da IA sobre nosso futuro

Leia trecho inédito de "A Humanidade e o Poder Digital", que analisa os impactos da inteligência artificial e das plataformas digitais

Robôs de DNA: estruturas microscópicas podem transportar medicamentos no corpo humano (EvgeniyShkolenko/Getty Images)

Robôs de DNA: estruturas microscópicas podem transportar medicamentos no corpo humano (EvgeniyShkolenko/Getty Images)

Eduardo Felipe Matias
Eduardo Felipe Matias

Escritor e Doutor em direito internacional

Publicado em 13 de abril de 2026 às 18h13.

Criar normas capazes de governar a IA de forma a conter seus possíveis efeitos negativos sem abrir mão dos inúmeros benefícios não é uma tarefa simples.

A definição de IA, em si, é o primeiro problema. Para conceber um regime regulatório, é preciso estabelecer seu objeto. Porém, como já discutido, não existe um conceito amplamente aceito de IA mesmo entre especialistas no campo, nem uma definição prática que possa ser útil para fins de regulamentação.

É verdade que há outras áreas, como energia, transporte ou meio ambiente, cujas definições são igualmente vagas e que, nem por isso, deixam de ser reguladas – é, inclusive, comum a existência de ministérios ou secretarias para cuidar desses temas no nível doméstico.

Assim como nesses casos, qualquer regime regulatório que se venha a adotar precisa levar em conta que a IA não consiste em uma única tecnologia, mas sim em um conjunto de técnicas em campos distintos, como o do reconhecimento de fala, o da visão computacional e o da memória.

Trata-se, como vimos, de uma tecnologia de propósito geral. Isso torna particularmente difícil sua regulação, já que as mesmas técnicas (como o processamento de linguagem natural) ou aplicações (por exemplo, sistemas de recomendação) podem ser usadas em uma variedade de contextos e com diferentes propósitos.

Não bastasse isso, como ocorre com outras tecnologias emergentes – caso da nanotecnologia, biotecnologia e robótica –, a IA não se limita a um único setor industrial. Essa diversidade complica os esforços regulatórios, tornando mais difícil identificar todas as empresas envolvidas no ciclo de vida dessas tecnologias.  Outro complicador é que uma mesma aplicação de IA, usada de formas distintas em diferentes indústrias, pode apresentar níveis de risco totalmente diversos – uma aplicação que não representa ameaça no setor de entretenimento pode ser perigosa quando empregada na aviação.

Por ser uma tecnologia de propósito geral, a IA desperta preocupações igualmente amplas, abarcando questões de segurança, saúde, privacidade, discriminação e até mesmo de risco existencial para a humanidade, conforme já analisado aqui.  A natureza abrangente da IA faz, ainda, com que tentativas de restringir sua regulamentação a setores específicos possam fragmentar as discussões necessárias sobre valores e normas transversais, que deveriam ser aplicadas a todos os domínios.

Finalmente, por envolver diferentes temas e setores, é frequente que a IA não apenas não encontre correspondência nas atribuições das agências reguladoras específicas, mas também – refletindo seu potencial de impactar múltiplas partes interessadas – tenda a perpassar as competências de várias delas. Nesses casos, todas podem considerar necessário reivindicar a jurisdição sobre determinada aplicação. E, assim, o controle dessas tecnologias, somado à questão dos diferentes níveis de risco – que sugere que a mesma aplicação deveria ser tratada de maneira distinta por agências diferentes –, pode se tornar, no mínimo, confuso.

Por isso, muitos propõem criar uma agência unificada para cuidar da IA, ideia que, como analisaremos mais adiante, tem vantagens e desvantagens. Outra proposta, que inclusive vem sendo incorporada em algumas legislações, é que a regulação da IA leve em conta os diferentes níveis de risco que essa tecnologia pode apresentar, modelo adotado pela União Europeia em seu AI Act.

Essa abordagem se baseia na ideia de que aplicações relativamente inofensivas – como as que estão por trás do funcionamento de robôs aspiradores de pó – seriam classificadas como de baixo risco e não precisariam de uma regulação tão rígida. Já aplicações mais complexas e potencialmente perigosas – como aquelas voltadas à criação de uma IA autorreplicante ou de uma AGI – seriam enquadradas como de alto risco, estando sujeitas a obrigações mais rigorosas. Nessa linha, a necessidade de uma resposta regulatória surgiria à medida que o perfil de risco de uma aplicação se elevasse, permitindo que os esforços de controle fossem proporcionais ao potencial de dano envolvido.

Diversos aspectos podem ser considerados para avaliar os riscos associados a cada tipo de tecnologia. Suleyman sugere, por exemplo, diferenciar tecnologias de uso geral das de uso específico.

Enquanto armas nucleares possuem um propósito altamente específico, ferramentas digitais apresentam aplicações diversas. Quanto maior a variedade de utilizações, maior é a dificuldade de controle. Outro ponto a ser levado em conta é a transição das tecnologias de átomos para bits. Tecnologias que se tornam mais desmaterializadas, deslocando-se do mundo físico para o digital, estão mais propensas a uma evolução acelerada, o que torna sua supervisão ainda mais desafiadora.

Suleyman destaca também a importância de avaliar a rapidez na redução de preços. Quanto mais acessíveis as tecnologias se tornam, maiores são as chances de que seus impactos sejam amplificados. Ele alerta, ainda, sobre o risco de tecnologias que possibilitam impactos assimétricos, como um enxame de drones enfrentando exércitos convencionais ou um pequeno vírus, seja ele biológico ou digital, capaz de danificar sistemas sociais vitais. Por fim, enfatiza o perigo de tecnologias que possuem características autônomas, como autoaprendizado ou operação sem supervisão – exemplos incluem vírus, malwares e sistemas robóticos –, que, justamente por sua autonomia, podem representar riscos ainda mais difíceis de conter.

A fim de mapear, entender e graduar os diferentes tipos de risco, o processo pelo qual a regulação é criada também tem um papel fundamental. O fato de que atores privados atualmente detêm um nível de conhecimento em IA superior ao do Estado faz com que a participação de stakeholders de cada setor na identificação e definição dos riscos relacionados a essa tecnologia possa contribuir para a formulação de regulamentações mais eficazes. Reguladores devem se engajar ativamente com as indústrias relevantes, coletando informações, o que lhes permitirá avaliar melhor os riscos e direcionar sua atenção, de início, às áreas que apresentem maior perigo.

Para promover um envolvimento amplo e diversificado de stakeholders, os órgãos reguladores devem manter comunicação regular com representantes da indústria, pesquisadores, grupos de interesse público, acadêmicos e outros. Um diálogo abrangente e inclusivo pode trazer credibilidade ao processo, além de incorporar novas ideias, fornecer dados atualizados, oferecer feedback contínuo e fortalecer a confiança pública no sistema de governança, como defende Mandel.  Nesse sentido, uma sugestão é a criação de fóruns que reúnam múltiplos stakeholders, o que pode ajudar a superar lacunas de informação e a incerteza que frequentemente dificultam a regulação eficaz, além de permitir determinar de forma democrática quais formas de IA são apropriadas para a sociedade.

Acompanhe tudo sobre:Inteligência artificial

Mais de Inteligência Artificial

Startup europeia muda rota e aposta em IA chinesa para acelerar robotáxis

OpenAI defende semana de 4 dias de trabalho e reacende debate na era da IA

Uma IA com 1 trilhão de parâmetros: o plano fruto da união de gigantes japonesas

OpenAI aposta em mídia própria para contornar desgaste de imagem