Bússola

Um conteúdo Bússola

Moratória para inteligência artificial?

O pretexto da iniciativa é possibilitar reflexão sobre possíveis impactos sociais, éticos e políticos que o uso indiscriminado da tecnologia pode ter

 Engenharia genética também sofreu moratória na década de 1970 (GettyImages/Divulgação)

Engenharia genética também sofreu moratória na década de 1970 (GettyImages/Divulgação)

Bússola
Bússola

Plataforma de conteúdo

Publicado em 3 de julho de 2023 às 17h00.

Por Márcia Santana Fernandes e Ana Paula Ávila*

A inteligência artificial (IA) não é uma tecnologia nova ou disruptiva do século 21, mas, sim, integra o significativo desenvolvimento tecnológico das décadas de 1950, 1960 e 1970. O impacto desse progresso está presente no cotidiano e segue acelerado no desenvolvimento das Tecnologias de Informação e Comunicação (TICs), internet, Big Data, estudos espaciais, potência de satélites, entre outros avanços.

Nesse contexto, não deixa de causar surpresa o pedido de moratória no desenvolvimento de pesquisas em inteligência artificial, para que sejam suspensas temporariamente as atividades relacionadas ao avanço da IA. O pretexto dessa iniciativa é possibilitar uma reflexão sobre os possíveis impactos sociais, éticos e políticos que o uso indiscriminado da tecnologia pode ter, além de viabilizar uma regulamentação mínima que possa mitigar tais impactos. O desenrolar dos acontecimentos, contudo, faz a moratória parecer mais um freio de competição econômica do que uma questão prudencial ou mesmo de ponderação para encontrar os melhores caminhos.

Prudência ao longo da história

A história da ciência apresenta moratórias prudenciais autênticas, como a ocorrida na área de manipulação do DNA, então chamada Engenharia Genética, na década de 1970. Os próprios cientistas da área, como Paul Berg e David Baltimore, voluntariamente, propuseram um período de tempo para pensar sobre as consequências previsíveis de suas pesquisas. A interrupção se deu durante seis meses, período em que houve várias discussões, envolvendo inúmeros pesquisadores e pessoas de outras áreas a fim de serem estabelecidas  diretrizes para que as pesquisas fossem consideradas adequadas.

O Projeto Genoma Humano, um dos maiores esforços científicos da história da ciência, incluiu, como uma de suas atividades, a discussão dos aspectos éticos, legais e sociais, comumente chamados de ELSI (Ethical, Legal and Social Issues). Ao longo do Projeto Genoma Humano, esta avaliação acompanhou todas as suas etapas, propondo e atualizando as diretrizes de adequação.

Em publicações deste ano, os especialistas Yuval Harari e Slavoj Žižek abordaram sobre a possibilidade da IA colocar em risco a própria humanidade. O primeiro destacou os riscos de uma possível união entre a biotecnologia e algoritmos, que poderão gerar corpos, cérebros e mentes para dominação humana, enquanto o segundo (2023) apontou o perigo de transformarmos a inteligência artificial em algo supernatural. No entanto, esta perspectiva alarmista, apesar de seu grande destaque na mídia, coloca o problema de forma maniqueísta e não de forma complexa.

Na corrida pelo desenvolvimento

Parece inegável que a proposta de moratória pode ter impactos concorrenciais, freando a competição econômica de modo a atingir mais diretamente as empresas que lideram a corrida tecnológica na área de IA. São empresas que realizam investimentos significativos em pesquisa e desenvolvimento e podem ser prejudicadas se tiverem que parar ou reduzir suas atividades nessa área. Muito emblemático é o caso de Elon Musk, uma liderança na área de tecnologia que, de dia, assina o pedido de moratória e, à noite, segundo o Financial Times, funda a X.AI Corp – uma nova companhia para rivalizar com a concorrente OpenAI. Em dois atos Musk sinaliza que a moratória, afinal, é para os outros.

Esse aspecto anticoncorrencial faz questionar se estamos diante de uma moratória prudencial autêntica, mas a dúvida não deve ofuscar, no todo, o mérito do pedido, já que os riscos da IA estão no centro do debate científico atual. Do risco de disseminação de informações falsas por meio das tecnologias de linguagem generativa, tais como o ChatGPT, ao risco de que o indivíduo seja, em um primeiro momento, suplantado por sistemas de automação, e depois dominado por eles, são muitos os temas que exigem uma atuação mais ativa dos órgãos reguladores.

Em um contexto como o atual, em que a própria democracia se vê fragilizada em países de forte tradição democrática a partir da desinformação, e de crescente escassez, uma vez que o aumento da população é inversamente proporcional ao aumento dos postos de trabalho, no fim de uma longa lista de impactos estará, sim, uma ameaça à subsistência da humanidade. Se a resposta a esse desafio é frear a pesquisa e o desenvolvimento ou acelerar a organização de órgãos reguladores que fixem balizas para a adequada proteção da autonomia e das liberdades individuais, ainda não se sabe. O que sabemos é que a IA está “nadando de braçada” e, em termos de regulação, muito se fala, mas pouco se faz.

*Márcia Fernandes é advogada, sócia do Santana Fernandes Advocacia e Consultoria e Ana Paula Ávila é sócia coordenadora da área de Compliance de Silveiro Advogados e vice-presidente da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS

Siga a Bússola nas redes: Instagram | Linkedin | Twitter | Facebook | Youtube

Veja também

Daniel Faulin: inteligência artificial e hiperpersonalização

A Era da IA: novas ameaças precisam de novas armas

Será que o Chat PT “matou” o Metaverso?

Acompanhe tudo sobre:Inteligência artificial

Mais de Bússola

Bússola Poder: a corrida maluca pela prefeitura de SP

TIM chama Ivete Sangalo para anunciar que fará Pix para clientes

Como implementar o Business Intelligence (BI) no setor jurídico?

Bússola Cultural: exposição "Iluminai" convida a refletir sobre a luz no contexto religioso

Mais na Exame