Exame.com
Continua após a publicidade

Inteligência Artificial não será o fim do mundo de Oppenheimer (e a salvação virá de BarbieLand)

Fenômeno mobiliza o público a tal ponto que é quase impossível andar de metrô sem avistar alguém vestindo rosa

Barbielândia:  é quase impossível andar de metrô sem avistar alguém vestindo rosa (Warner Bros./ Barbie/Divulgação)
Barbielândia: é quase impossível andar de metrô sem avistar alguém vestindo rosa (Warner Bros./ Barbie/Divulgação)

Oppenheimer e Barbie foram as estrelas da semana mais emblemática na indústria cinematográfica recente, um fenômeno que vai além de meras táticas de relações públicas. O "Barbenheimer", como tem sido chamado, demonstra como as histórias alinhadas ao Zeitgeist podem mobilizar o público a tal ponto que é quase impossível andar de metrô sem avistar alguém vestindo rosa. Este fenômeno contraria as previsões sombrias de que a pandemia e a ascensão dos serviços de streaming acabariam com os cinemas. 

A frequência de previsões equivocadas como essa pode ser explicada pelos diversos vieses cognitivos que afetam nosso julgamento. O economista laureado com o Prêmio Nobel, Daniel Kahneman, descreve o "viés de disponibilidade", um processo pelo qual as pessoas formam crenças com base nas informações mais facilmente disponíveis. Por exemplo, durante a pandemia, com os cinemas fechados e os serviços de streaming disponíveis, pode haver uma tendência para acreditar que essa será a realidade futura. 

Oppenheimer é um filme que toca o espírito da época, explorando a discussão sobre os riscos existenciais da ciência avançada e a relação entre criadores e criações. Depois do Projeto Manhattan, o criador da bomba atômica se tornou porta-voz pelo fim do desenvolvimento de novas tecnologias e pela partilha de informações com os aliados. A posição contrária ao governo americano custou a Oppenheimer o ostracismo e a perseguição, uma representação moderna do mito de Prometeu, que foi eternamente castigado por roubar o fogo dos deuses e entregá-lo aos homens. 

Embora a avaliação da tese de Oppenheimer seja impossível por falta de contrafactual, sua retórica apresenta um paradoxo: se o objetivo era impedir uma corrida armamentista, a partilha de informações não facilitaria esse processo? Apesar de sabermos que a corrida armamentista ocorreu e o mundo não foi destruído, há um aspecto mais sutil a ser considerado: a posição de um especialista é realmente a mais precisa ou há um viés para superestimar os riscos? 

A previsão pode parecer absurda considerando os recentes exemplos de negacionismo, mas a complexidade da biografia de Oppenheimer agrega qualidade à discussão. Recentemente, uma coalizão de intelectuais liderada por Elon Musk e Yuval Noah Harari pediu uma pausa no desenvolvimento dos Modelos de Linguagem (LLM) da OpenAI, argumentando que a falta de conhecimento sobre os impactos da Inteligência Artificial poderia nos expor a riscos existenciais. 

A tese de Harari sugere que o domínio da linguagem pelos modelos de IA pode acarretar consequências nas relações sociais, criando uma situação de controle e submissão da humanidade às máquinas. Neste cenário de poder excessivo, o mundo estaria exposto ao risco de um fim catastrófico, imaginem uma máquina poderosa o suficiente para controlar as bombas atômicas criadas por Oppenheimer? 

As previsões sobre quando alcançaremos uma Inteligência Artificial Geral (AGI) divergem entre os especialistas, mas mesmo que ela esteja próxima, quais são as razões que levam as pessoas a acreditar que ela pode representar um risco para a humanidade e deve ser pausada? Além dos vieses cognitivos, há interesses econômico-políticos em jogo. Do ponto de vista de mercado, as empresas de tecnologia que não produziram um modelo de ponta têm interesse em uma pausa para poderem alcançar os concorrentes. Meses após a publicação da carta, Elon Musk anunciou sua própria empresa de modelos de linguagem, a X.AI.  

Musk, um dos fundadores da OpenAI, deixou a organização após discordâncias sobre se os modelos deveriam ser open-source. O dono do Twitter defendia modelos abertos para acelerar o desenvolvimento, ironicamente hoje defende a desaceleração e está produzindo modelos fechados.  

Outro incentivo para a retórica apocalíptica é político; quanto maior o risco percebido de uma tecnologia, mais justificativas existem para regulá-la. É ingênuo pensar que regulamentações aprovadas em Brasília ou Washington vão influenciar desenvolvedores e políticos em Pequim. E por fim, há ganhos comerciais em exagerar os riscos. Se os meus modelos têm a capacidade de acabar com o mundo em 50 anos, imagine o que eles podem fazer pelo seu trabalho de biologia? 

Recentemente, o debate se tornou mais maduro em relação à previsão dos riscos. No Brasil, Martim Vasques da Cunha publicou um artigo na Ilustríssima demonstrando a inconsistência da retórica usada pelos defensores do controle dos avanços da IA que utilizam Oppenheimer como ponto de comparação. A única concordância entre eles é a necessidade de controlar o desenvolvimento, mas rejeitam a partilha tecnológica citando riscos, tal como Elon Musk. 

Steven Pinker tem sido uma voz dissonante nesse debate. Em seu texto "What Do You Think about Machines That Think?", publicado em 2015, ele previu a ascensão dos modelos de linguagem que vemos hoje e acredita que alcançaremos uma Inteligência Artificial Geral (AGI) até 2040. No entanto, ele argumenta que a visão distópica promovida pela comunidade de desenvolvedores é influenciada por vieses cognitivos de proximidade e gênero. 

O viés de proximidade leva à superestimação dos riscos de um fenômeno devido à maior exposição a ele em um contexto de incerteza. Pinker usa o bug do milênio como exemplo de como essa proximidade pode exagerar as previsões. Uma pesquisa recente do Forecasting Research Institute mostra que especialistas em IA tendem a dar uma probabilidade sete vezes maior de extinção humana por máquinas até 2100, em comparação com estatísticos. Isso leva a debates públicos onde discussões técnicas sobre segurança e regulação são eclipsadas por conjecturas sobre riscos existenciais. No entanto, Pinker permanece otimista, sugerindo que avanços de segurança são inevitáveis à medida que somos expostos a mais riscos. 

Porém a tese mais interessante da análise de Pinker reside na exploração do viés de previsões à luz das perspectivas de gênero da comunidade. No filme Barbie, dirigido por Greta Grewig, é destacada a crise existencial da boneca, pautada pelas mudanças de gênero na sociedade. Barbie é impelida a deixar BarbieLand, embarcando numa jornada ao mundo real para solucionar seus dilemas existenciais. Acompanhada em segredo por Ken, ambos se confrontam com uma realidade drasticamente distinta do seu universo cor-de-rosa. 

Enquanto Barbie lida com os desafios de ser mulher, Ken descobre a chance de deixar seu papel de coadjuvante, percebendo como o mundo real favorece os homens. A trama evolui e Ken assume o controle de BarbieLand, criando uma distopia masculina adornada com decoração equina e todas as outras Barbies hipnotizadas. Barbie, contudo, consegue despertar suas amigas e retoma BarbieLand, reinterpretando o papel de gênero de todas naquela sociedade. Se a o paralelo clássico de Oppenheimer é Prometeus, o de Barbie é a caixa de Pandora: a caixa é aberta no mundo real, mas guarda dentro de si a esperança que salva BarbieLand.  

Segundo Pinker, a questão de gênero está intrinsecamente ligada ao viés de previsões e representações culturais da inteligência artificial. Ele questiona as distopias que transpõem uma psicologia machista para sistemas inteligentes, nos quais superinteligências artificiais atuariam de maneira dominante e agressiva. Pinker argumenta que essa perspectiva está ancorada numa noção reducionista e machista, que confere características humanas específicas à concepção de inteligência artificial. Ou seja, a comunidade de Inteligência Artificial é composta por "Kens" que acreditam que irão criar "Kens" artificiais. 

Paralelamente, Pinker menciona a possibilidade de uma inteligência artificial desenvolvida ao longo de linhas femininas. Ele postula que a inteligência artificial poderia resolver problemas de maneira eficiente, sem necessariamente estar atrelada a comportamentos destrutivos ou dominantes. Essa abordagem visa contestar os estereótipos de gênero associados à inteligência e salientar a importância de considerar perspectivas mais diversificadas e equitativas no desenvolvimento e nas representações de tecnologias avançadas. Em suma, ele defende a urgência de ultrapassar visões machistas e estereotipadas, em busca de uma abordagem mais inclusiva e justa para moldar o futuro da IA. Isso implica na promoção de uma inteligência artificial isenta de viés de gênero, assegurando um desenvolvimento mais equitativo e representativo das diversas perspectivas humanas, sendo fundamental a inclusão de gênero no desenvolvimento de algoritmos e no debate público sobre inteligência artificial.  

Como disse no início do texto, Barbenheimer se conecta perfeitamente com espírito do tempo, mas solução para os nossos problemas do futuro está mais em BarbieLand do que no projeto Manhattan.