Mark Zuckerberg, da Meta: o novo negócio do bilionário ainda está em desenvolvimento (Michael Nagle/Bloomberg/Getty Images)
Da Redação
Publicado em 12 de dezembro de 2022 às 06h00.
Última atualização em 12 de dezembro de 2022 às 12h49.
O “metaverso” ainda não está aqui e, quando chegar, não será um domínio único controlado por apenas uma empresa. O Facebook queria dar essa impressão quando mudou de nome para Meta, mas o rebranding da empresa coincidiu com grandes investimentos da Microsoft e da Roblox. Todas estão se dobrando para tentar moldar como a realidade virtual e as identidades digitais vão ser usadas para organizar mais nossa vida cotidiana — de trabalho e cuidados com a saúde a compras, videogames e outras formas de entretenimento.
O metaverso não é um conceito novo. O termo foi inventado pelo escritor de ficção científica Neal Stephenson em seu livro Nevasca, de 1992, que retrata uma distopia hipercapitalista em que a humanidade optou coletivamente pela vida em ambientes virtuais. Até aqui, a experiência não foi menos distópica deste lado do mundo real. A maioria dos experimentos com ambientes digitais imersivos tem sido imediatamente arruinada por bullying, assédio, abusos sexuais digitais e todos os outros abusos que temos passado a associar com plataformas que “andam rápido e quebram coisas”.
Nada disso deveria ser surpresa. A ética das novas tecnologias sempre chegou depois das inovações em si. É por isso que partidos independentes deveriam apresentar modelos de governança o mais rápido possível — antes que empresas com interesses próprios o façam com suas próprias margens de lucro em mente.
A evolução da ética na inteligência artificial é instrutiva aqui. Após um grande avanço no reconhecimento de imagens por IA em 2012, o interesse de empresas e governos pelo setor explodiu, atraindo contribuições importantes de estudiosos de ética e ativistas que publicaram pesquisas sobre os perigos de treinar IAs em bancos de dados tendenciosos. Uma nova linguagem foi desenvolvida para incorporar no design de novas aplicações de IA os valores que queremos seguir.
Graças a esse trabalho, hoje nós sabemos que a IA está na prática “automatizando a desigualdade”, como diz Virginia Eubanks, da Universidade de Albany, além de perpetuar estereótipos raciais no policiamento. Para chamar a atenção para esse problema, o cientista da computação Joy Buolamwini, do MIT Media Lab, lançou em 2016 a Liga da Justiça Algorítmica (“Algorithmic Justice League”, no original em inglês).
A primeira onda de respostas mirou foco público nos problemas éticos associados à IA. Mas ela foi logo eclipsada por uma pressão renovada por autorregulamentação dentro do setor. Desenvolvedores de IA introduziram conjuntos de ferramentas técnicas para realizar avaliações internas e de terceiros, na esperança de que isso diminuísse os receios do público. Não foi o que aconteceu, já que a maioria das empresas buscando avanços em IA tem modelos de negócios em conflito aberto com os critérios éticos que o público quer que elas defendam.
Para usar o exemplo mais comum, Twitter e Facebook não vão empregar IA de modo eficaz contra uma vasta série de abusos em suas plataformas porque fazê-lo enfraqueceria “o engajamento” (a indignação) e, com ele, os lucros. De modo semelhante, essas e outras empresas vêm impulsionando a extração de valores e a economia de escala para praticamente operar monopólios em seus respectivos mercados. Elas não vão agora renunciar ao poder que conquistaram por vontade própria.
Mais recentemente, consultores empresariais e vários programas estão profissionalizando a ética da IA para lidar com os riscos reputacionais e práticos de fracassos éticos. Aqueles que trabalham com IA dentro de empresas de big tech serão forçados a considerar questões como se uma função deveria por padrão ser ativada ou desativada para o usuário; se é apropriado ou não delegar tarefas a uma IA; e se é possível confiar nos dados usados para treinar aplicações de IA. Com essa finalidade, muitas empresas de tecnologia estabeleceram conselhos de ética em tese independentes. No entanto, de lá para cá a confiabilidade nesse tipo de governança esteve em xeque, após denúncias de peso de pesquisadores internos que levantaram dúvidas sobre as consequências éticas e sociais de determinados modelos de IA.
Estabelecer uma base ética sensata para o metaverso requer que estejamos à frente da autorregulamentação da indústria antes que isso se torne a regra. É preciso também termos claro de que modo o metaverso já está se diferenciando da IA. Enquanto a IA tem sido em grande parte centrada em torno de operações internas de empresas, o metaverso é definitivamente consumidor-cêntrico, o que significa que virá com todos os tipos de riscos comportamentais que a maioria das pessoas não terá considerado.
Assim como a regulamentação das telecomunicações (especificamente a Seção 230 da Lei da Decência nas Comunicações, de 1996) forneceu o modelo de governança das mídias sociais, a regulamentação das mídias sociais vai se tornar o modelo-padrão de governança para o metaverso. Isso deveria preocupar todos nós. Embora possamos ver com facilidade muitos dos abusos que vão acontecer nos ambientes digitais imersivos, nossa experiência com as mídias sociais sugere que podemos subestimar o puro volume que eles vão atingir e o efeito cascata que terão.
Seria melhor superestimar os riscos do que repetir os erros dos últimos 15 anos. Um ambiente completamente digital cria o potencial de uma coleta ainda mais exaustiva de dados, inclusive de dados biométricos pessoais. E, uma vez que ninguém sabe ao certo como as pessoas vão reagir a esses ambientes, há bons motivos para usar cenários regulatórios simulados antes de permitir uma implementação mais ampla.
Antecipar os desafios éticos do metaverso ainda é possível, mas o tempo está passando. Sem uma supervisão independente eficaz, esse novo domínio digital quase com certeza sairá do controle, recriando os abusos e as injustiças tanto da IA quanto das mídias sociais — além de acrescentar outros que nós nem sequer conseguimos imaginar. Uma Liga da Justiça do Metaverso talvez seja nossa última esperança.