Exame Logo

Comitê de Supervisão do Facebook começa a julgar remoção de conteúdo

Empresa vai permitir que usuários apelem a remoção de conteúdo nas redes sociais para órgão independente

Facebook: comitê jurídico independente é fruto de investimento de mais de 130 milhões de dólares (Arnd Wiegmann/Reuters)
TL

Thiago Lavado

Publicado em 22 de outubro de 2020 às 19h34.

Última atualização em 22 de outubro de 2020 às 20h18.

O Comitê de Supervisão do Facebook finalmente vai começar a funcionar. A instituição independente anunciou nesta quinta-feira, 22, que vai receber apelações feitas por usuários e pela própria empresa de conteúdo que for removido nas redes sociais, tanto o Facebook quanto o Instagram.

O comitê, fruto de um investimento de 130 milhões de dólares, pretende funcionar como um órgão jurídico à parte da rede social: ele vai analisar remoções feitas pelo Facebook e tomar decisões externas à empresa. O que os 20 membros decidirem é vinculante, ou seja, precisa ser acatado pela rede social, de acordo com o estatuto do órgão, que inclusive pode propor mudanças nas políticas de moderação de conteúdo do Facebook.

Veja também

Em coletiva de imprensa, os diretores do comitê afirmaram que ainda não têm um escopo de quais serão os primeiros casos que devem ser analisados nas próximas semanas, mas a ferramenta de apelação já começará a ser disponibilizada a usuários no Facebook e no Instagram (o WhatsApp fica de fora, pois o conteúdo é criptografado ).

Por enquanto, ainda não será possível enviar para análise publicações feitas por outros usuários.

A iniciativa é uma solução inédita em termos de gestão corporativa e uma tentativa do Facebook em lidar com críticas sobre como realiza a moderação de conteúdo em suas redes. Entre os selecionados para compor o comitê estão vencedores do Nobel, advogados, professores de direito constitucional e jornalistas.

De acordo com Jamal Greene, professor de direito na Universidade Stanford e copresidente do Comitê de Supervisão, o conselho tem total liberdade para aceitar ou recusar casos enviados pelo Facebook e se compromete a escolher primeiro os casos que irão impactar o maior número de usuários possível.

“Os membros irão analisar os casos que no final irão para um painel menor, de cinco membros, que vai refletir os padrões culturais e locais em que a publicação foi feita. Nenhum membro tomará decisões sozinho”, disse.

Com o atual tempo de indicação das publicações a ser analisadas, é improvável que os membros do comitê analisem posts antes das eleições americanas, por exemplo.

A quantidade de casos analisados por ano ou mês também permanece uma incógnita. Para os membros do comitê o importante é avaliar inicialmente qual será o tempo das análises. Para Greene, o importante, além de tomar um grande número de casos, é escolher aqueles que representam outros apelos, traçando uma lógica de precedente para a rede social.

De acordo com Helle Thorning Schmidt, ex-primeira-ministra da Dinamarca e copresidente do comitê, é esperado que os casos iniciais girem em torno de liberdade de expressão e direitos humanos e que as decisões do conselho possam criar um arcabouço no decorrer do tempo sobre essas temáticas, o que poderia ser aplicado em casos futuros.

Ela reitera que o comitê não se propõe a analisar casos rapidamente e que não exime o Facebook da responsabilidade de remover, rapidamente, conteúdo nocivo de sua plataforma.

“A revisão [ dos casos ] poderá tomar dias, dependendo do contexto cultural e tradução”, disse Schmidt. “Estamos comprometidos com a transparência: o comitê irá publicar atualizações sobre os casos analisados no site”. Também será possível acompanhar o andamento pelo site do órgão.

Acompanhe tudo sobre:FacebookInstagramRedes sociais

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Tecnologia

Mais na Exame