Advogados de big techs no STF: defesa do artigo 19 busca preservar a liberdade de expressão e evitar censura massiva em plataformas digitais (LightRocket /Getty Images)
Repórter
Publicado em 27 de novembro de 2024 às 18h07.
Última atualização em 27 de novembro de 2024 às 18h13.
Representantes do Google e da Meta defenderam nesta quarta-feira, 27, a manutenção da constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014), durante julgamento no Supremo Tribunal Federal (STF). O artigo estabelece que as plataformas digitais só podem ser responsabilizadas civilmente por conteúdos de usuários caso descumpram uma ordem judicial específica.
O STF iniciou a análise de dois casos de repercussão geral que discutem tanto a validade do artigo 19 quanto questões como a remoção de conteúdos com notificações extrajudiciais.
O texto do artigo 19 tem como objetivo preservar a liberdade de expressão, ao estipular que os provedores de internet só são responsabilizados civilmente se, após ordem judicial, não removerem conteúdos considerados ilícitos. O recurso extraordinário 1.037.396, relatado pelo ministro Dias Toffoli, discute a aplicação desse artigo em um caso envolvendo um perfil falso no Facebook. Já o recurso 1.057.258, relatado pelo ministro Luiz Fux, examina a responsabilização do Google por conteúdos do antigo Orkut.
Para a Meta, representado pelo advogado José Rollemberg Leite Neto, a flexibilização do artigo 19 pode levar a uma “censura massiva”, prejudicando o debate público e afetando até mesmo o jornalismo profissional.
Leite Neto destacou que em 2022, o Facebook removeu globalmente 208 milhões de postagens com conteúdo ilícito, como pedofilia e discursos de ódio, sem necessidade de ordem judicial. Ele alertou que termos amplos como “fake news” e “crimes contra a honra” incentivariam remoções excessivas e aumentariam os casos judicializados.
Questionado pelo presidente do STF, Luís Roberto Barroso, sobre a exclusão de perfis falsos, o advogado afirmou que 98% das remoções são automáticas, após denúncia dos próprios usuários.
O Google, representado pelo advogado Eduardo Bastos Furtado de Mendonça, apontou que não há "inércia" na remoção de conteúdos ilícitos pelas plataformas. Ele citou que, em 2023, o YouTube retirou do ar 1,6 milhão de vídeos no Brasil por violarem as políticas da empresa, enquanto apenas 614 casos chegaram ao Judiciário.
Segundo Mendonça, nenhum país democrático adota um modelo de responsabilidade objetiva, que obrigue plataformas a monitorar publicações globalmente. Ele comparou com leis europeias, como a alemã, que prevêem responsabilidade em casos específicos e após falhas no atendimento de notificações.
Mendonça também ressaltou que o artigo 21 do Marco Civil já prevê remoções imediatas, mas restritas a situações de nudez e atos sexuais privados. Para crimes mais amplos ou subjetivos, como desinformação, o modelo seria inadequado.
Além dos dois recursos, o STF deve analisar a ADPF 403, sob a relatoria do ministro Edson Fachin, que discute a possibilidade de bloqueio de aplicativos por decisão judicial. O resultado pode redefinir o equilíbrio entre liberdade de expressão e regulação de plataformas no Brasil.