‘Algoritmos continuarão a ser um recurso crucial no monitoramento de conteúdo’, diz Luna Barroso
Advogada defende a moderação de conteúdo por meio da tecnologia, mas sabe que há desafios na identificação de publicações falsas e criminosas na internet
Plataforma de conteúdo
Publicado em 13 de setembro de 2023 às 07h00.
“A internet é terra de ninguém.” Quem nunca ouviu essa frase? A verdade é que hoje o ambiente virtual se tornou plural, e boa parte da população tem acesso à informação, mas, com a democratização do uso, criou-se um problema: a dúvida quanto à veracidade do que é publicado e compartilhado. Nesse cenário, surgem os algoritmos de moderação de conteúdo das grandes empresas de tecnologia.
Segundo Luna Barroso, advogada no escritório Barroso Fontelles, Barcellos e Mendonça Advogados, as plataformas digitais dependem de algoritmos tanto para recomendar quanto para fazer a moderação do conteúdo.
- Empréstimos em moeda chinesa aumentam 1,36 trilhão de yuans em agosto
- ONS: níveis dos reservatórios de hidrelétricas do Sudeste e Centro-Oeste estão em 73,5%
- Prazo de inscrição de credores no Desenrola Brasil é prorrogado até 12 de setembro
- Opep mantém previsão de alta na demanda global por petróleo em 2023, em 2,4 milhões de bpd
- Taxa de desemprego do Reino Unido sobe a 4,3% no trimestre até julho; salários avançam 7,8%
- Faustão tem boa recuperação e é transferido para o quarto em SP
“Envolve a curadoria do conteúdo disponível, de modo a proporcionar a cada usuário uma experiência personalizada e aumentar o tempo gasto online. A transição de um mundo de escassez de informação para um mundo de abundância gerou uma concorrência acirrada pela atenção do usuário, um recurso escasso na Era Digital”, acredita.
O Brasil é um dos países em que a população mais passa tempo no ambiente virtual: cerca de quatro horas por dia, em especial nas redes sociais. O público tem contato com inúmeras informações, cujas fontes de apuração não são, muitas vezes, identificáveis. Na prática, todos os usuários podem ser produtores de conteúdo, com pouca ou nenhuma responsabilidade. Cresce nesse ambiente a disseminação de fake news.
Para fiscalização e controle do que é propagado no ambiente virtual, é necessário o uso de tecnologia. O homem não é capaz de dar conta do volume de informações compartilhadas em tempo real.
“As plataformas moderam conteúdo, a fim de verificar se violam os padrões da comunidade. O crescimento das redes sociais e seu uso por pessoas ao redor do mundo permitiram a propagação da ignorância, mentiras e a prática de crimes de diferentes naturezas, ameaçando a estabilidade até mesmo de democracias duradouras”, defende a advogada. “Tornou-se inevitável a criação e imposição de termos e condições que definam os valores e normas de cada plataforma e pautem a moderação do discurso”, acrescenta.
Veja também: O que é cibersegurança e quais ações devem ser adotadas em nome da proteção de dados
Protegendo a democracia na era digital
Saiba como denunciar fake news e barrar o envio que leva à desinformação
Moderação de conteúdo
É papel dos algoritmos fazer uma espécie de varredura em todo o material que é publicado online. O objetivo é identificar violações de regras para aplicação de sanções, que vão desde a redução do alcance de determinada publicação, inclusão de esclarecimentos até a remoção do conteúdo.
As plataformas utilizam dois modelos algorítmicos para moderação de conteúdo. O primeiro é o hashing, uma tecnologia que atribui um ID único a textos, imagens e vídeos para identificar a reprodução de conteúdos indesejados. O segundo é um modelo preditivo, que usa técnicas de machine learning para detectar possíveis ilegalidades em um conteúdo novo, ainda não classificado.
Na avaliação de Luna Barroso, há limitações. “O modelo de detecção de reprodução é ineficiente para conteúdos com discurso de ódio e desinformação, em que o potencial de novas publicações é praticamente ilimitado. O modelo preditivo é limitado em sua capacidade de lidar com situações às quais não foi exposto durante o treinamento. Apesar das limitações, os algoritmos continuarão a ser um recurso crucial no monitoramento de conteúdo”, explica.
Os números impressionam. No primeiro semestre de 2020, o Twitter – agora X – analisou reclamações relacionadas a 12,4 milhões de contas e removeu 1,9 milhões. O YouTube tem 500 horas de vídeo carregadas por minuto e tirou do ar mais de 9,3 milhões. As medidas de moderação de conteúdo são ainda mais volumosas no Facebook e no Instagram. No último bimestre de 2020, foram 105 milhões de publicações no Facebook e 35 milhões no Instagram.
Autorregulação
A advogada defende a autorregulação das plataformas, mas seguindo padrões estabelecidos pelo Estado. Ela prevê ainda a criação de um comitê independente para supervisão, com representantes do governo, setor empresarial, academia, entidades de tecnologia, usuários e a sociedade civil.
De acordo com Luna, “o quadro regulatório deve visar à redução da assimetria de informações entre as plataformas e os usuários, salvaguardar o direito fundamental à liberdade de expressão e proteger e fortalecer a democracia”.