Esfera Brasil

Um conteúdo Esfera Brasil

‘Algoritmos continuarão a ser um recurso crucial no monitoramento de conteúdo’, diz Luna Barroso

Advogada defende a moderação de conteúdo por meio da tecnologia, mas sabe que há desafios na identificação de publicações falsas e criminosas na internet

Para controle dos conteúdos que são propagados no ambiente virtual em tempo real, é necessário o uso de tecnologia.  (Maskot/Getty Images)

Para controle dos conteúdos que são propagados no ambiente virtual em tempo real, é necessário o uso de tecnologia. (Maskot/Getty Images)

Esfera Brasil
Esfera Brasil

Plataforma de conteúdo

Publicado em 13 de setembro de 2023 às 07h00.

“A internet é terra de ninguém.” Quem nunca ouviu essa frase? A verdade é que hoje o ambiente virtual se tornou plural, e boa parte da população tem acesso à informação, mas, com a democratização do uso, criou-se um problema: a dúvida quanto à veracidade do que é publicado e compartilhado. Nesse cenário, surgem os algoritmos de moderação de conteúdo das grandes empresas de tecnologia.

Segundo Luna Barroso, advogada no escritório Barroso Fontelles, Barcellos e Mendonça Advogados, as plataformas digitais dependem de algoritmos tanto para recomendar quanto para fazer a moderação do conteúdo.

“Envolve a curadoria do conteúdo disponível, de modo a proporcionar a cada usuário uma experiência personalizada e aumentar o tempo gasto online. A transição de um mundo de escassez de informação para um mundo de abundância gerou uma concorrência acirrada pela atenção do usuário, um recurso escasso na Era Digital”, acredita.

O Brasil é um dos países em que a população mais passa tempo no ambiente virtual: cerca de quatro horas por dia, em especial nas redes sociais. O público tem contato com inúmeras informações, cujas fontes de apuração não são, muitas vezes, identificáveis. Na prática, todos os usuários podem ser produtores de conteúdo, com pouca ou nenhuma responsabilidade. Cresce nesse ambiente a disseminação de fake news.

Para fiscalização e controle do que é propagado no ambiente virtual, é necessário o uso de tecnologia. O homem não é capaz de dar conta do volume de informações compartilhadas em tempo real.

“As plataformas moderam conteúdo, a fim de verificar se violam os padrões da comunidade. O crescimento das redes sociais e seu uso por pessoas ao redor do mundo permitiram a propagação da ignorância, mentiras e a prática de crimes de diferentes naturezas, ameaçando a estabilidade até mesmo de democracias duradouras”, defende a advogada. “Tornou-se inevitável a criação e imposição de termos e condições que definam os valores e normas de cada plataforma e pautem a moderação do discurso”, acrescenta.

Veja também: O que é cibersegurança e quais ações devem ser adotadas em nome da proteção de dados

Protegendo a democracia na era digital

Saiba como denunciar fake news e barrar o envio que leva à desinformação

Moderação de conteúdo

É papel dos algoritmos fazer uma espécie de varredura em todo o material que é publicado online. O objetivo é identificar violações de regras para aplicação de sanções, que vão desde a redução do alcance de determinada publicação, inclusão de esclarecimentos até a remoção do conteúdo.

As plataformas utilizam dois modelos algorítmicos para moderação de conteúdo. O primeiro é o hashing, uma tecnologia que atribui um ID único a textos, imagens e vídeos para identificar a reprodução de conteúdos indesejados. O segundo é um modelo preditivo, que usa técnicas de machine learning para detectar possíveis ilegalidades em um conteúdo novo, ainda não classificado.

Na avaliação de Luna Barroso, há limitações. “O modelo de detecção de reprodução é ineficiente para conteúdos com discurso de ódio e desinformação, em que o potencial de novas publicações é praticamente ilimitado. O modelo preditivo é limitado em sua capacidade de lidar com situações às quais não foi exposto durante o treinamento. Apesar das limitações, os algoritmos continuarão a ser um recurso crucial no monitoramento de conteúdo”, explica.

Os números impressionam. No primeiro semestre de 2020, o Twitter – agora X – analisou reclamações relacionadas a 12,4 milhões de contas e removeu 1,9 milhões. O YouTube tem 500 horas de vídeo carregadas por minuto e tirou do ar mais de 9,3 milhões. As medidas de moderação de conteúdo são ainda mais volumosas no Facebook e no Instagram. No último bimestre de 2020, foram 105 milhões de publicações no Facebook e 35 milhões no Instagram.

Autorregulação

A advogada defende a autorregulação das plataformas, mas seguindo padrões estabelecidos pelo Estado. Ela prevê ainda a criação de um comitê independente para supervisão, com representantes do governo, setor empresarial, academia, entidades de tecnologia, usuários e a sociedade civil.

De acordo com Luna, “o quadro regulatório deve visar à redução da assimetria de informações entre as plataformas e os usuários, salvaguardar o direito fundamental à liberdade de expressão e proteger e fortalecer a democracia”.

Acompanhe tudo sobre:AlgoritmosHackersTecnologia da informaçãoFake news

Mais de Esfera Brasil

Confira os pontos de atenção para a tramitação da reforma tributária no Senado

Regulamentação de inteligência artificial fica distante de consenso

Dólar valorizou mais de 15% frente ao real no primeiro semestre; saiba por quê

Petrobras realiza voo no litoral do RJ com aeronave remotamente pilotada

Mais na Exame