Facebook vetará lives de conteúdo em favor da violência e ódio
Intenção é bloquear o acesso à ferramenta por quase 30 dias a qualquer usuário que tenha compartilhado uma postagem contraria à política de comunidade
EFE
Publicado em 15 de maio de 2019 às 06h08.
Madri - O Facebook anunciou novas medidas para impedir a proliferação de conteúdo que induz a violência e o ódio, como aconteceu com o vídeo do ataque na Nova Zelândia , incluindo o bloqueio da opção de transmissão de vídeos ao vivo para usuários que compartilham publicações deste tipo.
A intenção da tecnologia é bloquear o acesso à ferramenta "Facebook Live" por 30 dias, aproximadamente, a qualquer usuário que tenha compartilhado uma postagem que contrarie sua política de comunidade, por exemplo uma referência sem contexto a um link de uma declaração de um grupo terrorista.
Para isso, a empresa de Mark Zuckerberg destinará uma verba de US$ 7,5 milhões em tecnologia de análise de imagem e áudio, segundo um comunicado ao qual a Agência Efe teve acesso.
Além disso, ele também planeja transferir o novo modelo de restrição para "outras áreas" nas próximas semanas.
Por exemplo, ele impedirá que os usuários que postam ou compartilhem conteúdo proibido, como a distribuição de imagens de exploração infantil, possam criar anúncios.
Até agora, o Facebook havia escolhido excluir apenas o conteúdo da plataforma e remover temporariamente ou bloquear páginas e contas que eram contra os regulamentos de uso.
Com o novo regulamento, a plataforma reduz a barreira da permissividade, mas especialmente em relação à ferramenta Live, usada pelo agressor das mesquitas em Christchurch, na Nova Zelândia, para transmitir ao vivo o ataque no qual ele matou 51 pessoas e deixou 50 feridos.
Naquele momento, o Facebook tentou impedir a divulgação do vídeo, removendo a conta dessa rede social e do Instagram do agressor depois que a polícia tomar conhecimento da transmissão ao vivo, mas a essa altura já havia sido compartilhada por milhares de usuários.
O Facebook já possui uma operação composta por 30 mil funcionários em várias partes do mundo, direcionada a partir de Dublin, para detectar e interceptar conteúdo que afeta a segurança da plataforma, além de publicações que podem ser perigosas para o mundo "offline".
No entanto, justifica o novo item do orçamento com a necessidade de "investigar mais profundamente" novas técnicas para identificar imagens e vídeos editados ou manipulados e que podem ser compartilhados em diferentes formatos e por várias contas diferentes, como no caso de Christchurch.