Exame Logo

Google endurece medidas contra conteúdo extremista no YouTube

Companhia disse que adotará uma posição mais dura em relação a vídeos contendo conteúdo religioso supremacista ou inflamatório

YouTube: Google ainda empregará mais recursos em engenharia e aumentará o uso de tecnologia para identificar vídeos extremistas (Bloomberg/Bloomberg)
A

AFP

Publicado em 19 de junho de 2017 às 10h04.

Última atualização em 19 de junho de 2017 às 19h59.

O Google está intensificando seus esforços para bloquear "vídeos extremistas e relacionados ao terrorismo" em suas plataformas, usando uma combinação de tecnologia e supervisores humanos.

As medidas anunciadas no domingo chegam após esforços semelhantes revelados pelo Facebook na semana passada, e seguem uma chamada dos líderes do G7 no mês passado para que os gigantes da internet façam mais para controlar o conteúdo extremista online.

Veja também

"Enquanto nós e outros trabalhamos durante anos para identificar e remover conteúdos que violam nossas políticas, a verdade desconfortável é que nós, como indústria, devemos reconhecer que é necessário fazer mais", afirmou em uma postagem de blog o conselheiro geral do Google Kent Walker.

Walker disse que o Google vai dedicar mais recursos para aplicar inteligência artificial para suprimir vídeos do YouTube usados ​​em apoio a ações extremistas.

"Isso pode ser um desafio: um vídeo de um ataque terrorista pode ser uma cobertura de notícias informativa se transmitido pela BBC, ou a glorificação da violência, se publicado em um contexto diferente por um usuário diferente", disse.

"Nós agora vamos dedicar mais recursos de engenharia para aplicar nossa pesquisa de aprendizado de máquina mais avançada para treinar novos 'classificadores de conteúdo' para nos ajudarem a identificar e remover mais rapidamente o conteúdo extremista e relacionado ao terrorismo", acrescentou.

O Google reconheceu que a tecnologia sozinha não pode resolver o problema e disse que iria "aumentar consideravelmente o número de especialistas independentes" à procura de vídeos que violem suas diretrizes.

"As máquinas podem ajudar a identificar vídeos problemáticos, mas os especialistas humanos ainda desempenham um papel em decisões matizadas sobre a linha entre propaganda violenta e discurso religioso ou digno de ser coberto pela imprensa", disse Walker.

O Google planeja adicionar 50 organizações não governamentais às 63 com que já trabalha para filtrar conteúdo inapropriado.

"Isso permite que nos beneficiemos do conhecimento de organizações especializadas que trabalham em questões como discurso de ódio, autoflagelo e terrorismo", escreveu Walker.

"Também expandiremos nosso trabalho com grupos contraextremismo para ajudar a identificar o conteúdo que pode ser usado para radicalizar e recrutar extremistas", acrescentou.

Uma iniciativa semelhante foi anunciada na semana passada pelo Facebook, que no início deste ano disse que estava adicionando 3.000 funcionários para rastrear e remover conteúdo de vídeo violento.

Walker afirmou que o Google começaria a "tomar uma posição mais forte sobre vídeos que não violem claramente nossas políticas", incluindo vídeos que "contêm conteúdo inflamatório religioso ou supremacista".

Ele disse que o YouTube ia expandir seu papel nos esforços de contrarradicalização usando uma abordagem que "aproveita o poder da publicidade online direcionada" para alcançar recrutas potenciais de grupos extremistas e oferece "conteúdo de vídeo que denuncia mensagens de recrutamento de terroristas".

Acompanhe tudo sobre:GoogleTerrorismoYouTube

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Negócios

Mais na Exame