Empresas de tecnologia correm para detectar violência em vídeos
Um tailandês que filmou a si mesmo assassinando a filha o vivo no Facebook é o mais recente de uma série de crimes violentos transmitidos nas redes
Reuters
Publicado em 28 de abril de 2017 às 16h20.
Última atualização em 28 de abril de 2017 às 16h20.
Cingapura - Companhias de Cingapura a Finlândia estão correndo para desenvolver softwares de inteligência artificial que podem detectar e bloquear automaticamente vídeos de assassinatos e mutilação antes de se tornarem virais em redes sociais. Por enquanto nenhuma conseguiu resolver o problema completamente.
Um tailandês que filmou a si mesmo assassinando a filha de 11 messes em um vídeo ao vivo no Facebook nesta semana é o mais recente de uma série de crimes violentos transmitidos ao vivo em redes sociais.
O incidente levantou questionamentos sobre como o sistema de denúncia do Facebook funciona e como conteúdo violento pode ser detectado mais rapidamente.
A Google, que enfrenta problemas similares com seus serviços no YouTube, e o Facebook estão trabalhando em suas próprias soluções.
A maioria está se focado na aprendizagem em profundidade: um tipo de inteligência artificial que usa redes neurais computadorizadas que "ensina" computadores a identificar uma cena violenta em um vídeo.
Atos violentos podem incluir ações de hackers ou sangue, disse Abhijit Shanbhag, presidente-executivo da Graymatics.
O fundador da empresa de análise de vídeos Clarifai disse que seu algoritmo também pode reconhecer objetos em um vídeo que poderiam ser precursores da violência, como facas e armas.
Outra limitação é que a violência pode ser subjetiva. A companhia PicPurify também está trabalhando para identificar cenas de violência que não envolvem sangue ou armas.
O presidente-executivo da PicPurify Yann Mareschal disse que tortura psicológica é difícil de identificar.
Algumas companhias disseram que a adaptação da indústria está sendo mais lenta do que poderia, em parte por causa da despesa adicional.
Empresas que gerenciam o conteúdo gerado por usuários podem sofrer cada vez mais pressões revogatórias, disse Mika Rautiainen fundador e presidente-executivo da Valossa, que encontra conteúdo indesejável em mídia, entretenimento e empresas publicitárias.