Instagram promete borrão em fotos contendo nudez aos usuários menores de idade
Para adultos, haverá uma opção de ativar a ferramenta que embaça fotografias de conteúdo sensível
Redatora
Publicado em 11 de abril de 2024 às 12h20.
Última atualização em 11 de abril de 2024 às 12h20.
Em uma publicação nesta quinta-feira, 11, o Instagram informou que lançará uma nova ferramenta que automaticamente borrará imagens de nudez enviadas por mensagem no aplicativo. A ideia é proteger os usuários e combater a extorsão sexual.
Esse tipo de extorsão ocorre quando um indivíduo convence outro a enviar imagens de teor sexual para depois extorqui-la sob ameaças de publicar as fotos. De acordo com a rede social, o objetivo é "não só proteger as pessoas de verem nudez não desejada em suas mensagens diretas, mas também protegê-las de golpistas que podem enviar imagens de nudez para enganar as pessoas a enviarem as suas em troca."
Funcionará assim: imagens contendo nudez serão borradas e apresentarão um aviso, dando aos usuários a opção de visualizá-las. Também haverá a alternativa de bloquear a mensagem e reportar a conversa ao Instagram.
Para quem estiver enviando as fotografias com nudez, aparecerá uma mensagem para lembrá-los de ter cautela na hora de mandar "fotos sensíveis". Eles também serão informados da possibilidade de retratar o envio, muito embora seja possível que, quando o fizerem, o outro pode já ter visualizado a imagem.
O mecanismo será ativado automaticamente nas contas de adolescentes, com base na data de nascimento informada em cada perfil. Já usuários adultos receberão uma notificação encorajando-os a adotar a ferramenta.
De acordo com o Wall Street Journal, a novidade será testada nas próximas semanas e deve se tornar regra pelo mundo dentro de meses.