Tecnologia

Apple quer vasculhar iPhones nos EUA em busca de imagens de abuso infantil

Se valendo de uma nova ferramenta, a empresa quer comparar fotos abusivas nos telefones com uma base de dados de imagens vítimas de abuso sexual

Quando uma foto for problemática, a Apple a revisará manualmente, desabilitará a conta do usuário se necessário e enviará um relatório ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC) (Getty Images/Getty Images)

Quando uma foto for problemática, a Apple a revisará manualmente, desabilitará a conta do usuário se necessário e enviará um relatório ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC) (Getty Images/Getty Images)

TL

Thiago Lavado

Publicado em 6 de agosto de 2021 às 14h57.

Última atualização em 6 de agosto de 2021 às 16h08.

A Apple pretende instalar softwares nos iPhones de usuários nos Estados Unidos para que seja possível rastrear a presença de imagens de abuso infantil, afirmou nesta quinta-feira, 5, o jornal britânico Financial Times.

De acordo com o FT, a empresa teria apresentado o sistema, chamado de "neuralMatch" a alguns acadêmicos e professores americanos. Os planos podem ser tornados públicos ainda esta semana, disse o jornal.

A tecnologia "varreria" os telefones atrás de imagens ilegais e alertaria um time de revisores humanos se acreditasse que o material viola as leis e as autoridades seriam contatadas para investigar. A ideia é disponibilizar a função inicialmente nos EUA.

"Queremos ajudar a proteger as crianças dos predadores que usam ferramentas de comunicação para recrutá-las e explorá-las, e limitar a difusão de pornografia infantil", disse o grupo de pesquisa da companhia em sua página.

O grupo também planeja novas ferramentas para prevenir crianças e pais que tenham uma conta para "Compartilhar em família" (Family Sharing) quando fotos explícitas lhes forem enviadas ao aplicativo de mensagens.

As fotos ficarão embaçadas e o menor receberá mensagens preventivas como advertência de que não é obrigado a abri-las.

Os pais podem optar por receber uma mensagem quando o filho abrir as fotos. Serão implementadas proteções similares para crianças que enviarem fotos sexualmente explícitas.

Há também a intenção de implementar informações de prevenção via assistente de voz Siri quando as crianças ou os pais pedirem conselhos sobre situações determinadas.

A Siri também podem intervir quando os usuários buscarem imagens de pornografia infantil, advertindo-lhes que o conteúdo é problemático.

Estas ferramentas estarão disponíveis gradativamente com as próximas atualizações dos sistemas operacionais no iPhone, iPad, iWatch e iMac.

Acompanhe tudo sobre:AppleCriançasSmartphones

Mais de Tecnologia

TikTok passa a testar vídeos de 60 minutos e acirra disputa com YouTube

Como tirar o online do WhatsApp no Android? Confira o tutorial no app

Como escanear documentos no seu smartphone sem instalar nada

Como descobrir uma fonte a partir da imagem pela internet

Mais na Exame