Contas sinalizadas não são excluídas automaticamente: passam antes por análise de moderadores especializados (Li Hongbo/VCG via Getty Images/Getty Images)
Plataforma de conteúdo
Publicado em 23 de janeiro de 2026 às 19h26.
Nas próximas semanas, o TikTok começará a implementar em toda a Europa uma nova tecnologia de detecção de idade para identificar e remover contas de usuários com menos de 13 anos. A iniciativa surge em meio à pressão de reguladores europeus, que questionam a eficácia — e os riscos à privacidade — dos mecanismos atuais adotados pelas plataformas digitais para proteger crianças e adolescentes.
Desenvolvido após um projeto-piloto de um ano no Reino Unido, o sistema cruza informações de perfil, conteúdo publicado e padrões de comportamento para estimar a idade do usuário. Contas sinalizadas não são excluídas automaticamente: passam antes por análise de moderadores especializados. Segundo a empresa, a tecnologia foi desenhada especificamente para atender às exigências regulatórias europeias e, por ora, não há previsão de adoção global.
Enquanto países como Austrália, Dinamarca e integrantes da União Europeia avançam em restrições etárias mais rígidas, o debate também ganha força no Brasil. Aqui, embora não exista uma lei que imponha um método técnico único de verificação de idade em redes sociais, as obrigações das plataformas são amplas e juridicamente exigentes.
“O tratamento de dados pessoais de crianças e adolescentes no Brasil está submetido a um regime de proteção reforçada, baseado na lógica da proteção integral prevista na Lei Geral de Proteção de Dados [LGPD] e no Estatuto da Criança e do Adolescente [ECA]”, explica a advogada Caren Benevento, sócia da Benevento Advocacia e pesquisadora do Grupo de Estudos de Direito Contemporâneo do Trabalho e da Seguridade Social (Getrab-USP).
Segundo ela, qualquer tratamento de dados deve observar o critério do melhor interesse do menor, que funciona como parâmetro de legalidade da própria atividade da plataforma.
Responsabilidade
No caso de crianças até 12 anos incompletos, a LGPD exige consentimento parental específico, destacado e verificável. “Bases contratuais genéricas não são adequadas nesse contexto”, afirma Benevento. Para adolescentes entre 12 e 18 anos incompletos, não há exigência automática de consentimento dos responsáveis, mas o tratamento de dados continua condicionado ao melhor interesse, com vedação a práticas exploratórias ou que exponham o jovem a riscos indevidos.
Embora a legislação brasileira não determine um modelo obrigatório de verificação etária, isso não exime as plataformas de responsabilidade. “Sempre que a idade for determinante para definir a base legal do tratamento ou o nível de proteção exigido, a empresa tem o dever de adotar mecanismos proporcionais de aferição”, diz a advogada. Termos de uso ou declarações unilaterais do usuário, por si só, não são suficientes para afastar riscos jurídicos.
ECA Digital
Em 2025, o marco regulatório brasileiro avançou com a chamada Lei do ECA Digital (Lei n.º 15.211), que introduziu regras mais objetivas para a proteção de crianças e adolescentes no ambiente online. Entre elas estão a vedação à autodeclaração de idade, a exigência de mecanismos confiáveis de aferição etária, a vinculação de contas de menores de 16 anos a responsáveis legais e a proibição de vigilância massiva.
Sob esse prisma, algumas soluções testadas pelo TikTok na Europa dialogam com princípios já incorporados ao ordenamento brasileiro, como a eliminação da autodeclaração e a adoção de uma abordagem baseada em risco. Ainda assim, Benevento alerta para os limites.
“A biometria facial é classificada pela LGPD como dado pessoal sensível, especialmente quando envolve menores. Seu uso só seria admissível em hipóteses excepcionais, com finalidade exclusiva de proteção etária e mediante relatórios de impacto robustos”, pondera a advogada.
Para a especialista, o desafio está em equilibrar inovação tecnológica e proteção efetiva. “A proteção etária não é apenas uma discussão técnica, mas uma resposta necessária a vulnerabilidades reais, como assédio, bullying e coleta excessiva de dados. O risco é transformar uma medida de proteção em vigilância invasiva”, conclui.