A engrenagem é a mesma: as plataformas priorizam o lucro, mesmo às custas da segurança infantil, e as falhas para proteger crianças e adolescentes persistem.
Estudo da Universidade Harvard calculou que, só em 2022, Facebook, Instagram, Snapchat, X e YouTube faturaram US$ 10,7 bilhões com usuários de até 17 anos. E isso apenas nos EUA.
Como as empresas não admitem que faturam com crianças e adolescentes e, portanto, não informam o quanto ganham por faixa etária, os pesquisadores fizeram uma projeção cruzando ferramentas de mercado, o censo dos EUA e a média de minutos gastos nas redes em cada faixa etária.

O foco dos pesquisadores era ver como as redes sociais estavam associadas a depressão, ansiedade e distúrbios alimentares em jovens, mas a conclusão foi que a presença de jovens era tão rentável -de 30% a 40% da receita – que as empresas não tinham estímulo para afastar este público.
Quase um quinto desse valor (US$ 2,1 bilhões) veio de crianças abaixo de 12 anos, ou seja, que não deveriam sequer ter acesso às redes sociais.
Embora as redes sociais afirmem que podem reduzir os danos aos jovens, ainda não o fizeram. Nosso estudo sugere que existem incentivos financeiros esmagadores para continuar a adiar a adoção de medidas significativas para proteger as crianças
Bryn Austin, professor do Departamento de Ciências Sociais e Comportamentais e um dos autores do estudo de Harvard
Proibido para quem?
Em qualquer país onde essas plataformas estejam presentes, menores de 13 anos são proibidos de ter contas, mas quem tem entre 13 e 17 anos precisa ter conta atrelada a um adulto responsável e não pode interagir com outros adultos ou acessar conteúdos impróprios.
Mas o sistema, baseado na idade que os usuários dizem ter, é fácil de burlar: basta digitar uma data de nascimento falsa para criar um perfil adulto.
Pesquisa TIC Kids Online 2024, do Cetic.br (Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação), revela como essa barreira é insuficiente no Brasil:
- 51% das crianças até 13 anos já estão no WhatsApp
- 43% no Instagram
- 32% no YouTube
- 28% no TikTok
- 11% no Facebook

Outra regra falha é o acesso à conteúdo para adultos, que, segundo as regras internas das próprias plataformas, só deveria aparecer para menores quando tiver caráter educativo ou for adequado à faixa etária.
Mesmo vídeos feitos por adultos e com conteúdo impróprio para menores de idade podem driblar o filtro se exibirem crianças.
O Instituto Alana já detectou que crianças que assistem a vídeos feitos por outras crianças também podem ser atingidas por anúncios de bets. Por lei, esse tipo de propaganda é vetada para essa faixa etária.
Por trás disso, estão os algoritmos projetados para maximizar o engajamento —e não para avaliar riscos. Felca apelidou essa lógica de “Algoritmo P”, de pedófilo.
Ao criar uma conta do zero e curtir alguns vídeos com crianças em situações sexualizadas, ele mostrou como a rede rapidamente passa a recomendar conteúdos semelhantes, criando bolhas temáticas.
Essa dinâmica fortalece o que especialistas chamam de “influenciadores algorítmicos”, caso de Hytalo Santos, que acumula milhões de visualizações -ele está preso, acusado de exploração sexual, entre outros delitos.
Para a pesquisadora Yasodara Cordova, diretora da estatal Dataprev e ex-membro do Comitê de Segurança do TikTok no Brasil, as plataformas cometem duas grandes falhas.
A primeira são as funções e recursos criados para ampliar o engajamento e a “passada de pano” das empresas para usuários que quebram suas regras.
Essa anuência, tratada como estímulo à comunidade de criadores, acaba facilitando a atuação de pessoas mal intencionadas.
Sabendo que a sua plataforma tem adolescentes, até menores de 13, você vai deixar espaços não supervisionados, como estratégia de negócio para aumentar view, elevar a interação com a sua plataforma e a monetização? É sacrificar muito a sua reputação por um crescimento que nem é sustentável
Yasodara Cordova, pesquisadora
A segunda brecha é ignorar sistematicamente os problemas e falhas apontados por especialistas e usuários. Como contraponto, ela aponta a conduta de outras indústrias voltadas ao público infantil, como os streaming de vídeo, que herdaram da TV a cultura da classificação indicativa, e os parques de diversões.
Tem guarda, salva-vidas em tudo que é lugar, porque, se não tiver, pode cair alguém lá de cima, quebra um braço. Enfim, quando você tá num parque de diversões para esse público, tem de bombeiro a médico para proteger o máximo que puder essas crianças
Yasodara Cordova, pesquisadora

Regras ignoradas
A Constituição, o ECA e a LGPD (Lei Geral de Proteção de Dados) exigem tratamento diferenciado a dados de crianças. Mas, em geral, as plataformas não agem como deveriam.
A Meta adiou a chegada do Meta AI ao Brasil após a ANPD (Agência Nacional de Proteção de Dados) iniciar uma investigação sobre a coleta de dados de menores sem as camadas de segurança necessárias, quase como se eles fossem adultos.
O serviço só funcionou aqui quando ficou garantido o ajuste no processo, que incluiu o descarte dessas informações.
A agência também investigou o TikTok por liberar acesso a vídeos sem cadastro ou verificação de idade. Além disso, a empresa dizia tratar os dados das crianças com base em contratos firmados com elas e sem a participação dos pais, mas menores de idade não podem assinar contrato no Brasil.
O indivíduo ainda em amadurecimento está sujeito a muitas influências: vemos a febre dos desafios e joguinhos, os incentivos a comportamentos não adequados e o impacto sobre autoimagem, autoestima e socialização
Miriam Werner, diretora da ANPD (Agência Nacional de Proteção de Dados)
No Facebook e WhatsApp, a Defensoria Pública de São Paulo encontrou grupos que ofereciam crianças para “adoção à brasileira”, sem usar meios legais, com indícios de tráfico de pessoas.
Desde 2016, o MPF (Ministério Público Federal) tenta obrigar o Google a avisar em todos os vídeos que é proibido fazer publicidade infantil ou usando crianças no YouTube. Em agosto de 2025, conseguiram uma vitória provisória, mas o julgamento final virá em dezembro.

Essa IA, por mais avançada que seja, não tem visão acurada. Um segurança de shopping toma uma providência se vir uma criança de 11 anos entrar no banheiro feminino com um homem. No ambiente digital, ainda que haja certa privacidade, a empresa vê essa aproximação e não adota uma providência emergencial para salvar essa criança
Moacir Nascimento, promotor do MP-BA e ex-membro do Conselho Nacional do MP
A reportagem procurou as empresas citadas, YouTube, Meta e TikTok, e todas afirmam que trabalham para banir qualquer conteúdo que coloque menores em risco, seja com moderação humana ou IA.

Moderação furada
Para derrubar as contas de quem se passa por adulto, as plataformas usam inteligência artificial, que cruza dados como teor dos posts, curtidas e preferências. Funciona, mas com falhas.
As plataformas criam e aperfeiçoam regras de moderação de conteúdo, esbarrando sempre na necessidade de simplificá-las. Entre janeiro e março de 2025, Google e Meta removeram ou ocultaram quase 100 milhões de posts, vídeos e comentários com risco infantil, sendo que ao menos 94% foi trabalho de algoritmos.
O TikTok não deixa claro quanto dos 211 milhões de vídeos derrubados se referiam a condutas contra crianças.
A Microsoft fornece sistema para todas essas empresas, o Photo DNA, que marca digitalmente fotos e vídeos abusivos e barra o upload ou compartilhamento dessas imagens em diversas plataformas.
Mas casos subjetivos escapam facilmente, especialmente quando o impróprio está no contexto.
No início da onda das bets no Brasil, o TikTok derrubava vídeos de jogos de futebol se a marca de alguma casa de aposta aparecesse nas placas nas laterais.
Felca também mostrou que as redes sociais não sacam que exploradores sexuais marcam nos comentários o termo “trad” para levar interessados a grupos no Telegram onde compartilham fotos e vídeos explícitos de crianças.

Insegurança ‘by design’
Segundo Rodrigo Nejm, do Instituto Alana, já existem ferramentas capazes de descobrir a idade ou a faixa etária das pessoas, sem expor dados.
“Há um refinamento para driblar as plataformas, mas as pessoas simplesmente não estão sendo tão criativas assim”, diz Nejm.
Para Yasodara, plataformas e redes sociais poderiam adotar duas práticas. A primeira delas é criar dois algoritmos, um voltado a adultos e outro, próprio para crianças. Isso evitaria que a lógica de impulsionamento de posts para adultos funcionasse também para as crianças.
Um passo adicional seria estabelecer uma seleção de criadores de vídeo. A solução valeria para YouTube e outros serviços fortes em streaming de vídeo.
Já a segunda delas é de fato realizar uma estimativa etária dos usuários e permitir que consumam apenas conteúdos destinados às suas idades. Isso valeria para X, BlueSky, Mastodon e todas as redes sociais.
Do ponto de vista das plataformas, há a questão do custo-benefício em contratar serviços de verificação etária.
Além de precisarem armazenar dados sensíveis das crianças para que o sistema funcione, as empresas precisam se responsabilizar pelo serviço prestado por terceiros, afirma Marianne Batista, cientista política especializada em moderação de conteúdo e ex-responsável pela área da segurança do TikTok.
“Parece que o lucro com esse tipo de uso é mais importante do que a proteção [das crianças] e eventual perda de uma determinada receita para prevenir a violência contra elas”, diz Nejm. “Temos visto passar anúncios convidando explicitamente para acessar conteúdos de abuso infantil. São páginas publicitárias com link na bio para vender fotos de crianças.”
Um grupo do Ministério da Justiça discute uma solução pública de checagem de idade, vinculada a bases federais de dados. O objetivo é obrigar as empresas a cumprir a classificação indicativa para diferentes níveis de exposição em cada faixa etária.























