A chamada adultização de crianças nas redes sociais tornou-se um dos temas mais inquietantes do debate público em 2025. O fenômeno ganhou destaque após denúncias de que os algoritmos de grandes plataformas estariam contribuindo para a exposição precoce de menores em contextos de sexualização, colocando em risco sua integridade psíquica e moral. A repercussão foi imediata: investigações foram instauradas, projetos de lei foram propostos e a sociedade passou a discutir, com maior seriedade, os limites entre liberdade digital e proteção da infância.
No plano jurídico, não se trata de uma questão inédita, mas sim da intensificação de um problema antigo que ganhou novas roupagens com a tecnologia. A Constituição Federal, em seu artigo 227, já estabelece de forma categórica que é dever da família, da sociedade e do Estado assegurar à criança, com absoluta prioridade, todos os direitos fundamentais, inclusive a dignidade. O Estatuto da Criança e do Adolescente, por sua vez, reforça que nenhuma criança pode ser submetida a situações vexatórias ou constrangedoras. E a Lei Geral de Proteção de Dados, em sintonia com esse arcabouço, impõe regras rígidas para o tratamento de informações de menores, exigindo consentimento expresso de pais ou responsáveis.
A grande novidade está na forma como esses dispositivos legais precisam dialogar com a realidade digital. Diferentemente das relações tradicionais, nas quais a responsabilidade se delineava de maneira mais direta, no universo das redes sociais a lógica é mediada por algoritmos que, ao priorizarem engajamento e tempo de tela, acabam por potencializar conteúdos que expõem crianças de modo inadequado. Surge, então, a pergunta inevitável: até que ponto as plataformas digitais devem responder por esse tipo de dano?
Sob a ótica da responsabilidade civil, cresce o entendimento de que as empresas de tecnologia não podem se esquivar de sua função social. A omissão em criar filtros eficazes, a negligência na moderação de conteúdos e o estímulo indireto à exploração da imagem infantil constituem falhas graves que podem ensejar reparação. Não se trata apenas de falhas técnicas, mas de escolhas empresariais que, em última análise, refletem uma hierarquia de valores: lucro e audiência em detrimento da proteção integral da infância.
A pressão social e jurídica deu origem a propostas legislativas conhecidas popularmente como “Lei Felca”, inspiradas no caso recente que expôs a gravidade da situação. Tais iniciativas buscam criar mecanismos de proteção adicionais, como a imposição de alertas obrigatórios, canais de denúncia simplificados e sanções severas para plataformas que não atuarem de forma diligente. Ainda que em fase inicial, esse movimento normativo revela uma tendência clara: o Brasil caminha para um endurecimento regulatório no campo digital, em linha com as experiências internacionais de controle de algoritmos e proteção de dados.
A questão da adultização infantil, portanto, extrapola o campo da moral ou da sociologia. Ela é, sobretudo, uma questão de direitos fundamentais. A infância, que deveria ser um espaço de desenvolvimento seguro, não pode ser transformada em mercadoria para consumo rápido nas redes sociais. Nenhum interesse econômico é legítimo quando colide com o princípio constitucional da proteção integral da criança.
O desafio que se coloca agora é garantir que esse debate não se esgote no calor da polêmica, mas produza mudanças concretas, tanto no plano legislativo quanto na prática cotidiana das plataformas digitais e das famílias. O Direito tem, nesse contexto, um papel central: o de reafirmar que, mesmo em tempos de algoritmos e inteligência artificial, a dignidade da pessoa humana permanece sendo o valor supremo que deve orientar toda a ordem jurídica.
Por Michelle Maul Wuerges | Data de publicação 01/09/2025.