Problema vai muito além do Brasil. Em julho, União Europeia publicou diretrizes para menores em redes sociais, e Reino Unido lançou verificação de idade obrigatória para determinados conteúdos.
Por Redação, com DW – de Brasília, Bruxelas
O Brasil não está sozinho na saga de tentar proteger suas crianças e adolescentes de conteúdos nocivos e exploração na internet, objetivo do projeto de lei apelidado de ECA Digital aprovado na quarta-feira pelo Senado, que segue para sanção do presidente Luiz Inácio Lula da Silva.

O ECA Digital ganhou tração no Congresso após a repercussão do vídeo do influenciador Felca sobre a exploração online de crianças e adolescentes e a monetização desses conteúdos, que incentivam a “adultização” de menores.
Entre outros pontos, o texto proíbe a monetização e impulsionamento de conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva e exige que menores de 16 anos só possam ter contas em plataformas digitais se forem vinculadas à conta de um adulto responsável.
Também determina a remoção pelas plataformas digitais, sem necessidade de notificação, de conteúdos relacionados a abuso sexual, sequestro, aliciamento ou exploração. Outros conteúdos que violem direitos de crianças e adolescentes devem ser removidos após notificação enviada pela vítima, por seus representantes, pelo Ministério Público ou por entidades representativas de defesa dos direitos de crianças e adolescentes.
Além disso, proíbe o perfilamento de crianças para publicidade direcionada, a existência de caixas de recompensa financeiras em jogos (loot boxes) para menores e determina que os perfis de crianças devem ter configurações protetivas por padrão.
Algumas dessa medidas estão em linha com legislações recentes adotadas em outros países, e há também algumas diferenças. Veja como outros países estão abordando o tema:
União Europeia
A União Europeia (UE), que reúne 27 países, aprovou em outubro de 2022 seu Regulamento dos Serviços Digitais (DSA, na sigla em inglês), que visa evitar atividades ilegais e nocivas e proteger direitos nas plataformas digitais.
O DSA possui um artigo que obriga as plataformas a adotarem medidas para garantir um alto nível de privacidade e segurança de menores de idade no seu serviço, segundo diretrizes publicadas em julho deste ano. Algumas dessas regras são:
Contas de menores devem ser privadas por padrão, com seus conteúdos ocultos para quem não faz parte da sua lista de contatos.
Sistemas de recomendação por algoritmos devem ser modificados para reduzir o risco de crianças encontrarem conteúdo prejudicial ou caírem em loops de conteúdos específicos, com o intuito aumentar o controle sobre o feed.
Todos os usuários devem ser impedidos de fazer downloads ou capturas de telas de conteúdo postado por menores.
Recursos que estimulam uso excessivo da plataforma devem ser desativados por padrão, como prêmios ou medalhas virtuais pelo uso diário de aplicativos, recibos de leitura, reprodução automática de vídeos e notificações por push.
Crianças não podem ser expostas a publicidade manipuladora ou práticas que levem a comportamento viciante, incluindo algumas moedas virtuais e loot boxes.
Plataformas devem usar métodos efetivos para checagem de idade, especialmente para restringir acesso a pornografia e bets.
Reino Unido
A lei britânica que busca aumentar a segurança de ambientes virtuais para crianças é o Online Safety Act.
Apesar de ter sido aprovada em 2023, alguns aspectos da norma entraram em vigor apenas recentemente, como a proibição de menores de idade de acessarem pornografia e conteúdos que incentivem automutilação, distúrbios alimentares ou suicídio. Essa obrigação deve ser seguida desde 25 de julho pelas plataformas, que adotaram métodos de verificação de idade.
Entre outras medidas, a norma também prevê que todas as contas de menores de 18 anos devem ser vinculadas à conta de um adulto, responsável pelas configurações de segurança.
As plataformas também precisam alterar seus algoritmos para que crianças não vejam em seu feed conteúdos nocivos, e não podem sugerir a outras pessoas o perfil de crianças para se conectarem como amigos.
Austrália
O país da Oceania é em alguns aspectos pioneiro em iniciativas sobre proteção de menores no ambiente digital. A Austrália criou o que muitos consideram a primeira agência governamental do mundo dedicada à segurança online, o eSafety Commissioner, já em 2015.
Em novembro de 2024, o país inovou novamente e foi o primeiro a proibir menores de 16 anos de usar redes sociais. A medida drástica deve entrar em vigor no final deste ano.
O governo argumentou que essa proibição seria necessária para proteger os mais jovens dos riscos oferecidos pelas redes sociais, mas sofreu forte oposição das plataformas digitais e é questionada por alguns especialistas – tanto por motivos práticos sobre a operacionalização como sobre o risco de deixar as crianças menos capazes de lidar com o ambiente online mais tarde ou de retirá-las de comunidades digitais que oferecem apoio.
Alemanha
Como país-membro da UE, a Alemanha está sujeita à regras do DSA. No entanto, o país também tem suas leis próprias sobre o tema, em especial a Jugendschutzgesetz (JuSchG), atualizada em 2021.
A norma estabelece que as redes sociais precisam tomar medidas apropriadas e efetivas para a participação de crianças e adolescentes, e devem por padrão adotar configurações que as protejam de riscos como bullying, aliciamento sexual, discurso de ódio e rastreamento.
O Ministério da Educação estuda a introdução de regras mais rígidas para o uso de redes sociais como o TikTok e o Instagram, e recentemente o comissário federal encarregado do combate ao vício e às drogas, Hendrik Streeck, sugeriu a adoção de uma idade mínima para uso de redes sociais, sem citar uma idade específica.
A proposta foi recebida com reservas por entidades de defesa dos direitos da criança. A ONG Kinderschutzbund não descarta a ideia por completo, mas considera que ela em si só não resolveria o problema e faria com que esses jovens adentrassem o mundo adulto no futuro despreparados, e defende a adoção nas escolas de uma disciplina obrigatória de letramento midiático.
A Associação Social da Alemanha (SoVD) argumentou que, em vez de limites de idade, jovens precisam de bons exemplos de pessoas com hábitos digitais saudáveis, educação sobre o tema nas escolas e participação nas discussões sobre soluções.
No entanto, em uma pesquisa realizada em 2024, 77% dos alemães afirmaram que apoiariam “totalmente” ou “de certa forma” uma proibição das redes sociais semelhante à da Austrália. Um percentual ainda maior – 82% – estava “absolutamente certo” ou “de certa forma certo” de que o uso das redes sociais é, de alguma forma, prejudicial para crianças e adolescentes.