top of page

Da proteção infantil ao “vão proibir jogos”: como se constrói um pânico digital

Como uma proposta de regulação digital é traduzida em medo individual e perde seu foco estrutural


Plataforma de games online Roblox é processada nos EUA | Crédito da foto: reprodução
Plataforma de games online Roblox é processada nos EUA | Crédito da foto: reprodução

Por Juan Pagno | Agência Abre Aspas


Dizer que “vão proibir jogos no Brasil” pode parecer exagero. Mas descartar essa reação como pura desinformação também é simplificar demais o problema.


O debate em torno da chamada “Lei Felca” não surge no vazio. Ela não é uma criação isolada nem uma ruptura radical criada por um influencer. Trata-se, na prática, de um desdobramento de iniciativas que já existem há anos, frequentemente agrupadas sob o que se convencionou chamar de “ECA Digital”: tentativas de atualizar o Estatuto da Criança e do Adolescente para um ambiente onde socialização, consumo e exposição acontecem mediadas por plataformas.


Esse ponto é central porque desmonta duas leituras simplistas ao mesmo tempo:nem se trata de uma novidade autoritária repentina, nem de algo inofensivo por definição.


O que a proposta faz - ao menos em seu desenho - é reforçar mecanismos de proteção a menores: verificação de idade, responsabilização de plataformas e restrições a práticas que explorem vulnerabilidades. Isso inclui desde publicidade direcionada até sistemas de monetização e arquitetura de engajamento.


E aqui entra um ponto que o debate público costuma ignorar: esse tipo de regulação não surge por abstração moral, mas por problemas concretos. Um dos exemplos mais evidentes é o caso do Roblox.


Apesar de ser percebido como “jogo infantil”, o Roblox funciona, na prática, como uma plataforma social aberta, onde milhões de usuários, muitos deles crianças, interagem livremente com desconhecidos. A criação de contas é simples, a verificação de idade historicamente foi frágil e a comunicação ocorre por chat e áudio em ambientes difíceis de monitorar. Esse contexto criou um cenário recorrente de risco.


Autoridades brasileiras e internacionais vêm alertando que a plataforma se tornou um espaço propício para aliciamento de menores, com criminosos utilizando o ambiente para criar vínculos e posteriormente migrar a interação para outras redes. Investigações apontam inclusive casos em que crianças foram manipuladas emocionalmente, expostas a conteúdos impróprios ou levadas a situações de exploração. No Brasil, dados do Fundo das Nações Unidas para a Infância (Unicef), indicam que 1 em cada 5 crianças e adolescentes já sofreu violência sexual facilitada pela internet, não um desvio, mas um padrão em larga escala.


O problema não é marginal. Ele é estrutural. A própria escala da plataforma combinada com baixa barreira de entrada e interação aberta cria um ambiente onde controle individual (dos pais) e moderação pontual (da empresa) são insuficientes.


Casos mais graves levaram a processos judiciais e investigações internacionais, com acusações de que a plataforma falhou em impedir grooming (processo pelo qual um adulto constrói confiança com uma criança ou adolescente, muitas vezes online, para fins de abuso sexual), e exploração infantil.


Ou seja: a preocupação com proteção infantil não é fabricada. Ela responde a um problema real, documentado e recorrente. Mas reconhecer isso não resolve o debate, porque o salto que acontece em seguida é outro.


O que se viu nas redes não foi uma discussão sobre como lidar com esse tipo de risco estrutural. O que ganhou tração foi a tradução imediata desse problema em uma ameaça direta ao consumo individual: “vão proibir jogos”, “vão censurar conteúdo”, “acabou a internet como conhecemos”.


Essa transformação tem duas camadas: a primeira é legítima, regulações digitais frequentemente operam com conceitos amplos, “conteúdo sensível”, “proteção de menores”, “responsabilidade de plataforma”. Esses termos dependem de regulamentação posterior e podem, sim, abrir margem para interpretações expansivas ou aplicação excessiva. Existe histórico internacional de leis que ampliam o escopo ao longo do tempo.


A segunda camada é uma distorção estratégica: um deslocamento deliberado do debate estrutural para o pânico individual. Em vez de discutir mecanismos concretos de proteção, o problema é reembalado como ameaça imediata à liberdade do usuário comum. É um enquadramento que simplifica, radicaliza e engaja, mas ao fazer isso, substitui análise por reação e impede qualquer discussão séria sobre o próprio risco que deu origem ao debate.


Uma discussão que deveria ser sobre arquitetura de plataformas, modelos de negócio e proteção sistêmica passa a ser percebida como ameaça direta ao usuário. A pergunta deixa de ser “como reduzir o aliciamento de menores?” e passa a ser “o que vão tirar de mim?”.


Esse deslocamento não é apenas psicológico, as pessoas reagem mais rapidamente à possibilidade de perda do que a explicações abstratas. Ele é também mediado pelas próprias plataformas.

Ambientes digitais privilegiam conteúdos curtos, emocionais e polarizados. Explicar a complexidade de uma regulação exige tempo. Já afirmar que “vão proibir jogos” exige apenas uma frase. E frases simples circulam melhor. Nesse contexto, interpretações mais radicais não precisam ser corretas para dominar o debate, apenas precisam ser mais eficientes.

Isso não implica necessariamente uma conspiração coordenada. Parte do processo é orgânico. Mas também há atores que se beneficiam dessa simplificação e a reforçam: recortes fora de contexto, cenários hipotéticos apresentados como inevitáveis e traduções simplificadas de trechos técnicos. O resultado é uma compressão do debate, em que discussões estruturais são traduzidas em conflitos personalizados. O foco se desloca para alvos mais visíveis como criadores de conteúdo, influenciadores, desenvolvedores; enquanto estruturas mais amplas, como plataformas e seus modelos de funcionamento, permanecem relativamente intocadas. Esse movimento não depende necessariamente de coordenação política, ele é incentivado pela própria lógica das redes, que favorece narrativas com rostos, culpados identificáveis e conflito direto. É mais fácil mobilizar indignação apontando para um indivíduo do que explicando sistemas. Daí a recorrência de enquadramentos simplificados: “veja esse influencer destruindo a internet de vocês”.

O efeito final desse processo não é apenas um debate mal conduzido. É algo mais profundo: a incapacidade de discutir qualquer regulação digital sem que ela seja imediatamente convertida em ameaça individual ou em defesa acrítica.

Quando isso acontece, dois movimentos opostos passam a dominar. De um lado, a rejeição automática baseada em cenários extremos que ainda não existem. De outro, a aceitação simplificada baseada em intenções declaradas que não garantem como a lei será aplicada.


Nenhum dos dois enfrenta o problema real. A questão central não é escolher entre “proteção” ou “censura”, mas entender como mecanismos concretos serão implementados, quem terá poder de decisão e quais são os limites efetivos dessa atuação. Sem isso, o debate continua operando em um nível em que tudo é antecipação ou reação, nunca análise. E, nesse ambiente, o resultado tende a se repetir: problemas estruturais permanecem sem solução, enquanto disputas superficiais ocupam todo o espaço disponível.


No fim, não é que “não estão discutindo a lei”, é que o debate foi deslocado para um terreno onde discutir a lei se torna irrelevante.


Enquanto a discussão continuar sendo sobre o que você pode perder, e não sobre como o sistema funciona, qualquer debate regulatório estará condenado a ser sequestrado, não importa o lado.



1 comentário


👏

Curtir
  • Instagram
  • TikTok

Produzido pelos acadêmicos do 5º período do curso de Jornalismo do Centro Universitário FAG, na disciplina de Webjornalismo, sob orientação do professor Alcemar Araújo.

©2025 - Agência Abre Aspas - Todos os Direitos Reservados

bottom of page