Ministério Publico do Estado de Mato Grosso

A infância não pode esperar: O dever de agir no combate à violência sexual digital

quarta-feira, 26 de novembro de 2025, 16h44

O ambiente digital ampliou as possibilidades de convivência e aprendizado, mas também multiplicou os riscos para crianças e adolescentes, ou seja, nunca foi tão fácil aprender, comunicar e se conectar - e nunca foi tão perigoso. O mesmo ciberespaço que aproxima pessoas e democratiza o conhecimento também se tornou palco de crimes graves contra crianças e adolescentes, com redes sociais e aplicativos de mensagens sendo utilizados para aliciamento e compartilhamento de material de abuso infantil.

 

Até um passado recente, a legislação brasileira apresentava lacunas na resposta a esses crimes. O art. 19 do Marco Civil da Internet (lei 12.965/14) previa que provedores de aplicações só poderiam ser responsabilizados civilmente por conteúdos gerados por terceiros caso descumprissem ordem judicial específica de retirada. Essa estrutura, concebida originalmente para equilibrar a liberdade de expressão com a proteção contra censura prévia, acabou criando um obstáculo concreto à remoção célere de conteúdos ilícitos em casos de extrema gravidade, como os de abuso e exploração sexual infantojuvenil. 

 

Na prática, isso significava que redes sociais, aplicativos de vídeo e de mensagens só eram obrigados a remover arquivos contendo abuso infantojuvenil após provocação judicial individualizada. Mesmo quando o conteúdo era manifestamente criminoso - como imagens de estupro de vulnerável, gravações de aliciamento, manipulações digitais de crianças (deepfakes1) ou compartilhamentos em comunidades privadas -, os provedores de aplicações frequentemente alegavam a ausência de ordem judicial para agir, prolongando a exposição e a revitimização das crianças retratadas. 

 

Esse modelo transferia o ônus da prova e da urgência à vítima ou às autoridades policiais, que precisavam instaurar inquéritos e obter decisões judiciais antes de qualquer retirada efetiva. Enquanto isso, o material seguia sendo visualizado, replicado, comercializado e redistribuído em diferentes contas, grupos e perfis, muitas vezes com novas legendas, montagens e hashtags que facilitavam a reindexação automática pelos algoritmos das próprias empresas. 

 

Além disso, a falta de um dever legal de monitoramento ou de mecanismos de hash-matching2 obrigatórios resultava em uma reprodução infinita dos mesmos arquivos entre operadores de plataformas digitais.

 

Assim, embora o art. 19 buscasse evitar censura indevida e garantir segurança jurídica, seu efeito colateral foi a lentidão estrutural na retirada de conteúdos gravíssimos, tornando o Brasil um dos países com maior tempo médio de resposta a denúncias de CSAM nas redes sociais, segundo relatórios da SaferNet e do NCMEC. 

 

Com a decisão do STF em junho de 2025 e a sanção do ECA Digital (lei 15.211/25) - que será abordado mais adiante -, esse cenário começa a se transformar. O país passa a exigir respostas proativas e imediatas das empresas de tecnologia diante de conteúdos de abuso infantil, reconhecendo que cada hora de exposição representa uma nova agressão à dignidade da criança.

 

CSAM e a revitimização contínua 

 

O termo CSAM - Child Sexual Abuse Material descreve qualquer material que documente, promova ou simule abuso sexual real de crianças ou adolescentes - incluindo imagens, vídeos, transmissões ao vivo, desenhos realistas e deepfakes. No Brasil, esses crimes estão previstos nos arts. 240 a 241-E do ECA - Estatuto da Criança e do Adolescente, abrangendo desde a produção até o armazenamento e compartilhamento. 

 

Neste contexto, importante sinalizar que o termo "pornografia infantil" vem sendo substituído por "material de abuso sexual infantil" (CSAM - Child Sexual Abuse Material), expressão que normaliza uma prática criminosa e não reflete a violência envolvida. Conforme destaca a SaferNet Brasil, nas representações envolvendo crianças e adolescentes há sempre violência, exploração ou coerção, razão pela qual o novo termo reflete com maior precisão a gravidade e a natureza criminosa desses conteúdos3.

 

O CSAM diferencia-se de outros crimes por sua natureza permanente e multiplicadora. Uma vez publicado, o material se espalha por diversos ambientes digitais - da dark web às redes sociais. A revitimização ou vitimização secundária ocorre quando a criança é novamente violentada psicologicamente, neste caso a cada visualização, download ou compartilhamento. O abuso nunca termina: é perpetuado por cada clique. 

 

A jurisprudência e a doutrina brasileira já reconhecem esse sofrimento reiterado: o dano não se encerra no momento do abuso, mas se prolonga indefinidamente no ambiente virtual, tornando a retirada rápida desses materiais um dever ético e jurídico das empresas privadas de tecnologia e autoridades. 

 

Conforme já reconheceu o STJ: 

 

"A cada nova visualização ou compartilhamento de material pornográfico envolvendo crianças e adolescentes, renova-se a violação à dignidade sexual da vítima, configurando-se verdadeira revitimização. A permanência desses arquivos na internet perpetua o sofrimento e impede o esquecimento." 

 

(STJ - HC 598.051/RS, rel. min. Ribeiro Dantas, 5ª turma, julgado em 15/9/2020, DJe 25/9/2020) 

 

Ao incluir CSAM no rol de "conteúdos gravíssimos" que exigem resposta imediata, o STF reconheceu justamente esse fenômeno - a ofensa renovada que se consuma a cada visualização.

 

Em suma, cada imagem de abuso é uma cena de crime permanente. A mudança legal e jurisprudencial busca romper essa cadeia, impondo às plataformas o dever de agir - e não mais apenas reagir - diante de conteúdos que atentam contra a dignidade sexual de crianças e adolescentes. 

 

O que decidiu o STF sobre o art. 19 do Marco Civil

 

Em 26 de junho de 2025, o STF declarou parcialmente inconstitucional o art. 19 do Marco Civil da Internet (lei 12.965, de 2014), estabelecendo hipóteses de responsabilização sem ordem judicial, especialmente em casos de circulação massiva de conteúdos gravíssimos. 

 

O Plenário, por maioria (8×3), entendeu que a exigência de ordem judicial como regra única gerava proteção insuficiente a bens constitucionais sensíveis - como a dignidade humana e a proteção de crianças, mulheres e minorias. 

 

Nesta linha, a Corte fixou novos parâmetros: 

 

- Responsabilização sem ordem judicial quando se tratar de conteúdos impulsionados/pagos ou disseminados por redes artificiais (bots), com presunção de responsabilidade ilidível por prova de diligência;

 

- Indisponibilização imediata de ilícitos gravíssimos, como material de abuso sexual infantil, cuja inércia caracteriza "falha sistêmica"; 

 

- Mensageria privada e e-mails seguem sob maior proteção e exigem ordem judicial; 

 

- Crimes contra a honra continuam, em regra, sujeitos à prévia decisão judicial; 

 

- Modulação de efeitos: aplicação apenas para fatos futuros. 

 

Ao nominar ao material de abuso sexual infantil entre os ilícitos gravíssimos, o STF encurtou a resposta das plataformas, autorizando sua responsabilização por omissão mesmo sem ordem judicial, quando houver disseminação massiva. 

 

A visão do STJ: O dever de proteger e o alcance da repressão 

 

A jurisprudência do STJ reforça o dever de proteção à infância e a gravidade dos crimes de armazenamento e compartilhamento de CSAM. 

 

No julgamento do Tema repetitivo 1.168 (2023), a 3ª seção firmou que os arts. 241-A (compartilhar) e 241-B (armazenar) do ECA tutelam bens jurídicos distintos, sendo possível o concurso material entre ambos. 

 

O Tribunal reconheceu que cada arquivo armazenado prolonga o sofrimento e que cada compartilhamento amplia o dano. Como destacou o ministro Rogério Schietti Cruz: 

 

"Não há espaço para relativizações ou teses defensivas de curiosidade, pesquisa ou consumo privado, pois qualquer forma de posse ou circulação de material de abuso sexual infantil é socialmente intolerável e perpetua a violência contra a vítima retratada." (STJ - REsp 1.957.318/SP, Rel. Min. Rogério Schietti Cruz, Sexta Turma, julgado em 28/03/2023, DJe 10/04/2023) 

 

Essas decisões demonstram sensibilidade institucional e reafirmam que a infância não pode ser objeto de relativização jurídica. Limitar a atuação investigativa por formalismos processuais reduz a capacidade de resposta do Estado e favorece criminosos que se escondem em ambientes digitais anônimos. 

 

A proteção efetiva exige cooperação, rapidez e integração entre polícias civis, federais e órgãos de inteligência, garantindo que nenhuma criança fique desamparada por entraves burocráticos. 

 

O ECA Digital (lei 15.211/25) 

 

O ECA Digital surgiu em um contexto de intensa mobilização social, motivado pela grande repercussão em torno do tema da "adultização de crianças na internet". O debate ganhou força após a divulgação do vídeo "Adultização", em agosto de 2025, pelo influenciador Felca, que expôs práticas de erotização precoce, exploração simbólica e mercantilização da infância em redes sociais. A comoção pública levou à apresentação de diversos projetos legislativos e impulsionou a consolidação do PL 2.628/22, posteriormente denominado ECA Digital, como resposta institucional à necessidade de reforçar a proteção infantojuvenil no ambiente virtual.

 

Embora os fenômenos de adultização e de CSAM - Child Sexual Abuse Material possam se cruzar em suas consequências sociais, eles possuem naturezas distintas.

 

A adultização refere-se à atribuição precoce de comportamentos, estéticas ou papéis típicos do universo adulto a crianças e adolescentes, frequentemente por meio da exposição midiática e da influência de padrões de consumo digital - o que acarreta riscos à formação psíquica e à percepção de autoimagem.

 

Já o CSAM constitui material tipificado criminalmente, que documenta, promove ou simula abuso sexual real, físico ou digital, envolvendo crianças e adolescentes. Em síntese, a adultização é um fenômeno cultural e social de sexualização simbólica, enquanto o CSAM representa uma violência direta e jurídica, punida pelos arts. 240 a 241-E do ECA - Estatuto da Criança e do Adolescente.

 

Diferentemente do Marco Civil da Internet, que adotava uma lógica predominantemente reativa, o ECA Digital inaugura um modelo de responsabilização proativa, exigindo que as empresas de tecnologia antecipem riscos e implementem sistemas de proteção por design (safety by design4). O objetivo é impedir que o dano aconteça - e não apenas reagir quando ele já ocorreu. 

 

Essa distinção entre modelos reativos e proativos é central para compreender a mudança de paradigma. Conforme já dito, o modelo reativo, consagrado no art. 19 do Marco Civil da Internet, condicionava a atuação das empresas à provocação judicial. Em outras palavras, a empresa só agia apenas após ser notificada ou intimada por decisão judicial, o que retardava a remoção de conteúdos ilícitos, mesmo quando envolviam abuso sexual de crianças e adolescentes. Nessa lógica, o sistema funcionava como um "pós-socorro jurídico", atuando depois do dano consumado. 

 

O modelo proativo, por sua vez, rompe com essa passividade institucional e tecnológica. Ele impõe às plataformas o dever de prevenir, identificar e mitigar riscos antes que o dano ocorra, utilizando ferramentas automatizadas de detecção, mecanismos de denúncia acessíveis e fluxos de resposta imediata. Trata-se de um dever de vigilância proporcional e justificado, voltado à proteção de bens jurídicos especialmente sensíveis - como a dignidade e a integridade sexual de crianças e adolescentes. 

 

Na temática do CSAM, essa mudança é particularmente significativa. O tempo é um fator determinante: cada minuto de exposição de uma imagem de abuso representa uma nova violação à vítima. Portanto, agir proativamente significa salvar vítimas da reiteração da violência, enquanto a reação judicializada perpetua o sofrimento e favorece a impunidade. 

 

O enfoque proativo também reflete a evolução das normas internacionais de governança digital, como o EU Digital Services Act5 e o UK Online Safety Act6, que igualmente impõem aos serviços digitais a obrigação de incorporar a proteção infantil ao design e ao funcionamento cotidiano de seus sistemas. Assim, o ECA Digital transfere o eixo da proteção, deslocando o Estado de uma posição exclusiva de repressão para um papel de corregulação, no qual o setor privado compartilha a responsabilidade de proteger a infância no ciberespaço. 

 

O impacto social e jurídico: "onde há fumaça, há fogo" 

 

A gravidade dos crimes que envolvem CSAM transcende o campo jurídico. O conteúdo digital frequentemente funciona como intermediário de crimes físicos - estupro de vulnerável, turismo sexual, tráfico de crianças e exploração sistemática de corpos infantis. Em muitos casos, o compartilhamento de imagens é apenas a ponta visível de uma cadeia subterrânea de abuso real, alimentada por redes criminosas que lucram com o sofrimento humano. 

 

Vestígios digitais - fotos, links, vídeos ou fóruns aparentemente inofensivos - são, na realidade, rastros deixados por violências concretas e continuadas, muitas vezes cometidas em diferentes países e replicadas em incontáveis dispositivos. Tratar esses materiais como mero conteúdo é desumanizar a dor das vítimas e reduzir a infância a um produto de consumo. 

 

O material de abuso sexual infantil é mais do que um arquivo: é uma prova viva de um crime em andamento, um retrato do instante em que a inocência foi destruída e a dignidade, violada. Cada visualização, uma reabertura do trauma. Não há neutralidade possível diante de algo que representa a escravização e a tortura psicológica de uma criança. 

 

Como ilustra a obra The Sound of Freedom (Tim Ballard, 2019), cada vez que a imagem de uma criança é produzida, compartilhada ou monetizada, ocorre uma nova forma de escravização. O abuso não se encerra no instante da captura, mas se renova a cada visualização, clique ou lucro obtido com aquele material. Nesse contexto, a internet deixa de ser apenas o meio e passa a se tornar o próprio cenário do crime - e toda omissão diante dessa realidade se converte em cumplicidade. 

 

Essa passagem revela a essência mais degradante do CSAM: a repetição da violência sob a aparência de normalidade digital. A cada clique, o agressor revive o ato e reafirma o poder de dominação sobre a vítima; a cada compartilhamento, a sociedade se torna cúmplice, mesmo que por omissão. Não há espaço ético ou jurídico para indiferença diante de um crime que transforma a inocência em mercadoria e o sofrimento em entretenimento. 

 

A neutralidade tecnológica, invocada tantas vezes como escudo, não pode justificar a passividade diante dessa barbárie. A liberdade de expressão não protege a crueldade, e o contraditório não pode ser usado como refúgio para a exploração sexual de crianças e adolescentes. Combater o CSAM é mais do que cumprir a lei - é reafirmar o valor absoluto da vida e da dignidade humana. 

 

Trata-se de um imperativo civilizatório: proteger as crianças é proteger o que há de mais elementar na condição humana. Cada ação de denúncia, remoção, investigação ou prevenção é uma forma de restaurar a justiça e devolver às vítimas o direito de existir sem o peso da revitimização eterna. 

 

A infância não pode esperar

 

O enfrentamento à violência sexual digital contra crianças e adolescentes deixou de ser apenas uma pauta criminal: tornou-se um teste moral e civilizatório para toda a sociedade conectada. O ECA Digital consolida um novo paradigma de proteção, no qual a omissão é compreendida como forma de cumplicidade e a neutralidade tecnológica, como falha sistêmica.

 

O dever de agir não se limita às autoridades públicas - ele se estende aos provedores de aplicações, aos provedores de tecnologia e a cada cidadão que testemunha a violação da infância no ambiente virtual. A internet não é um território sem lei, e a proteção das crianças não pode ser postergada por formalismos processuais ou por alegações de inviabilidade técnica.

 

Agir com rapidez, remover com diligência e prevenir com inteligência são responsabilidades que derivam diretamente do princípio constitucional da prioridade absoluta (art. 227 da Constituição Federal). Quando uma criança é exposta, cada minuto conta - e cada omissão pesa.

 

A infância não pode esperar porque o tempo, no ambiente digital, é o vetor do crime. Cada clique que reforça a violência é também uma oportunidade perdida de interromper o ciclo. A resposta que se exige não é apenas legal, mas humana: proteger a infância é proteger o futuro, e agir agora é a única forma de garantir que ele ainda exista. Trata-se de mais do que uma escolha moral - é um dever constitucional que não admite espera.

 

Referências 

 

BRASIL. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, 1988. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 5 nov. 2025.

 

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil (Marco Civil da Internet). Diário Oficial da União, Brasília, DF, 24 abr. 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 5 nov. 2025.

 

BRASIL. Lei nº 8.069, de 13 de julho de 1990. Dispõe sobre o Estatuto da Criança e do Adolescente. Diário Oficial da União, Brasília, DF, 16 jul. 1990. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8069.htm. Acesso em: 5 nov. 2025.

 

BRASIL. Lei nº 15.211, de 1º de julho de 2025. Altera o Estatuto da Criança e do Adolescente para dispor sobre a proteção de crianças e adolescentes no ambiente digital (ECA Digital). Diário Oficial da União, Brasília, DF, 2 jul. 2025.

 

BRASIL. Supremo Tribunal Federal. Ação Direta de Inconstitucionalidade - ADI 6.449/DF. Relator: Min. Dias Toffoli. Julgamento em 26 jun. 2025. Plenário.

 

BRASIL. Superior Tribunal de Justiça. Habeas Corpus nº 598.051/RS. Relator: Min. Ribeiro Dantas. Quinta Turma, julgado em 15 set. 2020, DJe 25 set. 2020.

 

BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 1.957.318/SP. Relator: Min. Rogério Schietti Cruz. Sexta Turma, julgado em 28 mar. 2023, DJe 10 abr. 2023.

 

eSAFETY COMMISSIONER. Safety by Design: Principles and resources for technology companies. Sydney: Australian Government, 2021. Disponível em: https://www.esafety.gov.au/industry/safety-by-design. Acesso em: 5 nov. 2025.

 

EUROPEAN UNION. Digital Services Act - Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market for Digital Services. Official Journal of the European Union, 27 out. 2022. Disponível em: https://eur-lex.europa.eu/eli/reg/2022/2065/oj/eng. Acesso em: 5 nov. 2025.

 

UNITED KINGDOM. Online Safety Act 2023 (c. 50). London: UK Government, 2023. Disponível em: https://www.legislation.gov.uk/ukpga/2023/50. Acesso em: 5 nov. 2025.

 

SAFERNET BRASIL. Nota Técnica nº 02/2025: Uso da inteligência artificial generativa no abuso infantil digital. Salvador: SaferNet Brasil, 20 ago. 2025. Disponível em: https://new.safernet.org.br/. Acesso em: 5 nov. 2025.

 

NATIONAL CENTER FOR MISSING & EXPLOITED CHILDREN (NCMEC). PhotoDNA and Hash Matching Technologies. Washington, D.C., 2022. Disponível em: https://www.missingkids.org/. Acesso em: 5 nov. 2025.

 

BALLARD, Tim. The Sound of Freedom. [Filme]. Dirigido por Alejandro Monteverde. Los Angeles: Angel Studios, 2019.

 

1 Deepfakes são conteúdos sintéticos (imagens, vídeos ou áudios) gerados ou manipulados por meio de técnicas de inteligência artificial, especialmente redes neurais generativas (GANs), capazes de substituir rostos, vozes ou contextos de forma altamente realista, com potencial de causar desinformação, difamação e exploração ilícita de imagem.

 

2 Hash-matching é um método automatizado de identificação de conteúdo digital ilícito que compara o hash - uma assinatura criptográfica única gerada por algoritmos como MD5, SHA-1 ou PhotoDNA - de um arquivo suspeito com bancos de dados previamente catalogados por entidades como o NCMEC e a SaferNet Brasil. Essa técnica permite localizar e remover imagens de abuso sexual infantil, mesmo quando modificadas em formato, resolução ou compressão, sendo amplamente utilizada em processos de moderação proativa de plataformas digitais e em investigações de crimes cibernéticos. SAFERNET BRASIL. Nota Técnica nº 02/2025: Uso da inteligência artificial generativa no abuso infantil digital. Salvador: SaferNet Brasil, 20 ago. 2025. Disponível aqui. Acesso em: 5 nov. 2025.

 

3 SAFERNET BRASIL. Nota Técnica 2/2025: Uso da inteligência artificial generativa no abuso infantil digital. Salvador: SaferNet Brasil, 20 ago. 2025. Disponível aqui. Acesso em: 5 nov. 2025.

 

4 O conceito de Safety by Design (segurança desde a concepção) refere-se à incorporação de princípios de proteção, segurança e bem-estar dos usuários já na fase de planejamento, arquitetura e desenvolvimento de produtos e serviços digitais. Essa abordagem, promovida pelo governo australiano e adotada por organismos internacionais como a UNICEF e a European Commission, propõe que empresas de tecnologia assumam responsabilidade preventiva na mitigação de riscos online, especialmente para crianças e adolescentes. eSAFETY COMMISSIONER. Safety by Design: Principles and resources for technology companies. Sydney: Australian Government, 2021. Disponível aqui. Acesso em: 5 nov. 2025.

 

5 Digital Services Act (Regulamento (EU) 2022/2065) é a norma da European Commission que estabelece um quadro único de obrigações para serviços digitais no mercado europeu, visando maior transparência, moderação de conteúdo e proteção dos usuários. Disponível aqui.

 

6 Online Safety Act (2023 c. 50) é a lei do United Kingdom que impõe deveres legais às plataformas online para prevenir conteúdos ilegais e nocivos, especialmente em relação à proteção de crianças, e confere poderes regulatórios à Ofcom. Disponível aqui.

 

Fonte: Migalhas.


topo