18 julho, 2025
sexta-feira, 18 julho, 2025

Plataformas cooperam com investigações, mas ainda falta moderação

Compartilhe

Pessoa interagindo nas redes sociais

A presença massiva de crianças e adolescentes no ambiente digital tem chamado a atenção das autoridades, que intensificam o monitoramento de comportamentos criminosos nessas plataformas. Investigações recentes revelam que, embora as grandes empresas de tecnologia demonstrem cooperação nas investigações de crimes digitais, a moderação de conteúdo ainda deixa a desejar, necessitando de um aprimoramento significativo.

A moderação de redes sociais envolve políticas e tecnologias que visam revisar, filtrar, remover ou restringir conteúdos que infringem os termos de uso e leis locais. Esse trabalho pode ser realizado por inteligência artificial, por equipes humanas ou até por uma combinação de ambos. No entanto, o crescente volume de informações compartilhadas torna essa tarefa complexa e desafiadora.

Quando aplicada de forma eficaz, a moderação desempenha um papel vital no combate a crimes cibernéticos que afetam especialmente crianças e adolescentes, como aliciamento e abuso sexual. Ela permite identificar e bloquear contas suspeitas, além de colaborar com investigações. Por outro lado, as falhas nesse processo – como atrasos na remoção de conteúdos impróprios – oferecem brechas que criminosos podem explorar.

Alesandro Barreto, coordenador do Laboratório de Operações Cibernéticas do Ministério da Justiça, destaca a importância do apoio das plataformas na resolução de crimes, ressaltando que em muitos casos, os criminosos acabam sendo capturados rápido após a identificação via canais digitais. Um exemplo alarmante foi um incidente em que uma transmissão ao vivo mostrava um morador de rua sendo queimado vivo, e a autoria foi apurada em poucas horas.

Entretanto, Barreto menciona que melhorias são necessárias, especialmente em relação aos algoritmos dessas plataformas, para que a detecção de conteúdos nocivos, como transmissões violentas, ocorra de maneira mais ágil. Michele Prado, especialista em radicalização online, también alerta para a adaptabilidade dos jovens, que rapidamente podem contornar sistemas de proteção.

Fábio Vieira Costa, procurador de Justiça, enfatiza que o problema não é exclusivo das plataformas de grande porte. Segundo ele, o foco deve ser ampliado, pois jovens e criminosos operam em ambientes diversos, como novas aplicações que surgem frequentemente e o ecossistema gamer, que muitas vezes escapa à vigilância das suas contrapartes maiores.

A falta de verificação robusta de identidade contribui para a proliferação de perfis falsos. Embora algumas plataformas ofereçam opções como verificação por e-mail e telefone, o uso de pseudônimos ainda é comum, dificultando a rastreabilidade. Além disso, a moderação tende a ser reativa, dependendo de denúncias manuais e de sistemas automatizados que não conseguem interpretar nuances da linguagem frequentemente utilizada por jovens.

Um exemplo prático dessa linguagem oculta é o uso de termos como “luz”, adotado por grupos criminosos para se referir a eventos online nocivos, que muitas vezes envolvem automutilação e abuso. À medida que as autoridades começam a identificar esses códigos, os criminosos rapidamente os substituem por novos, dificultando ainda mais a atuação das plataformas.

Embora existam propostas para incrementar a segurança, como verificação obrigatória de identidade e filtros mais eficazes, a implementação dessas medidas depende da vontade técnica e comercial das plataformas. Com o aumento dos crimes cibernéticos no Brasil, redes sociais como Discord, TikTok e Meta prometem reforçar seus mecanismos de moderação e colaborar com as autoridades. Elas afirmam estar investindo em tecnologias avançadas de detecção e em canais de segurança dedicados.

O Discord, por exemplo, destaca sua colaboração com a justiça e a proatividade nas denúncias. Já o TikTok afirma que a segurança dos jovens é uma prioridade e que adota medidas específicas para usuários entre 13 e 18 anos. A Meta, por sua vez, introduziu a Conta de Adolescente no Instagram, enquanto o WhatsApp enfatiza suas políticas para eliminar interações abusivas.

Em resposta a esses desafios, plataformas como Roblox garantiram que estão constantemente aprimorando suas políticas de segurança e proteção à comunidade jovem. Com mais de 40 novas medidas de segurança já implementadas em 2024, a expectativa é que a luta contra os crimes online se intensifique.

E você, o que pensa sobre a responsabilidade das plataformas digitais na proteção de crianças e adolescentes? Compartilhe sua opinião nos comentários!

Você sabia que o Itamaraju Notícias está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.

Veja também

Mais para você