17 julho, 2025
quinta-feira, 17 julho, 2025

Redes afirmam que colaboram com investigações de crimes on-line

Compartilhe

Jovens mexendo nas redes sociais

Diante da alarmante crescente de crimes cibernéticos direcionados a crianças e adolescentes no Brasil, redes sociais estão intensificando seus esforços para combatê-los. Essas plataformas afirmam estar implementando novos mecanismos de moderação e colaborando estreitamente com as autoridades para garantir a segurança de seus usuários mais jovens.

Plataformas como Discord, WhatsApp e TikTok se tornaram não apenas espaços de interação, mas também potencialmente vulneráveis ao aliciamento e à exploração online. Especialistas apontam que os criminosos estão cada vez mais utilizando essas redes para encontrar e abordar vítimas, aumentando a urgência da questão de proteção digital.

Alesandro Barreto, coordenador do Ciberlab do Ministério da Justiça, destaca o fenômeno do “uso dual da tecnologia”. Embora as plataformas tenham sido criadas com propósitos legítimos, muitos indivíduos mal-intencionados as manipulam para fins ilegais. A percepção é clara: nenhuma rede é exclusivamente responsável por esse problema, mas todas precisam melhorar suas medidas de controle e moderação.

O TikTok, por exemplo, enfatiza que “a segurança de jovens é prioridade máxima” e que sua estrutura inclui medidas de proteção desde o início. A plataforma relata que sempre que identifica uma ameaça concreta, informa as autoridades, a exemplo do caso de uma suposta ameaça durante um show da Lady Gaga no Rio de Janeiro.

Com uma equipe dedicada de mais de 40 mil moderadores, o TikTok implementa configurações específicas para usuários entre 13 e 18 anos. Os responsáveis podem vincular suas contas, possibilitando supervisão e controle sobre a interação dos adolescentes na plataforma.

Similarmente, o Discord tem trabalhado em parceria com as autoridades para prevenir comportamentos prejudiciais. A plataforma realiza treinamentos que capacitam agentes de segurança a solicitar informações de forma eficaz, essencial para transformar dados reunidos em provas concretas em processos judiciais.

Um dos desafios nesse combate é a moderação de conteúdo, que, embora ainda apresente lacunas, é fundamental. Ferramentas de monitoramento, tanto automáticas quanto humanas, são usadas para identificar e coibir o uso de códigos e gírias criados por criminosos para burlar os sistemas de segurança, como a utilização do termo “luz” para disfarçar atividades nocivas.

No Brasil, o Discord estabeleceu equipes especializadas para identificar e eliminar conteúdos perigosos que possam afetar a comunidade jovem. Por sua vez, a Meta, responsável do WhatsApp, Instagram e Facebook, atualizou suas políticas para adolescentes, garantindo que jovens usuários tenham contas com proteções ajustadas automaticamente, exigindo a permissão dos pais para qualquer alteração.

O WhatsApp conta com tecnologias que abrange interações abusivas e está sempre aprimorando suas ferramentas de identificação de material inadequado, reportando atividades ilegais à linha de denúncia CyberTipline do NCMEC.

Outro ambiente que requer atenção é o ecossistema dos jogos online, especialmente plataformas como Roblox, que atraem uma base de usuários predominantemente jovem. Embora não tenha revelado ações específicas no Brasil, reafirma seu compromisso em desenvolver políticas de segurança robustas e em colaboração com especialistas na área.

É crucial que todos os envolvidos na proteção de crianças e adolescentes online reconheçam a importância de permanecer vigilantes. O combate a crimes virtuais requer uma ação conjunta e contínua. Como você enxerga a eficácia dessas medidas de segurança nas plataformas? Compartilhe suas ideias e preocupações nos comentários!

Você sabia que o Itamaraju Notícias está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.

Veja também

Mais para você