Roblox anunciou ações significativas para aumentar a segurança infantil na plataforma, incluindo novas regras sobre conteúdo sexual e ferramentas de moderação mais rigorosas. As medidas foram divulgadas poucos dias após a Luiziana processar a empresa, alegando que seu ambiente digital está repleto de conteúdos prejudiciais e predadores. O anúncio foi feito em resposta a crescimento das preocupações sobre a proteção das crianças online.
O diretor de segurança da Roblox, Matt Kaufman, afirmou que a empresa está "fazendo várias atualizações importantes para promover a segurança e a civilidade no Roblox". Entre as principais mudanças, a política que proíbe conteúdo romântico e sexual será expandida para incluir qualquer comportamento que insinue atividade sexual, com o objetivo de criar um ambiente mais seguro.
Novas Regras de Conteúdo e Sistema de Classificação
A plataforma limitará experiências não classificadas a desenvolvedores e colaboradores. Para que essas experiências sejam lançadas publicamente, os criadores deverão preencher um Questionário de Conformidade de Maturidade, garantindo que o conteúdo seja adequado tanto para usuários quanto para pais.
“Este novo sistema permitirá que os usuários e seus responsáveis identifiquem facilmente quais conteúdos são adequados”, disse Kaufman. Essa mudança deve ajudar a prevenir a exposição a conteúdo impróprio.
Verificação de Idade em Espaços Sociais
A Roblox também está ampliando o uso de verificação de idade, restringindo experiências sociais em áreas privadas, como quartos e banheiros, apenas para usuários verificados com 17 anos ou mais. Esse novo modelo visa mitigar comportamentos inapropriados, que frequentemente ocorrem em ambientes destinados a adultos, como bares e clubes.
Desenvolvedores que queiram criar experiências para esse público também precisarão ser verificados. Kaufman destacou que a política foi desenhada para equilibrar segurança e criatividade dentro da comunidade.
Promessas de Melhorias nas Ferramentas de Moderação
A Roblox está investindo em novos sistemas de moderação que conseguem identificar comportamentos impróprios em tempo real. Este novo recurso visa detectar comportamentos violadores mesmo em experiências que parecem estar em conformidade com as regras, permitindo que servidores problemáticos sejam suspensos até que os desenvolvedores possam corrigir as questões.
Além disso, a empresa já conta com medidas como estimativa de idade, controles parentais e ferramentas de detecção precoce, e um novo conselho consultivo comunitário será desenvolvido para discutir mais melhorias.