Na quarta-feira (14), o Facebook informou que está mudando a forma como os grupos da rede social são mostrados. Agora, apenas duas opções de privacidade estarão disponíveis para os usuários – “privado” e “público”. Antes da mudança, era possível configurar o grupo como “secreto”, além das outras duas categorias mencionadas.
Assim que a alteração for implementada, os grupos marcados como “secretos” serão substitídos por “privados” e estarão visíveis apenas para membros. Os administradores das comunidades terão a opção de alternar entre as duas categorias livremente, além de poder ativar a opção de o grupo ser encontrado nos resultados de pesquisa.
“Ao separarmos as configurações de privacidade das postagens, e membros, da capacidade de encontrar o grupo pela pesquisa da rede social, tornamos mais fácil para os administradores entenderem e gerenciarem as configurações de privacidade de suas comunidades, além de ser mais fácil para os membros saberem informações importantes, como quem pode encontrar o grupo”, explicou Jordan Davis, gerente de produtos do Facebook Groups.
As mudanças nos grupos fazem parte da “Iniciativa de Comunidades Seguras”, que inclui algo que o Facebook está chamando de “detecção proativa”. “Nossas políticas e tecnologia de detecção proativa continuam a se aplicar a grupos privados e públicos, assim como foi feito anteriormente para as configurações de privacidade de grupos públicos, fechados e secretos. Isso nos permite encontrar e remover conteúdo nocivo e que viole nossas diretrizes, ajudando a manter o Facebook seguro”, afirmou Nir Matalon, gerente de produto do Facebook Groups.
Como forma de fiscalizar melhor os grupos, Tom Alison, vice-presidente de engenharia do Facebook, declarou no blog oficial da plataforma, que a empresa criou uma ferramenta, chamada “Group Quality”, que analisa todos os grupos em busca de conteúdo que viole os padrões da comunidade – independente das configurações de privacidade.
“Como o conteúdo é sinalizado por nossos sistemas ou relatado por pessoas, revisores treinados consideram o contexto e determinam se ele viola nossos Padrões de Comunidade. Em seguida, usamos esses exemplos para treinar nossa tecnologia para melhorar a detecção e a remoção de conteúdo semelhantes”, disse Alison na postagem.
Via: BuzFeedNews