O Twitter está tomando algumas medidas para reduzir comentários tóxicos na rede social. A empresa começou a testar um recurso que dará ao usuário a oportunidade de repensar o envio de mensagens de baixo calão na hora de responder alguma publicação de outra pessoa.
O sistema entrará em ação quando perceber que o usuário digitou mensagens de cunho ofensivo destinadas ao outro. Isso inclui, por exemplo, injúrias raciais e palavrões, de acordo com o Twitter.
Que fique claro, no entanto: o Twitter não vai bloquear a publicação de ofensas diretas. O usuário que tiver certeza do que está publicando, ainda poderá confirmar sua postagem, mesmo com palavrões, xingamentos e injúrias. A única função do novo recurso é fazer a pessoa se questionar se aquela linguagem é necessária.
“Quando as coisas esquentam, você pode dizer algumas coisas que você não queria. Para que você possa repensar uma resposta, estamos realizando um experimento limitado no iOS com uma janela que dá a você a opção de revisar sua resposta antes que ela seja publicada se ela utilizar linguagem que possa ser nociva”, diz o comunicado oficial.
When things get heated, you may say things you don’t mean. To let you rethink a reply, we’re running a limited experiment on iOS with a prompt that gives you the option to revise your reply before it’s published if it uses language that could be harmful.
— Twitter Support (@TwitterSupport) May 5, 2020
Por se tratar de um experimento de alcance limitado entre alguns usuários do iOS, existe a possibilidade de que o recurso não seja expandido para o restante dos usuários se a empresa constatar que não alcançou o resultado esperado.
A empresa também deve medir a reação do público à medida durante esse período experimental. É bastante possível que grupos de usuários mais barulhentos fiquem incomodados em terem sua atenção chamada pelo aplicativo devido ao uso de linguagem negativa.