Facebook recusou ideias para tornar rede social menos polarizada

Companhia produziu relatórios internos sobre como o mecanismo de recomendação da plataforma afeta a sociedade
Equipe de Criação Olhar Digital27/05/2020 16h15

20191105022516-1920x1080
Publieditorial

O Facebook ignorou relatórios internos sobre a capacidade do seu algoritmo de recomendação favorecer a polarização política na plataforma, segundo informa o The Wall Street Journal.

Uma equipe de pesquisadores da companhia apresentou, em 2018, um estudo sobre os efeitos sociais negativos do mecanismo, além de iniciativas para atenuar esses impactos. A empresa, no entanto, ignorou as informações e adotou um discurso para eximir sua responsabilidade diante da inflamação de divisões na rede.

“Nossos algoritmos exploram a atração do cérebro humano por meio da divisão”, aponta o relatório de 2018. O documento diz ainda que “Se [o algoritmo] não for ajustado, o facebook forneceria aos usuários conteúdos cada vez mais polarizados, ao passo que [esses conteúdos] ganhariam a atenção dos usuários e aumentariam o tempo [de uso] da plataforma”.

O principal motivo para a discussão não ter prosseguido dentro da companhia foi o receio de alguns executivos do Facebook de que alterações no algoritmo de recomendação pudessem afetar desproporcionalmente páginas e grupos de discurso político conversadores.

A reportagem aponta, sobretudo, a influência do vice-presidente da políticas públicas globais do Facebook, Joel Kaplan. O executivo é apontado como um dos responsáveis por impedir políticas de moderação de conteúdo mais rigorosas. Ele influenciou, por exemplo, a decisão da empresa de não proibir anúncios políticos com conteúdos desinformativos na rede social.

Reprodução

Antes de integrar equipe de executivos do Facebook, Joel Kaplan trabalhou no governo do presidente George. W. Bush. Imagem: LEAH FARRELL/ROLLINGNEWS.IE

Propostas

Kaplan foi adverso a pelo menos duas iniciativas propostas pela força-tarefa de pesquisadores do Facebook. A operação, batizada de Common Ground, sugeriu um sistema em que moderadores de grupos na rede social poderiam criar subgrupos temporários para isolar discussões inflamadas dentro da comunidade. Além disso, os administradores poderiam limitar a frequência de publicações.

Outra ideia, de acordo com os relatórios internos da companhia, era aumentar a gama de grupos sugeridos pelo algoritmo de recomendação da plataforma. O mecanismo ainda estabeleceria a prioridade para a promoção de grupos associados a conteúdos neutros que poderiam agregar usuários em torno de um mesmo interesse fora de discursos polarizados.

Os próprios pesquisadores apontaram, no entanto, que as medidas apresentadas poderiam provocar a queda de engajamento de usuários na rede social, e as ideias não prosseguiram.

Reprodução

O CEO do Facebook, Mark Zuckerberg. Foto: Reprodução/Flickr

Super compartilhadores

A força-tarefa ainda indicou medidas para reduzir o alcance de perfis conhecidos como “super compartilhadores”. Os cientistas do Facebook identificaram que algumas contas na rede social chegam a registrar 1,5 mil interações por dia, com tempo de uso da plataforma de até 20 horas, enquanto a maioria das páginas apresentam uma média de 15 ações diárias.

Os dados levantaram a suspeita que os perfis hiperativos são administrados por mais de uma pessoa ou correspondem a robôs. A pesquisa apontou que eles publicam muito mais conteúdo partidário em comparação com usuários comuns. A ideia de restringir o alcance desses canais, segundo o estudo, afetaria mais perfis associadas a posições de extrema direita e extrema esquerda, e favoreceria usuários com discursos mais moderados.

Os documentos ainda indicam que, nos Estados Unidos, grupos políticos conservadores apresentam uma estrutura maior de perfis partidários, se comparados com grupos políticos liberais. A constatação baseou o argumento de alguns executivos, como Kaplan, que as mudanças no algoritmo podem ter efeitos desproporcionais sobre os usuários.

Posicionamento

Em resposta a questionamentos do The Wall Street Journal, um representante do Facebook respondeu: “Aprendemos muito desde 2016 e não somos a mesma empresa hoje. Criamos uma equipe de integridade robusta, fortalecemos nossas políticas e práticas para limitar conteúdo nocivo e usamos pesquisas para entender o impacto de nossa plataforma na sociedade, para que continuemos a melhorar. Em fevereiro passado, anunciamos um financiamento de US$ 2 milhões para apoiar propostas de pesquisa independentes sobre polarização.”.

Fonte: The Wall Street Journal