Mais de 6000 pessoas de mais de 100 países diferentes participaram do primeiro concurso de beleza do mundo a ter inteligências artificiais como juízes. Os resultados do Beauty.ai, no entanto, acabaram revelando que os robôs programados para atuar no painel de julgamento não conseguem superar os problemas da sociedade que os criou.
De acordo com o The Next Web, cinco algoritmos diferentes compuseram o painel de juízes do concurso. A ideia era que eles selecionassem os candidatos que se assemelhassem melhor à sua ideia de “beleza humana”. Para isso, os participantes enviavam fotos de seus rostos para um aplicativo do concurso, que então as encaminhava às máquinas.
Segundo o regulamento do concurso, os robôs avaliavam as imagens em cinco aspectos: o RYNKL avaliava as rugas do rosto; o PIMPL analisava as pintas e a pigmentação das faces; a MADIS pontuava os candidatos de acordo com sua semelhança a modelos de seus grupos étnicos; o Simetry Master avaliava a simestria dos rostos, e o AntiAgeist notava a diferença entre a idade cronológica e a idade aparende dos candidatos.
Vencedores
Os robôs escolheram, no total, 44 vencedores para o concurso. Alguns eram asiáticos, um deles era negro, e o resto eram todos brancos. Segundo o Guardian, o concurso teve de fato uma maioria de participantes brancos, mas a distribuição de vencedores não chegou nem perto da distribuição de participantes, já que grandes grupos da Índia e da África enviaram suas fotos.
E essa não é a primeira vez em que sistemas de inteligência artificial acabam retornando resultados racistas. O Google já foi acusado mais de uma vez de racismo por causa de resultados de seu buscador, e se desculpou em seguida. A Microsoft, por sua vez, criou um robô que em poucos dias virou racista, e também se desculpou pouco depois.
Motivações
Pode parecer engraçado que um robô acabe se tornando racista, mas o assunto é extremamente sério. Ainda de acordo com o Guardian, o concurso foi criado por um grupo chamado de Youth Laboratories, que se especializa em aprendizado de máquina. E técnicas de aprendizado de máquina, como redes neurais, dependem de um período de treinamento para as máquinas.
Como as redes precisam ser treinadas a partir de um conjunto de imagens, a qualidade de suas respostas dependerá da qualidade de seu treinamento. E se essas redes foram alimentadas com uma qualdiade desproporcional de imagens de pessoas brancas, elas acabam reproduzindo essa distornção em seus resultados. Segundo Alex Zhavoronkov, o chefe de pesquisa do Beauty.ai, o problema do concurso foi que os algoritmos foram treinados com um conjunto pouco diverso de imagens.
Segundo o professor Bernard Harcourt da Columbia University, o concurso é “a perfeita ilustração do problema” de como a falta de diversidade pode gerar resultados enviesados. Para ele, a máquina apenas reproduziu viéses que já existem na sociedade. “A ideia de que você poderia chegar a uma concepção de beleza culturalmente neutra e etnicamente neutra é simplesmente absurda”, opina.