Fawkes: conheça método que engana sistemas de reconhecimento facial

Tecnologia desenvolvida pela Universidade de Chicago embaralha os pixels das fotos e dificulta o uso de algoritmos
Equipe de Criação Olhar Digital04/08/2020 19h27

20191202032707
Publieditorial

Atualmente, precisamos tomar diversas precauções para que nossas imagens publicadas nas redes sociais não caiam nas mãos erradas. Com sistemas de aprendizado de máquina mais presentes e disponíveis, o treinamento de poderosos modelos de aprendizado pode ser feito usando conjuntos de dados menores.

Evitar esse tipo de vazamento de informações pessoais levou muitas pessoas a criar métodos novos e criativos para escapar dessa vigilância. Alguns deles, como usar máscaras ou pintar o rosto, teoricamente podem impedir o roubo de suas fotos, mas ao custo de modificar muito sua aparência. Agora, uma equipe da Universidade de Chicago criou uma tática muito mais sutil, porém funcional, para driblar esse algoritmo de espionagem.

O sistema foi apelidado de “Fawkes” – uma homenagem à máscara de Guy Fawkes que virou símbolo do grupo Anonymous. Os pesquisadores começaram a trabalhar nele no final do ano passado, com o objetivo de frustrar empresas como a Clearview AI, que criam grandes bancos de dados de rostos raspando dados de posts públicos em redes sociais. O serviço de reconhecimento facial da empresa baixou mais de três bilhões de fotos de pessoas na internet.

“Acreditamos que a Clearview AI provavelmente seja apenas a ponta (bastante grande) do iceberg”, escreveram os pesquisadores. “Se pudermos reduzir a precisão desses modelos para torná-los não confiáveis ou forçar os proprietários a pagar custos significativos por pessoa para manter a precisão, já seria um sucesso”.

Quando uma companhia de reconhecimento facial como a Clearview AI é treinada para reconhecer a aparência de uma determinada pessoa, esse reconhecimento acontece quando o sistema faz a ligação entre uma foto de um rosto (como uma foto de perfil do Facebook) e outra imagem desse mesmo rosto (a foto de um documento, por exemplo) e encontra semelhanças entre as fotos.

Segundo a equipe de Chicago, isso não significa apenas encontrar geometria facial, cor de cabelo ou marcas na pele correspondentes. É necessário também identificar relações invisíveis entre os pixels que compõem uma imagem dessa face gerada por computador.

fawkes-reconhecimento-facial-universidade-de-chicago.jpg

Fotos originais (esq.) foram levemente modificadas com o Fawkes (dir.) para enganar softwares de reconhecimento facial. Imagem: Universidade de Chicago

Você ainda seria capaz de reconhecer esse rosto mesmo se trocarmos ou distorcermos alguns desses pixels, mas os algoritmos de reconhecimento facial mais famosos entenderiam isso como uma pessoa completamente diferente. Essa técnica de “ocultação de imagem”, como é chamada pelos cientistas, conseguiu enganar os sistemas usados por Amazon, Microsoft e Google em 100% das tentativas, segundo a pesquisa.

O Fawkes foi disponibilizado gratuitamente para download no site da Universidade de Chicago. Caso você tenha uma foto que deseja proteger de possíveis coletas de dados, pode carregá-la no Fawkes, que embaralha esses pixels invisíveis. A equipe afirma que o processo dura cerca de 40 segundos por foto. O artigo será apresentado no próximo Simpósio de Segurança da USENIX, entre os dias 12 e 14 de agosto.

Você pode então fazer o upload dessa foto modificada em uma rede social de sua preferência. Caso uma empresa como a Clearview vasculhe suas fotos públicas, essa provavelmente não será compatível com nenhum de seus outros dados.

Evidentemente, o programa não vai destruir empresas assim. Na verdade, ele quer ser uma dor de cabeça para elas. “O Fawkes foi projetado para aumentar significativamente os custos de construção e manutenção de modelos precisos para o reconhecimento facial em larga escala”, afirmam os pesquisadores, ressaltando que qualquer pessoa conseguiria “identificar uma pessoa-alvo em um tempo igual ou menor” usando seus próprios olhos em vez de recorrendo a um software de reconhecimento.

Via: SAND Lab