A polícia de Gales do Sul divulgou recentemente alguns dados sobre o sistema de reconhecimento facial que usou para monitorar os jogos da Champion’s League. De acordo com os dados da polícia, o sistema, que compara os rostos das pessoas vistas pela câmera com uma base de dados de potenciais criminosos, emitiu 2.470 alertas – destes, 2.297 (ou 92%) eram falsos positivos.
Em outras palavras, em 92% dos casos o sistema confundiu pessoas com criminosos em potencial. De acordo com a polícia, em casos como esse os policiais podem apenas ignorar o alerta do sistema ou, caso fiquem em dúvida, enviar um agente para verificar. “Se houve erro, os policiais explicarão à pessoa o que aconteceu e a convidarão para ver o equipamento”, dizem as autoridades.
Segundo as autoridades, não houve nenhum caso de alerta em falso que gerou uma prisão. Já há casos de pessoas que foram presas erroneamente por serem confundidas pelos sistemas de reconhecimento facial da polícia, mas nos Estados Unidos. Por lá, Steve Talley foi confundido pelas câmeras com um assaltante de banco, foi preso, passou meses em uma câmara de segurança máxima e sofreu diversas lesões antes de que a situação fosse esclarecida, segundo uma reportagem do Intercept.
Problemas
No dia do jogo da Champion’s League em que o sistema foi empregado, foram escaneadas 170.000 pessoas; entre elas, 2.470 pessoas geraram alertas – ou seja, o sistema as identificou como pertencendo a uma lista de pessoas perigosas. Segundo o Guardian, a polícia alega que o alto número de falsos positivos foi culpa das agências de polícia Uefa e Interpol, que forneceram imagens de baixa qualidade para seu banco de dados.
Fora esse dia, o sistema já vem sendo há nove meses, e nesse período já identificou corretamente pessoas que estavam no banco de dados da polícia mais de 2.000 vezes, levando a 450 prisões. Ainda assim, o Engadget argumenta que o número elevado de falsos positivos pode acabar dificultando o trabalho da polícia em vez de auxiliá-lo. Afinal, a cada alerta, os policiais precisam conferir; e se a taxa de erro é tão alta, o sistema pode acabar sendo ignorado.