As câmeras de segurança com reconhecimento facial em Copacabana, no Rio de Janeiro, identificaram incorretamente uma mulher como uma foragida da Justiça. O sistema, que usa inteligência artificial, alertou o Centro Integrado de Comando e Controle (CICC) e indicou que uma criminosa, condenada por espancar um homem até a morte, tinha sido localizada em Copacabana nesta terça-feira (09/07). Entretanto, ela era inocente, e apenas mais uma moradora do bairro.
Em cinco minutos, uma viatura da Polícia Militar do Rio de Janeiro cercou a ‘procurada’ na Avenida Nossa Senhora de Copacabana. Levada para a 12ª DP, ela foi liberada mais de uma hora depois. A polícia procurava Maria Lêda Félix da Silva, condenada em julho deste ano a sete anos de prisão por homicídio e ocultação de cadáver. Ela e a companheira Alexandra Toggnoc da Costa foram acusadas de assassinar Wilson Toggnoc, genro de Alexandra, em junho de 2015.
De acordo com o porta-voz da PM, coronel Mauro Fliess, as câmeras trabalham com uma estatística de reconhecimento e, por isso, ocorreu o erro. Ainda segundo o coronel, os policiais militares tentam checar a identificação da pessoa abordada no local. Porém, em casos de dúvida ou de homônimos, elas são levadas para a delegacia. “Assim que o sistema aponta 70% de possibilidade da pessoa ser a procurada, uma viatura é direcionada ao local. A abordagem é feita com respeito aos Direitos Humanos e com cautela do agente”, garantiu.
Um erro recorrente
O sistema de reconhecimento facial começou a ser instalado durante o Carnaval deste ano e, de acordo com o jornal O Dia, passou de nove câmeras para um total de 25 unidades desde a semana passada. A delegada Valéria Aragão, titular da 12ª DP, afirma que não é a primeira vez que um erro semelhante acontece: no Carnaval, a tecnologia também falhou.
A reportagem d’O Dia afirma que as pessoas podem ser indenizadas por serem conduzidas para a delegacia por engano e que há possibilidade dos policiais responderem por abuso. O advogado criminalista Carlos Maggiolo, entrevistado pelo jornal, explica esse direito do cidadão: “Qualquer pessoa honesta sofrerá constrangimentos e danos psicológicos ao ser detida pela polícia, confundida com uma meliante. Cabe ação de indenização por danos morais”, disse.
Especialistas alertam para os potenciais riscos do emprego da tecnologia de reconhecimento facial. Pesquisadores já apontaram que algumas etnias têm mais chances de caírem em falsos positivos, especialmente mulheres negras.
A tendência, porém, é que casos como esse se amplifiquem, já que a tecnologia está começando a ser adotada de forma maciça no Brasil. De acordo com o Gizmodo, o metrô de São Paulo abriu uma licitação para a instalação de um circuito de segurança com reconhecimento facial. Sistemas similares também estão sendo testados em Campinas e Salvador.
Fonte: O Dia