Policiais de Charlotte, na Carolina do Norte (EUA) serão usados para testar um novo sistema que usa inteligência artificial para prever quando um deles estiver prestes a se comportar de maneira inapropriada perante à população.

A plataforma está sendo desenvolvida por estudantes da Universidade de Chicago com participação na política de dados da Casa Branca. O trabalho foi iniciado no meio do ano passado, segundo informa o FiveThirtyEight.

Para construir o programa, os pesquisadores analisaram informações reunidas junto aos próprios policiais ao longo dos últimos dez anos. Alguns padrões podem revelar o comportamento dos oficiais; foi descoberto, por exemplo, que aqueles com mais casos de interações adversas em um ano são os mais prováveis de causar problemas no ano seguinte.

Parte do trabalho dos pesquisadores, na verdade, consiste em melhorar um algoritmo já existente em Charlotte. A própria polícia de Chicago tocou um experimento semelhante mais de 20 anos atrás, mas teve de desistir em cerca de dois anos por pressão do sindicado dos oficiais.

Havia uma desconfiança maior em sistemas do tipo no passado, mas tecnologias de predileção melhoraram muito nos últimos anos – tanto que foi a polícia de Charlotte que se voluntariou para participar do novo experimento, apesar de apresentar um baixo número de ocorrências envolvendo seus funcionários.

As análises prévias mostraram que a própria natureza do trabalho dos policiais pode contribuir para desvios de conduta – oficiais que atendem chamados de suicídio ou violência doméstica logo pela manhã têm mais chances de se envolver em interações adversas no fim daquele dia, por exemplo. O sistema vai olhar para esses cenários para colocar policiais em observação, na intenção de que esse tipo de consequência não ocorra, porque “interações adversas” vão desde paradas mal educadas no trânsito a ocorrências de tiro.