Google vai manter cooperação com militares, mas promete não usar IA em armas

Redação08/06/2018 14h08, atualizada em 08/06/2018 14h42

20180608112024

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Sundar Pichai, o CEO global do Google, anunciou nesta semana uma série de princípios que a empresa promete seguir a partir de agora no desenvolvimento de soluções de inteligência artificial, internamente e com parceiros. Entre elas, o Google se compromete a não aplicar a tecnologia em armas, mas diz que vai continuar cooperando com militares.

A divulgação desses princípios acontece dias após ser descoberto que o Google não vai renovar seu contrato com o Departamento de Defesa dos Estados Unidos. A empresa sofreu forte pressão de funcionários para encerrar a parceria, já que uma das principais soluções de inteligência artificial do Google, o Tensorflow, estava sendo usado em um projeto de vigilância por drones do exército dos EUA.

O objetivo do chamado “Project Maven” era usar a IA para identificar pontos de interesse das forças armadas em filmagens obtidas por drones. O Google disse que a tecnologia era “voltada para salvar vidas”, mas um grupo de centenas de funcionários assinou um manifesto levantando “questões éticas” no uso da tecnologia para fins militares.

O contrato do Google com o Departamento de Defesa dos EUA se encerra em 2019 e não será renovado, aparentemente como resposta à pressão dos funcionários. E nesta semana, Sundar Pichai listou publicamente sete regras que o Google vai seguir no desenvolvimento de IA a partir de agora.

“Nós acreditamos que IA deve: 1) ser benéfica socialmente; 2) evitar criar ou reforçar preconceitos; 3) ser feita e testada para a segurança; 4) ser sujeita ao controle de pessoas; 5) incorporar princípios de privacidade; 6) manter altos padrões de excelência científica; 7) ser disponibilizada para usos que estejam de acordo com estes princípios”, escreveu Pichai.

No mesmo artigo, o CEO do Google descreve as áreas em que a empresa não vai aplicar ferramentas de IA: tecnologias que causam ou podem causar danos; armas ou tecnologias cujo propósito principal seja o de ferir pessoas; vigilância em desacordo com normas internacionais; e tecnologias cujo propósito contraria leis internacionais e direitos humanos.

“Queremos deixar claro que, embora nós não estejamos desenvolvendo inteligência artificial para o uso em armas, nós vamos continuar nosso trabalho com governos e com militares em outras áreas”, diz Pichai. “Isto inclui segurança cibernética, treinamento, recrutamento militar, atendimento médico a veteranos e operações de resgate.”

Colaboração para o Olhar Digital

Redação é colaboração para o olhar digital no Olhar Digital