Um total de 116 fundadores de empresas de inteligência artificial de 26 países escreveram uma carta aberta à ONU para que ela, segundo o Instituto Future of Life, “aborde urgentemente o desafio de armas autônomas letais (comumente chamadas de ‘robôs assassinos’) e proíba seu uso internacionalmente”.
No documento, os especialistas elogia as iniciativas da ONU de criar um grupo de especialistas governamentais para tratar dessa questão, e de apontar o embaixador indiano Amandeep Singh Gill para a sua diretoria. No entanto, eles lamentam o fato de que a primeira reunião do grupo tenha sido cancelada (ela foi adiada para novembro).
Segundo os signatários, “armas autônomas letais ameaçam se tornar a terceira revolução da guerra. Uma vez criadas, elas permitirão que conflito armado se faça numa escala maior do que nunca, e numa escala de tempo mais rápida do que humanos podem entender”.
Eles reforçam ainda que “nós não tempos muito tempo para agir”, já que “uma vez que essa caixa de Pandora for aberta, será difícil fechá-la”. Por esses motivos, os fundadores das empresas de inteligências artificiais dizem: “imploramos às partes envolvidas que encontrem um meio de proteger a todos nós desses perigos”.
Progredindo rumo à legislação
Essa não é a primeira vez que o assunto é discutido no âmbito da ONU. Em dezembro de 2016, a organização reuniu um comitê de 123 membros para rever sua Conferência sobre Armas Convencionais de maneira a incluir armas autônomas letais. Dos 123 membros, 19 deles já se manifestaram a favor de uma proibição total de armas desse tipo.
Dentre os signatários, destacam-se Mustafa Suleyman, um dos fundadores da DeepMind, uma empresa-irmã do Google cujas criações já derrotaram a humanidade em Go, e Elon Musk. Musk é o CEO de diversas empresas, como a SpaceX e a Tesla, e já vem alertando sobre os potenciais perigos da inteligência artificial há algum tempo.
Recentemente, uma inteligência artificial da OpenAI (uma das empresas de Musk) derrotou alguns dos principais profissionais do mundo em DOTA 2. Essa marca motivou o executivo a se manifestar no Twitter sobre a importância de regular o desenvolvimento de sistemas de inteligência artificial, alegando que eles são “uma ameaça muito maior” do que uma possível guerra nuclear contra a Coreia do Norte.
No mundo real
Segundo o The Verge, a urgência que os especialistas pedem em sua carta não é infundada. Ryan Gariepy, um dos signatários, dissem em declaração ao site que “esse não é um cenário hipotético, mas uma preocupação muito real e muito urgente que exige ação imediata”. Além disso, ele considera que essas armas “estão a ponto de se tornar realidade e têm um potencial real de causar dano significativo a pessoas inocentes, além de instabilidade global”
De fato, há países bastante interessados na criação de armas desse tipo. A Coreia do Sul, por exemplo, já usa drones armados desenvolvidos pela empresa Dodaam Systems para patrulhar sua fronteira com a Coreia do Norte – embora, por enquanto, atitudes letais ainda exijam a autorização de um ser humano.
Isso, no entanto, gera uma situação na qual outros países também se sentem pressionados a criar armas desse tipo, por medo de serem deixados para trás nesse ramo. Em uma matéria do Financial Times citada pelo The Verge, um relatório do Departamento de Defesa dos EUA sugeria o investimento em armas autônomas letais para que os EUA pudesse “se manter à frente de seus adversários que também se aproveitarão dos benefícios dessa tecnologia”.