Elon Musk e Deep Mind assinam carta contra armas com inteligência artificial

Redação19/07/2018 19h40, atualizada em 19/07/2018 19h45

20170814101229

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A discussão sobre o uso de inteligência artificial para criar armas autônomas tem sido bastante acalorada nos últimos meses. No entanto, um grupo de expoentes da tecnologia assinou uma carta nesta quinta-feira, 19, prometendo não empregar AI em armamentos letais. A lista conta com executivos como Elon Musk e três cofundadores da DeepMind, que é a subsidiária do Google envolvida diretamente com o assunto.

De acordo com a publicação do The Verge, a carta-compromisso foi organizada por uma coalizão global não oficial de pesquisadores e executivos contrários ao desenvolvimento de armas autônomas. Segundo o grupo, o uso de inteligência artificial para selecionar e interagir com alvos sem a intervenção humana levanta questionamentos morais. “A decisão para tirar uma vida humana nunca deveria ser delegada a uma máquina”.

A carta foi apresentada em uma conferência sobre o assunto na cidade de Estocolmo, na Suécia, que foi organizada pelo Future of Life Institute (Instituto do Futuro da Vida, em tradução livre). Para a organização, a multiplicação de armas autônomas pode ser “perigosamente desestabilizadora para todos os países e indivíduos”. A mesma instituição já havia emitido uma outra carta enviada à Organização das Nações Unidas (ONU), recomendando regulamentações sobre o assunto.

Além de Elon Musk e os cofundadores da DeepMind, Shane Legg, Mustafa Suleyman, e Demis Hassabis, assinam a carta outros nomes como o fundador do Sjype, Jaan Tallinn; e alguns respeitados pesquisadores de inteligência artificial, como Stuart Russel, Yoshua Bengio e Jürgen Schmidhuber. Para Max Tegmark, um dos signatários, a petição mostra que os líderes no assunto estão “mudando das conversas para a ação”.

Apesar da movimentação de importantes pesquisadores e executivos, o controle do desenvolvimento de inteligência artificial para fins militares é bastante difícil. Em primeiro lugar, porque grandes nações como China e Estados Unidos já estão em desenvolvimento avançado da tecnologia e não têm nenhum incentivo para interrompê-los. Além disso, a própria classificação do que é ou não uma arma autônoma é algo bastante controverso.

Colaboração para o Olhar Digital

Redação é colaboração para o olhar digital no Olhar Digital