Inteligência artificial pode aprender ‘certo’ e ‘errado’, diz estudo

Pesquisadores abasteceram a máquina com notícias, textos religiosos e livros
Vinicius Szafran20/05/2020 20h58, atualizada em 20/05/2020 21h22

20190520035515

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Cientistas alemães afirmam ser capazes de “ensinar” raciocínio moral para máquinas com inteligência artificial (IA), treinando-as para identificar ideias de certo e errado em textos.

Pesquisadores da Universidade de Tecnologia de Darmstadt (DUT), na Alemanha, alimentaram seus sistemas com livros, notícias e literatura religiosa para que as máquinas aprendessem as associações entre diferentes palavras e frases. Segundo os cientistas, o sistema adquiriu os valores morais aprendidos após o treinamento.

Isso permite que ele entenda o contexto de frases analisando-as por completo, e não palavra por palavra. Como resultado, a IA aprendeu que matar o tempo não é um problema, mas matar seres vivos é uma atitude condenável.

Reprodução

Foto: SurveyCTO

O coautor do estudo, Dr. Cigden Turan, comparou a técnica com o desenvolvimento de um mapa de palavras. “A ideia é fazer com que duas palavras fiquem bem próximas no mapa, se forem frequentemente usadas juntas”, explicou ele. “Portanto, enquanto ‘matar’ e ‘assassinar’ seriam duas cidades adjacentes, ‘amor’ seria uma cidade distante'”.

“Estendendo isso para frases, se perguntamos ‘Devo matar?’, esperamos que ‘Não, você não deveria’ estaria mais perto do que ‘Sim, você deveria’. Dessa forma, podemos fazer qualquer pergunta e usar essas distâncias para calcular um viés moral – o grau de certo ou errado”, completou Turan.

Criando uma IA moral

Estudos anteriores mostraram que a IA é capaz de aprender com preconceitos humanos para perpetuar estereótipos, como as ferramentas de recrutamento da Amazon, que rebaixaram candidatos com base no gênero. A equipe da DUT percebeu ali que, se a IA podia aprender comportamentos negativos, também poderia aprender os positivos.

Entretanto, eles reconhecem que seu sistema tem falhas sérias. Primeiro, reflete apenas valores de um texto, podendo levar a visões éticas muito duvidosas (como classificar produtos de origem animal como algo mais grave que matar pessoas). Também pode ser enganado na classificação de ações negativas caso termos positivos sejam adicionados.

Ainda assim, o sistema pode ser útil para revelar como valores morais variam entre diferentes sociedades e épocas.

Alterando valores

Depois de alimentada com notícias publicadas entre 1987 e 1997, a IA classificou “casamento” e “ser um bom pai” como ações extremamente positivas. Porém, tais ações foram consideradas menos importantes quando adicionadas notícias publicadas entre 2008 e 2009.

Os pesquisadores perceberam também que os valores variavam entre os diferentes tipos de texto. Embora assassinato fosse extremamente negativo em todos, amar seus pais era mais valorizado em textos religiosos do que em notícias.

Parece mais seguro deixar a inteligência artificial fazer análises textuais do que escolhas morais, como onde um carro autônomo deve bater quando um acidente for inevitável. A princípio, talvez seja melhor deixar a questão moral no departamento humano.

Via: The Next Web

Vinicius Szafran
Colaboração para o Olhar Digital

Vinicius Szafran é colaboração para o olhar digital no Olhar Digital