Pesquisa tenta definir qual o comportamento ético para uma IA

Estudo avaliou mais de 40 milhões de decisões tomadas por voluntários em 233 países e descobriu que o que é "ético" pode variar de acordo com a cultura, economia ou localização geográfica
Rafael Rigues10/12/2019 17h39, atualizada em 10/12/2019 17h41

20190819040121

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O “problema do bonde” é um experimento de ética bastante comum. Funciona mais ou menos assim: imagine que você está a bordo de um bonde desgovernado, descendo pelos trilhos ladeira abaixo. No pé da ladeira há cinco pessoas amarradas sobre os trilhos, incapazes de fugir. Se você não fizer nada, elas irão morrer. Mas há uma alavanca capaz de mover o bonde para um trilho secundário. Entretanto, neste trilho também há uma pessoa, e se você agir ela irá morrer. O que você faz? Não age, e deixa as cinco pessoas morrerem, ou escolhe matar um inocente para salvar cinco vidas?

Agora vamos transpor o problema para o século XXI: o bonde é um carro autônomo, e o passageiro é uma inteligência artificial no comando. Qual ação seria a correta? É isso que pesquisadores do MIT tentaram descobrir em 2014 quando criaram o experimento “The Moral Machine”. O site apresenta ao visitante várias variações do problema, e pergunta qual seria a coisa “certa” a fazer.

O que os pesquisadores não esperavam é que o experimento iria “viralizar”. Quatro anos após o lançamento da plataforma, milhões de pessoas em 233 países e territórios registraram 40 milhões de decisões, tornando-o um dos maiores estudos já realizados sobre preferências morais globais.

O resultado é um artigo publicado na revista Nature, que mostra como os valores éticos divergem com base na cultura, economia e até mesmo localização geográfica de um indivíduo. Por exemplo, participantes de culturas coletivistas como China e Japão são menos propensos a poupar os jovens do que os velhos – talvez, sugeriram os pesquisadores, por causa de uma ênfase maior no respeito aos idosos.

Da mesma forma, participantes de países mais pobres, com instituições mais fracas, são mais tolerantes com quem atravessa fora da faixa do que quem atravessa corretamente. Participantes de países com alto nível de desigualdade econômica mostram maiores lacunas entre o tratamento de indivíduos com alto e baixo status social.

No que se resume à questão essencial do problema, os pesquisadores descobriram que o número de pessoas em perigo nem sempre era o fator dominante na escolha de qual grupo deveria ser poupado. Os resultados mostraram que os participantes de culturas individualistas, como o Reino Unido e os EUA, preferiam salvar mais vidas ante todas as outras opções – talvez, na opinião dos autores, devido à maior ênfase no valor de cada indivíduo.

Os pesquisadores reconheceram que os resultados podem sofrer distorção, uma vez que os participantes do estudo foram auto-selecionados, portanto são mais propensos a serem conectados à Internet, de alta posição social e conhecedores de tecnologia. Mas os interessados ​​em carros autônomos provavelmente também terão essas características.

O estudo tem implicações interessantes para os países que atualmente testam carros autônomos, uma vez que essas preferências podem desempenhar um papel na definição do design e na regulamentação desses veículos. As montadoras podem descobrir, por exemplo, que os consumidores chineses entrariam mais facilmente em um carro que priorizaria proteger os passageiros em vez dos pedestres.

Edmond Awad, autor do artigo, espera que os resultados também ajudem os tecnólogos a pensar mais profundamente sobre a ética da IA ​​além dos carros autônomos. “Usamos o problema do bonde porque é uma maneira muito boa de coletar dados, mas esperamos que a discussão sobre ética não fique dentro desse tema”, disse ele.

“A discussão deve passar para a análise de risco – sobre quem está mais ou menos em risco – em vez de dizer quem vai morrer ou não, e também sobre como está ocorrendo um viés.” Como esses resultados podem se traduzir em um projeto e regulamentação mais éticos da IA ​​é algo que ele espera estudar mais no futuro.

Fonte: MIT Technology Review

Colunista

Rafael Rigues é colunista no Olhar Digital