Imagine que você está a bordo de um veículo que dirige sozinho. De repente, um grupo de pessoas cruza o seu caminho quando o carro está rápido demais para frear. A única opção é desviar, mas a batida contra um muro pode ser fatal para você. Como o sistema decide o que fazer? E no caso de uma eventual morte, quem é responsabilizado pelas escolhas de um algoritmo?
Carros autônomos podem estar ainda em estágios iniciais de desenvolvimento, mas já motivam pesquisadores a buscar respostas para dilemas morais e éticos como este. Jean-Francois Bonnefon, professor da Universidade de Toulouse, na França, decidiu consultar o senso comum para saber como uma inteligência artificial pode ser julgada.
Em um experimento, os participantes precisaram imaginar o cenário descrito acima. A questão proposta era se o carro deveria optar por desviar do grupo de pedestres, já que matar apenas uma pessoa seria “melhor” do que matar várias; ou se ele deveria priorizar a vida do ocupante, que é, afinal, quem comprou e pagou pelo veículo.
O resultado é que a maioria dos participantes se sentiu de acordo com a ideia de minimizar a quantidade de vidas perdidas – ou seja, sacrificar o ocupante do carro em vez de matar um grupo de pedestres – desde que as pessoas dentro do carro não fossem elas mesmas ou conhecidos. Contudo, ficaram na dúvida quando tiveram que responder: quem compraria um carro programado para matar o dono?
No experimento, Bonnefon também propôs cenários onde o grupo de pedestres era formado por 10, 15 ou até 30 pessoas, para ver se a quantidade de possíveis vítimas mudaria a reação do entrevistado. Em outros casos, o pesquisador sugeriu que o dilema fosse o de bater contra um muro ou atropelar um cachorro. De qualquer modo, segundo ele, é o público consumidor que vai definir as diretrizes que as fabricantes deverão seguir.
“É aceitável que um carro autônomo desvie de uma motocicleta e bata em um muro, sendo que as chances do passageiro do carro sobreviver são maiores do que a do sujeito dirigindo a moto? Será que decisões diferentes deveriam ser tomadas caso houvesse crianças a bordo? E se a montadora oferecer versões diferentes do software, com decisões morais diferentes, e o comprador escolhe uma delas conscientemente? Ele deveria ser responsabilizado pelas consequências da decisão do algoritmo?”, questiona Bonnefon.
Atualmente, o Google é a empresa com pesquisas mais avançadas na área. Seu carro autônomo já está em testes por algumas cidades americanas, e, por enquanto, ainda dirigindo cuidadosamente devagar. Na maioria dos casos, a resposta do veículo a qualquer movimento estranho a sua frente é sempre de frear bruscamente. Conforme os sistemas amadureçam, é importante que esse tipo de questionamento seja levantado.