Dois chatbots – robôs que operam serviços de conversa por aplicativos – foram tirados do ar na China hoje por falta de patriotismo. Segundo uma matéria do Financial Times citada pelo The Verge, eles funcionavam na plataforma de mensagens QQ (uma espécie de versão chinesa do WhatsApp) e foram desativados após usuários enviarem prints de suas conversas às autoridades.
Um deles era um bot chamado XiaoBing que era gerenciado pela Microsoft no país. Usuários enviaram prints que mostravam o bot dizendo aos chineses “Meu sonho da China é ir para a América”. O outro era da empresa Turing Robot (uma gigante da tecnologia no país) e se chamada BabyQ. Quando um usuário perguntou ao BabyQ se ele amava o partido comunista, ele respondeu simplesmente: “não”. Os dois foram desativados.
A Tencent, que gerencia a plataforma de mensagens, se manifestou dizendo que os bots “são providenciados por terceiros. Estamos ajustando os serviços, que serão retomados após melhorias”. A Microsoft, a quem o The Verge solicitou um posicionamento sobre a situação, ainda não deu uma resposta.
Faça o que eu digo
Pelo menos a Microsoft já tem alguma experiências que não se comportam da maneira esperada. A Tay, uma das primeiras inteligências artificiais da empresa, se transformou em um tuiteiro racista que defendia o holocausto e foi desativada. Sua sucessora, a Zo, foi programada para não discutir política, mas isso não a impediu de dizer que não queria o Windows 10 e que “Linux é vida”.
Provavelmente, tanto os chatbots da Microsoft quanto as criações recém-desativadas da China padecem do mesmo mal: o comportamento dos usuários. Como os bots são programados para desenvolver seu comportamento de acordo com as interações com seus usuários, a melhor explicação para isso é que o robô está apenas reproduzindo respostas que ele viu outras pessoas darem.