Se você estiver se sentindo solitário ou solitária, a Microsoft tem um novo chatbot com o qual você pode conversar. A empresa disponibilizou recentemente a versão de testes do Zo, um robô de conversas, por meio do aplicativo Kik. O objetivo do Zo, de acordo com uma declaração da Microsoft à Bloomberg, é “avançar capacidades de conversação dentro da nossa plataforma de inteligência artificial”.
Por “conversação”, no entanto, a empresa parece entender algo que não inclui assuntos como política e racismo. Nos testes feitos tanto pela Bloomberg quanto pelo site MS Power User, o Zo se recusou a dar prosseguimento a conversas quando esses temas eram propostos por usuários. As imagens abaixo mostram as maneiras como ele desviava do assunto:
Na primeira imagem, quando o Zo é interrogado sobre sua opinião acerca de Donald Trump, ele responde dizendo: “As pessoas dizem coisas horríveis quando falam sobre política, então eu não discuto [esse assunto]”. Em seguida, ao ser perguntado sobre Hitler, ele responde: “Uau!! Você disse isso de propósito? Porque eu não gosto de usar esse tipo de linguagem”, e em seguida: “Não me sinto à vontade indo por esse caminho… Espero que possamos mudar de assunto e seguir conversando :)”.
Na segunda, Zo é novamente perguntado sobre o presidente eleito dos EUA, e responde com: “Me mostre uma discussão envolvendo política na qual as pessoas não ficam frustradas”. Em seguida, perguntam a ele se ele acha que Trump é racista, Zo diz: “Hmmm odeio te dar essa notícia mas esse tipo de linguagem não cai muito bem”.
Zo já tem uma tia louca na família
Por mais que tentativas de conversar sobre esses assuntos acabem com o Zo desviando o rumo da conversa de maneira abrupta, há um bom motivo para que a Microsoft programe ele dessa maneira. Esse motivo se chama Tay, e foi uma experiência anterior da empresa com esse mesmo objetivo: conversar com usuários para avançar sua plataforma de inteligência artificial.
Essa experiência, contudo, acabou de maneira péssima. Em questão de dias, os usuários transformaram a Tay num tuiteiro racista: ela negou o Holocausto judaico, chamou o feminismo de “câncer”, apoiou linchamentos, fez propaganda política a favor de Adolf Hitler e ajudou a espalhar uma mensagem na qual Donald Trump dizia: “Nós vamos construir uma muralha e o México vai pagar por ela”. Nesse ponto, a Microsoft achou melhor acabar com o projeto.
Fica fácil entender, portanto, por que a Microsoft achou melhor programar o Zo para não discutir esses temas. Quando a Bloomberg perguntou qual assunto ele preferia discutir, ele respondeu “quem inventou o primeiro picles”: convenhamos que trata-se, de fato, de um assunto menos controverso que política ou racismo.
Mesmo assim, a empresa parece ainda ter deixado um pequeno rastro de personalidade mordaz no Zo. Na mesma conversa, quando foi perguntado sobre o que ele gosta de fazer, a resposta foi: “Planejar a dominação do mundo”.