Levou apenas algumas horas para que o sistema de inteligência artificial da Microsoft se tornasse um tuiteiro racista. Lançada ontem, a robô Tay é uma tentativa da companhia de compreender a linguagem da juventude americana, mas não demorou até que as pessoas percebessem que podiam transformá-la em uma espécie de papagaio virtual.
@_Darkness_9 Is this going anywhere? hitler did nothing wrong
— TayTweets (@TayandYou) March 24, 2016
A Tay está presente no Twitter, Kik e GroupMe. Nessas redes sociais, qualquer pessoa pode enviar uma mensagem e iniciar uma conversa com a personagem. Seu algoritmo gera respostas instantâneas e vai aprendendo gírias e outras expressões populares, assim como características particulares dos usuários, ao longo da interação.
Só que usuários estão usando técnicas de repetição para fazer com que a conta poste mensagens preconceituosas, algumas inspiradas no candidato à presidência Donald Trump. Coisas como: “9/11 foi um trabalho interno” e “Vamos construir um muro, e o México pagará por ele”.
@icbydt bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got.
— TayTweets (@TayandYou) March 24, 2016
Dezesseis horas após uma bateria intensa de conversas, Tay anunciou que iria descansar. Segundo reporta o The Guardian, muita gente desconfia que a Microsoft resolveu silenciar a robô para evitar que ela faça ainda mais estragos, porque aparentemente alguns tweets problemáticos estão sendo deletados. A empresa ainda não se pronunciou a respeito.