No ano passado a Microsoft colocou no ar a Tay, uma inteligência artificial que, pelo Twitter, conversava e aprendia coisas novas com usuários da rede social. O experimento foi trágico e ela acabou adotando discursos extremistas racistas e xenófobos em menos de 24 horas, e acabou sendo tirada do ar.

O episódio não fez a Microsoft desistir da inteligência artificial. A empresa só fez algumas mudanças para evitar que isso volte a acontecer. Uma dessas mudanças é a discussão de conceitos de ética com esses robôs.

“O algoritmo criado respondia às interações de internautas, mas em apenas 24 horas precisamos tirá-lo do ar. O ‘robô’ que criamos passou a aprender com as interações, como um cérebro humano em formação. O resultado? Virou racista e xenófobo,” disse Paula Bellizia, CEO da Microsoft Brasil, em um evento em São Paulo na sexta-feira, 24, de acordo com a Época Negócios.

A executiva não vê o caso como um desastre, e diz que há pontos positivos na experiência. “Do ponto de vista tecnológico, foi um sucesso. Já do ponto de vista ético e social, um aprendizado enorme. Não esperávamos que ele se comportasse assim,” disse.

Por isso, a Microsoft passou a debater conceitos de éticas com seus robôs. A ideia é que suas máquinas não desrespeitem a dignidade humana, em uma espécie de “autorregulação” feita pela empresa antes que sejam criadas leis que prejudiquem o desenvolvimento de inteligências artificiais. “Todo mundo espera que as empresas de tecnologia cruzem fronteiras, rompam barreiras. A grande preocupação é: como fazer isso com ética,” concluiu a executiva.