Em estudo publicado no Arxiv, um site de publicação de artigos não revisados, pesquisadores do MIT (Instituto de Tecnologia de Massachusetts, em português) criaram uma maneira de reconstruir a aparência — muito grosseiramente — de algumas pessoas com base em um arquivo de áudio curto. O artigo, “Speech2Face: Aprendendo o rosto por trás de uma voz“, explica como um conjunto de dados de milhões de clipes no YouTube foi coletado e, a partir dele, um modelo baseado em rede neural que combina os atributos vocais às informações faciais presentes no vídeos foi criado. Agora, quando o sistema ouve uma amostra de áudio, sua inteligência artificial (IA) tenta adivinhar como seria o rosto do dono da voz.

Os cientistas, liderados pelo estudante de pós-doutorado no MIT, Tae-Hyun Oh, reconhecem brevemente as preocupações acerca da privacidade em seu estudo. Eles explicam em uma seção de “Consideração Ética” que o Speech2Face foi treinado para capturar características visuais como gênero e idade, que são comuns, e somente quando houver indícios suficientes que possibilitem a “adivinhação” de um rosto — ou seja, o sistema não é capaz de produzir imagens de pessoas específicas.

Ainda assim, responsáveis pela pesquisa especulam que a inteligência artificial “pode dar suporte a aplicações úteis — como anexar uma face representativa a chamadas telefônicas ou de vídeo, baseando-se na voz do interlocutor apenas”.

Reprodução

Embora as imagens geradas pela tecnologia não sejam de alta qualidade, por vezes elas acertam a faixa etária, a etnia e o gênero da pessoa por trás do áudio analisado. Pesquisas anteriores exploraram métodos para prever idade e sexo a partir da fala, mas neste caso, os pesquisadores afirmam que detectaram também correlações com alguns padrões faciais. “Além dessas características dominantes, nossas reconstruções revelam correlações não negligenciáveis entre características craniofaciais (por exemplo, estrutura do nariz) e voz”, escrevem eles.

No entanto, pessoas com certas características representaram um desafio maior. Na seção de ética, os pesquisadores admitem casos em que atributos como a linguagem ou o tom de voz levaram o modelo a criar associações altamente equivocadas — o que mostra os limites do aprendizado de máquina e da inteligência artificial nesse primeiro momento. Os equívocos também são resultado da natureza limitada dos dados de treinamento, como os pesquisadores reconhecem — o que leva ao problema de viés racial e de gênero nos sistemas de IA.

“Os dados de treinamento que usamos são uma coleção de vídeos educativos do YouTube e não representam igualmente toda a população mundial (…). Portanto, o modelo — como é o caso de qualquer modelo de aprendizado de máquina — é afetado por essa distribuição desigual de dados.” Eles recomendam “que qualquer investigação adicional ou uso prático desta tecnologia seja cuidadosamente testado para garantir que os dados de treinamento representem a população de usuários pretendida”.

Segundo reportagem do Slate, nem todos que faziam parte do conjunto de dados ficaram felizes em se tornar parte involuntária do projeto. Nick Sullivan, pesquisador de tecnologia da Cloudflare, twittou quando ficou sabendo que rosto e voz estavam no estudo — e enfatizou não ter consentido com isso. Fato é que muitos bancos de dados públicos e não públicos de reconhecimento facial dependem de rostos extraídos da web. Por enquanto, coletas de dados desse tipo são protegidas por lei: o conteúdo do YouTube é considerado publicamente disponível e qualquer reivindicação de direitos autorais pode ser contestada com um argumento de uso justo.

A ferramenta não foi lançada, mas podemos conferir seu funcionamento aqui, com a captura de tela do vídeo do YouTube de onde foi tirada, bem como a face gerada.

Não é a primeira vez

Há outros lugares onde nossas vozes já são usadas como dado biométrico, com ou sem o nosso conhecimento. O  banco norte-americano Chase começou a usar a tecnologia chamada “ID de Voz”, no ano passado, para reconhecer os clientes de cartão de crédito assim que entrassem em contato com a instuição via telefone, coletando e armazenando uma amostra de sua voz — a menos que o cliente deixasse claro que não consentia com a prática. 

Outra pesquisa quer que a AI seja capaz de fazer uma análise do sentimento da nossa voz, para identificar nossos gostos. No início desse ano, a Amazon registrou uma patente que, um dia, pode permitir que a Alexa reconheça seu estado emocional e segmente os anúncios com base no seu humor. A companhia de Jeff Bezos disse ao New York Times que não usa gravações de voz para publicidade direcionada. Naturalmente, isso não significa que a empresa não o fará no futuro.

 

(Via Fast Company/Slate)