Terence Broad é um pesquisador de TI britânico trabalhando em um mestrado em computação criativa. O foco de sua dissertação é um projeto chamado “Autoencoding Video Frames”, que, em termos gerais, pretende “ensinar” uma máquina a assistir e entender um filme.
O pesquisador tem usado redes neurais – sistemas de processamento de dados que funcionam de forma semelhante ao cérebro humano, cruzando informações e apredendo com a prática de certas tarefas – para criar uma inteligência artificial capaz de montar arquivos de vídeo de forma “espontânea”.
Em entrevista ao site Vox, Broad explica que disponibilizou para a rede neural uma série de dados sobre um filme, com informações sobre dimensões, faixas de áudio, pixels, cores, relação de aspecto e outros fatores. Tudo fora de ordem, diferentemente do que players de mídia normalmente fazem.
Após avaliar diversas vezes como os dados se juntam para formar um filme completo, a rede neural foi então incumbida de remontar o longa-metragem colocando as “peças do quebra-cabeça” na ordem que ela aprendeu. O filme escolhido para a tarefa foi, curiosamente, “Blade Runner” – clássico de ficção-científica sobre robôs que se comportam como seres humanos.
O resultado, segundo Broad, é como assistir “Blade Runner” pelo ponto de vista de uma máquina com inteligência artificial. Confira o resultado no vídeo, e logo abaixo, uma imagem comparando frames do filme original e a versão recriada pela rede neural.