O iPhone tem duas câmeras. O Galaxy Note 8 tem duas câmeras. O LG G6 tem duas câmeras. O Zenfone 4 tem duas câmeras. Até Moto G5s Plus tem duas câmeras. Por que, então, o Google decidiu usar apenas uma câmera no Pixel 2, se todas as fabricantes estão apostando na tecnologia de sensor duplo?

A resposta, de forma resumida, é porque o Google acredita precisar de apenas uma lenta para alcançar os resultados que os outros aparelhos conseguem utilizando duas. A confiança vem da experiência da empresa com software e fotografia computacional.

Nos outros celulares, a câmera dupla, quando as duas lentes são usadas em conjunto, dão origem a um efeito de profundidade, no qual o objeto no plano principal tem sua imagem descolada do segundo plano, que aparece desfocado. Este efeito, conhecido como “bokeh”, é marca de câmeras DSLR e difícil de alcançar com celulares, cujos sensores são mais limitados e menores, gerando a necessidade de usar uma câmera dupla.

A solução, até o momento, para alcançar o efeito bokeh foi colocar os dois sensores para trabalhar em conjunto. Cada um deles registra a imagem por um ângulo diferente, o que gera uma percepção de profundidade por parte do software responsável por processar a imagem, que passa a ser capaz de entender o que é o que para borrar digitalmente o fundo sem desfocar o objeto em primeiro plano.

O Google, no entanto, diz ser capaz de fazer isso com apenas um sensor, graças a um sistema treinado com aprendizado de máquina, que permitiu aprender padrões a partir de milhões de fotografias. O processo é o seguinte:

  • Um algoritmo identifica o rosto que está sendo retratado
  • A partir daí, o sistema identifica corpo, cabelo e tudo mais que estiver conectado à face
  • O Pixel 2 reconhece o que deve ser o foco da imagem e borra todo o resto

Há também uma segunda peça-chave nesse sistema que é um sistema que o Google chama de “Dual Pixel”. O nome pouco original (várias outras empresas têm seus sistemas “dual pixel”, mas a tecnologia é completamente diferente em cada caso) retrata um recurso novo. O Google explica que em vez de ter duas câmeras para registrar imagens em dois ângulos diferentes, o sistema desenvolvido pela empresa divide cada pixel em dois na hora de registrar o clique.

Capturando uma imagem da direita e uma imagem da esquerda e outra da direita, o algoritmo da câmera ganha noção de profundidade é capaz de identificar o que é primeiro plano e o que é segundo plano e desfocar o que for necessário. É o procedimento feito pelas câmeras duplas.

A imagem abaixo, registrada no teste do site DxOMark, mostra o resultado de todo esse processamento via software:

Reprodução

A câmera frontal também tem um modo retrato, mas ele é mais simples. Como essa lente é normalmente usada para selfies, o sistema dispensa o reconhecimento de profundidade e se foca na parte importante de uma selfie: o rosto. O recurso mira entender quando um rosto está na câmera para fazer o processo de compreensão mencionado anteriormente para desfocar tudo o que não está diretamente vinculado à face retratada. Se não houver rostos na foto, não há efeito de desfoque.