Um dos novos recursos no iPhone 12 Pro é o Lidar, que usa lasers para detectar a distância entre o aparelho e os objetos ao seu redor. Além de ajudar o smartphone a colocar a imagem em foco ao fotografar em locais escuros, o sensor também é útil em aplicações de realidade aumentada (AR), pois permite a construção em tempo real de um mapa de profundidade da cena muito mais preciso do que usando outros métodos.
Segundo o TechCrunch, o Snapchat será um dos primeiros apps a tirar proveito deste recurso, já que a Snap Inc., desenvolvedora do app, trabalha em uma lente AR específica para o iPhone 12.
Uma breve cena mostrada durante a apresentação dos novos iPhones, que mostra uma mulher sentada à mesa, cercada por grama, flores e beija-flores virtuais, seria uma prévia da lente, embora os nomes do Snapchat e da Snap não tenham sido mencionados.
O clipe demonstra alguns recursos sofisticados de AR, como oclusão (quando um objeto virtual fica “atrás” de um real), detecção da posição de pessoas na cena e correção de perspectiva em tempo real.
Ainda não há informação sobre quando a nova lente estará disponível aos usuários. Os iPad Pro anunciados em março deste ano também tem um sensor Lidar, mas não sabemos se a lente também estará disponível nestes aparelhos.
O iPhone 12 Pro entra em pré-venda nos EUA nesta sexta-feira (16) e chegará às lojas em 23 de outubro, com preço sugerido de US$ 999 (R$ 5.550). Já o iPhone 12 Pro Max entra em pré-venda nos EUA em 6 de novembro e chegará às lojas em 13 de novembro, custando a partir de US$ 1.099 (R$ 6.100).
Fonte: TechCrunch