A Apple está se preparando para revolucionar o mercado mais uma vez, agora com o Apple Glasses – dispositivo que nos levará da era dos smartphones, para uma onde os wearables são o centro das atenções. E o iPad Pro de 2020 guarda a “arma secreta” da empresa: um sensor ToF, chamado pela Apple de sensor LiDAR.

Mas o que torna esse sensor tão importante para os Apple Glasses, e por que a empresa o chama de LiDAR, e não de ToF (Time of Flight, ou Tempo de Voo em português)?

Reprodução

O que é LiDAR e como ele funciona?

Um sensor LiDAR – Light, Detection And Range – funciona com um laser, normalmente infravermelho, disparado através daquilo que estiver a sua frente. Uma câmera então mede o tempo que cada fóton disparado leva para retornar ao emissor, formando uma imagem.

Essa medição permite calcular a distância entre a câmera e os objetos atingidos pelos fótons, além de facilitar a aplicação de algoritmos para analisar a deformação do padrão, possibilitando uma melhor compreensão dos objetos que o LiDAR está medindo e, por sua vez, oferece dados para a inteligência artificial também identificar objetos.

Com a medição instantânea das distâncias entre os objetos e seu emissor, obtida pelo sensor ToF no iPad, a CPU consegue obter dados 3D geométricos do mundo ao seu redor de maneira precisa.

Por que a Apple chama de LiDAR em vez de ToF?

Boa pergunta. O LiDAR de fato é um sensor ToF, inclusive usado por outras fabricantes em seus dispositivos. Na realidade, a maioria desses sensores é fabricada pela Sony – e a Apple usa os sensores Sony ToF.

Talvez, por saber que todos usam o mesmo termo, a Apple decidiu chamá-lo por outro nome e ser diferente da maioria. Além disso, existe o fato de poucas pessoas realmente saberem o que significa o termo ToF, que é mais um dos termos técnicos não explicados nos manuais. Já o LiDAR é um pouco mais famoso, por ser usado em câmeras de carros autônomos que os ajudam a ver o mundo e navegar em segurança. 

Qual a importância do LiDAR nos Apple Glasses?

Os óculos da Apple precisarão dessa tecnologia funcionando ao seu máximo quando forem lançados, em 2023. Como será demonstrado pelo iPad Pro, aplicativos de realidade aumentada precisam mesclar com sucesso as imagens virtuais com o mundo real, a fim de convencer os usuários. Essa é a ideia por trás do uso dos sensores.

Para que o mundo virtual pareça real aos olhos humanos, a tecnologia precisa permitir que os usuários posicionem objetos em 3D no mundo com precisão, além de aplicar texturas em objetos existentes. Todas essas habilidades precisam funcionar constantemente a uma alta taxa de atualização. 

A Apple alega que o sensor ToF do iPad Pro tem alcance de cinco metros e taxa de atualização de 120Hz, alinhado com o restante da indústria.

A aplicação de ToF em produtos de consumo reais permitirá à Apple refinar seus algoritmos de IA no mundo real, situação crucial na preparação para os Apple Glasses. Esse processo será incrementado em 2022, com o headset AR/VR (isso se os rumores se confirmarem).

O que está sendo implantado hoje resultará em jogos e apps divertidos, mas o mais importante é o marco da ascensão de um novo mundo tecnológico, no qual os celulares serão substituídos por dispositivos vestíveis. E o Apple Glasses está no centro dessa mudança.

Via: Tom’s Guide