Em evento realizado hoje, o Google anunciou um novo recurso para o seu assistente virtual que deve mudar a forma como realizamos buscas na plataforma. A novidade é uma tecnologia chamada de Google Lens, que permite que usuários do Android usem a câmera de seu celular para fazer buscas e entender imagens. 

Com a novidade, o Google Assistente poderá “ver” as coisas para as quais você aponta a câmera do celular e oferecer informações sobre elas. Se você apontar a câmera para uma flor, por exemplo, a Assistente poderá lhe dizer o gênero e espécie da flor. Ao apontar a câmera para um poster de filme, por exemplo, a Assistente poderá lhe mostrar onde ele está passando, em que horários, e como comprar ingressos.

Além disso, a câmera também se tornará capaz de ler e entender códigos QR ou códigos de barra. Na demonstração do Google, por exemplo, a empresa mostrava como dois códigos de barra poderiam ser escaneados pela Assistente para mostrar o SSID e a senha de uma rede Wi-Fi – e, então, o celular se conectava automaticamente à rede.

Segundo a empresa, a tecnologia também funcionará com o Google Photos, o que significa que fotos passadas também poderão ser analisadas pela tecnologia. Não se trata de uma tecnologia totalmente nova, como o The Verge ressalta – um método semelhante já era usado pela empresa no Google Tradutor para traduzir texto de placas e documentos com a câmera do celular.