Deep Fusion está disponível no beta do iOS 13 para desenvolvedores

Função promete imagens com maior nitidez sem qualquer intervenção do usuário; entenda como o sistema funciona
Luiz Nogueira03/10/2019 13h57, atualizada em 03/10/2019 15h00

20190910090009-1920x1080

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O sistema de fotografia Deep Fusion da Apple chegou como parte do beta para desenvolvedores da versão 13.2 do iOS. Ele já pode ser testado pelos criadores de aplicativos para que seja integrado às suas criações. O recurso pode ser lançado para o iPhone 11 e 11 Pro em breve.

O Deep Fusion é um novo canal de processamento de imagens para fotografias tiradas em luz média, que o vice-presidente da Apple, Phil Schiller, apresentou com muito entusiasmo no palco da revelação do iPhone 11. Mas, como grande parte do iOS 13, o Deep Fusion não estava pronto quando os parelhos foram anunciados.

Segundo a Apple, o sistema vai ser ativado automaticamente assim que algumas imagens forem capturadas em situações específicas. O principal momento é quando o modo noturno for ativado na lente grande, mas isso pode depender da fonte de luz presente no ambiente.

O que o Deep Fusion faz é produzir duas fotos de 12MP e combiná-las para aumentar a nitidez da imagem final. Essa combinação é feita usando quatro redes neurais que levam em consideração as características presentes em cada pixel das imagens.

O resultado dessa combinação é um nível grande de detalhes em peças de roupa e na pele. Além disso, a empresa destaca a nitidez em objetos que estão se movimentado. Para que o processamento seja realizado por completo, o dispositivo leva menos de um segundo. Para exemplificar o resultado, a Apple divulgou duas imagens que mostram o uso do recurso.

Foto: Apple

Foto: Apple

Via: The Verge

Luiz Nogueira
Editor(a)

Luiz Nogueira é editor(a) no Olhar Digital