Tecnologias de IA criam fotos de pessoas que não existem

Imagens de pessoas fakes demonstram grande desenvolvimento tecnológico, misturando realidade com mundo virtual
Igor Shimabukuro25/11/2020 01h04, atualizada em 28/11/2020 19h00

20201124101308

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O anonimato virtual ganhou um “reforço de peso”. Com os avanços da tecnologia e da inteligência artificial (IA), imagens de pessoas que não existem podem ser criadas sinteticamente por máquinas, potencializando a criação de perfis falsos e confundindo, ainda mais, o mundo real do virtual.

Apesar de as Redes Gerativas Adversárias (GAN), principal tecnologia por trás dessas criações, viabilizarem as invenções há seis anos — quando a tecnologia foi idealizada pelo norte-americano Ian Goodfellow —, os resultados iniciais eram bem precários comparados às imagens dos dias atuais. “Quando a tecnologia apareceu pela primeira vez em 2014, era ruim — parecia ‘The Sims'”, disse Camille François, uma pesquisadora de desinformação cujo trabalho é analisar a manipulação de redes sociais.

Hoje, além de as imagens obtidas terem uma qualidade muito superior as do passado, é possível obter fotos de pessoas falsas gratuitamente em sites como o ThisPersonDoesNotExist. Algumas empresas como a Generated Photos até vendem imagens de indivíduos fakes, de acordo com o padrão desejado (como raça, idade, sexo, etnia, entre outros) por apenas US$ 3 (R$ 16 em conversão direta). Sem falar em serviços de outras companhias que conseguem animar estes “seres inexistentes”.

Reprodução

Criação de rostos com a GAN em 2014 já demonstrava avanço tecnológico, mas estava em período embrionário. Foto: Ian Goodfellow/Divulgação


Reprodução

Imagens atuais criadas pelo GAN beiram a fotografias reais. Foto: StyleGAN/Divulgação

Uma escolha de valores para definir o tamanho dos olhos, um algoritmo para criar as feições do rosto fake, uma mistura com dados de diversos tipos de cabelo… e está pronto. Para os menos avisados, isso pode soar impossível, mas esses resultados já são possíveis por conta das tecnologias já implantadas em nosso cotidiano.

O reconhecimento facial é um bom exemplo. Foi por meio de seu aprimoramento que as máquinas se tornaram muito mais eficazes — seja para desbloquear um smartphone, para organizar as fotos da galeria ou mesmo “bater o ponto” de trabalho por meio de um aplicativo.

Basicamente, o GAN é alimentado com diversas fotos de pessoais reais. O programa de computador então as estuda e tenta criar suas próprias imagens de pessoas inexistentes, enquanto outra parte do sistema tenta detectar quais dessas fotos são falsas. Para humanos, uma tarefa difícil para imagens tão reais.

Prós e contras

O avanço destes tipos de inteligência artificial prova como a tecnologia pode aprimorar-se em pouco tempo — tendo em vista os resultados de 2014 para cá. Elas podem ser muito úteis, inclusive, em aprimoramentos de serviços de chat, na indústria cinematográfica e na engenharia de produção de games.

Se por um lado as machine learnings e a IA podem ser consideradas fortes aliadas para um futuro muito mais tecnológico e promissor, por outro, potencializa a falta de discernimento do que é real e do que é virtual.

A “criação” de pessoas falsas consequentemente fortalece o uso de perfis fakes e fomenta, por exemplo, a disseminação de fake news e discursos odiosos sem punições adequadas. Isso sem contar em um possível crescimento de espiões tentando infiltrações em comunidades de inteligência ou grupos privados, e a ascensão na utilização de logins inexistentes para vigiar e atrair alvos para diversos crimes.

Reprodução

Criação de fotos de pessoas inexistentes pode potencializar anonimato virtual. Foto: Ake/Rawpixel

IA não é perfeita

Além disso, é preciso lembrar que as tecnologias não atuam por si só. Elas são constantemente alimentadas por dados inseridos por seres humanos e podem acabar reproduzindo preconceitos, explícitos e implícitos, da sociedade. Ou seja, erros à vista.

Não são raros os casos em que ferramentas de reconhecimento facial são acusadas por reproduções racistas. Além de comprovadamente serem menos eficazes em pessoas negras, as tecnologias tendem a ser construídas em moldes brancos. Exemplos não faltam.

Em 2015, um sistema de detecção de imagem desenvolvida pelo Google rotulou dois negros como “gorilas” — provavelmente por ter recebido mais imagens dos animais que de pessoas negras.

Outro episódio mais recente aconteceu com a ferramenta de corte automática do Twitter. A rede neural da rede social analisava as imagens e as cortava, focando apenas nos rostos presentes na foto. Contudo, o corte automático priorizava faces de pessoas brancas, mesmo com a presença de pessoas negras na imagem.

Até mesmo em simples criações de imagens de pessoas falsas, as falhas são visíveis. Acessórios como brincos, chapéus e óculos nem sempre se encaixam aos semblantes e resultam em fotos visivelmente fakes. Além disso, algumas proporções faciais podem não condizer com certos rostos e a imagem final passa longe de ser realista.

Reprodução

IA ainda sofre na criação de imagens com acessórios pessoais. Foto: Thispersondoesnotexist/Reprodução

Isso não quer dizer que a IA e outras tecnologias devam ser encaradas como inimigas. Elas certamente podem ser catalisadoras de um futuro digital e seus avanços abrem leques para inovações inimagináveis. Contudo, é preciso pensar, primeiramente, em seu desenvolvimento para todos os públicos: independentemente da cor, gênero ou etnia.

Uma segurança cibernética robusta para evitar fraudes e usos maléficos também se faz necessária. Afinal de contas, se foi o ser humano quem criou tudo isso, ele também se torna responsável pelas consequências.

Via: The New York Times e Galileu

Colaboração para o Olhar Digital

Igor Shimabukuro é colaboração para o olhar digital no Olhar Digital