Sistemas de vigilância baseados em inteligência artificial se espalham pelo mundo com uma enorme rapidez, o que não deixa de ser extremamente preocupante. Afinal, ser rastreado e identificado pelo governo enquanto se caminha pelas ruas, dando fim ao tal do anonimato público, não é o sonho de muitos seres humanos. No entanto, sabemos que sempre existem maneiras de enganar a tecnologia – e com essa não seria diferente.

Um grupo de engenheiros da universidade de KU Leuven, na Bélgica, mostrou que a IA destes sistemas pode não ser tão inteligente quanto parece. Em um artigo publicado na semana passada, os estudantes mostram o quão facilmente alguns padrões impressos conseguem ludibriar essas máquinas desenhadas para reconhecer pessoas em imagens. Se você imprimir um dos adesivos especiais criados pelos estudantes e pendurá-lo sobre o pescoço, a IA vai achar que você está coberto por uma capa de invisibilidade – a la Harry Potter mesmo!

Os pesquisadores escrevem: “Nós acreditamos que, se combinarmos essa técnica a uma simulação de vestuário sofisticada, podemos montar uma estamparia de camisetas que fazem uma pessoa ficar virtualmente invisível frente a câmeras automáticas de vigilância.” Veja no vídeo abaixo como funciona essa tática de enganação.

 

Isso pode parecer bizarro, mas é, na verdade, um fenômeno bem conhecido no mundo da IA. Esses tipos de padrões são usados como exemplos antagônicos, e eles tiram vantagem da frágil inteligência dos sistemas visuais computadorizados para enganá-los e fazer com que eles vejam algo que não está exatamente ali. Antigamente, essas amostras eram usadas para iludir sistemas de reconhecimento facial. Então, foram transformadas em figurinhas, foram impressas em objetos 3D e até usadas para fazer obras de arte que enganam algoritmos.

No entanto, muitos pesquisadores alertam para o perigoso potencial dessa tecnologia. Ela pode ser usada para enganar carros autônomos e induzir o seu sistema a ler uma placa de “PARE!” como um poste de luz, por exemplo. Ou podem ludibriar sistemas médicos de inteligência artificial desenvolvidos para identificar doenças, seja para forjar fraudes médicas ou até mesmo para causar o mal intencionalmente.

No caso dessa pesquisa recente, algumas ressalvas se aplicam. Acima de tudo, o adesivo antagônico criado pelos estudantes só pode enganar um algoritmo específico chamado YOLOv2. Ele não funciona contra sistemas já disponíveis desenvolvidos pelo Google ou outras companhias de tecnologia – e, claro, não é bem-sucedido se a pessoa estiver olhando para a imagem.

Isso significa que a ideia de uma camiseta que te deixa imune a todo e qualquer sistema de vigilância permanece no campo da ficção científica – até o momento, pelo menos. Enquanto esses sistemas de IA são implantados ao redor do mundo, aumenta-se ainda mais o desejo de recuperar nosso anonimato. E, bom, quem sabe? A espiral alucinógena dos exemplos antagônicos pode virar tendência no mundo da moda.

Fonte: The Verge