Um novo relatório publicado pelo projeto Data and Society levanta dúvidas sobre a capacidade de detecção automatizada de vídeos alterados por técnicas de aprendizado de máquina, os deepfakes.
Segundo Britt Paris e Joan Donovan, autoras do relatório, os deepfakes, embora novos, são parte de uma longa história de manipulação da mídia, que exige uma solução tanto social quanto técnica. Confiar apenas em inteligência artificial para resolver o problema pode tornar as coisas piores, concentrando mais dados, e consequentemente mais poder, nas mãos e corporações privadas.
“O pânico em torno dos deepfakes justifica soluções técnicas rápidas que não tratam da desigualdade estrutural. É um projeto massivo, mas temos que encontrar soluções que sejam tanto sociais quanto políticas, para que as pessoas sem poder não sejam deixadas de fora da equação”, diz Paris.
Atualmente, deepfakes levam a velha manipulação de imagens muito além, permitindo às pessoas manipular vídeos usando técnicas de aprendizado de máquina, com resultados que são quase impossíveis de detectar ao olho nu.
David Greene, diretor de Liberdades Civis na Electronic Frontier Foundation, diz que os deepfakes também podem ter usos importantes no comentário político, paródia e anonimização de pessoas que precisam proteger sua identidade.
“Se houver uma lei sobre os deepfakes, ela precisa levar em conta a liberdade de expressão”, notando que se as pessoas usarem a tecnologia para algo ilegal, como chantagem, extorsão ou roubo de identidade, elas podem ser processadas usando a legislação já existente.
Mas Paris se preocupa que filtros de conteúdo baseados em Inteligência Artificial e outras soluções técnicas possam causar dano real. “Elas tornam as coisas melhores para alguns, mas podem torná-las piores para os outros. Projetar novos modelos técnicos abre espaço para que as empresas capturem todo o tipo de imagens e criem um repositório da vida on-line”, afirma ela.
Fonte: The Verge