O WhatsApp continua sendo um foco para disseminação de vídeos e imagens de abuso sexual infantil na Índia, de acordo com descobertas da Cyber Peace Foundation (CPF),  uma organização de segurança e política cibernética de Nova Déli que combate crimes e guerra online.

O Facebook, dono do aplicativo de mensagens, vem tentando reprimir a reprodução e compartilhamento de conteúdo inapropriado. Contudo, uma investigação em março deste ano resultou na descoberta de dezenas de grupos de bate-papo, com mais de cem membros, que disseminam conteúdo de abuso infantil. 

Nitish Chandan, um especialista em segurança cibernética, que também é o gerente de projeto do CPF, descobriu que os membros estão sendo recrutados para entrarem nesses grupos através de links. E, utilizam números virtuais, muito mais difíceis de serem detectados. 

Esta não é a primeira vez que o WhatsApp passa por investigações. Em dezembro, uma operação revelou como aplicativos de terceiros possuem seções adultas que incluem links para grupos de troca de imagens de abuso infantil. 

Uma investigação preliminar da CPF, no início deste ano, descobriu pelo menos 50 grupos do WhatsApp nos quais centenas de usuários indianos são inscritos e usados para compartilhar material sobre abuso sexual infantil.

E, apesar dos administradores do WhatApp ter condenado tais atitudes, ele continua sendo uma das principais plataformas de reprodução deste conteúdo. O fato das mensagens serem criptografadas também dificulta a ações de agências reguladoras. Mas, talvez, exista alguma solução.

O aplicativo já utiliza a tecnologia Photo DNA, da Microsoft, para escanear fotos de perfil dos usuários, buscar por correspondências e banir a pessoa que fez upload da imagem e todos membros do grupo. 

Além disso, em agosto passado, Himanshu Gupta e Harsh Taneja, do Columbia Journalism Review, propuseram uma abordagem baseada em metadados para identificar contas que poderiam estar espalhando notícias falsas na plataforma sem dar às autoridades capacidade de investigar todas as conversas. Através de metadados e hash criptográfico do conteúdo multimídia, acredita-se que agências possam rastrear o caminho de transmissão das fake news sem necessariamente ver o conteúdo em si. 

Embora o conteúdo relacionado a abuso sexual infantil seja diferente de notícias falsas e seja outro problema complexo de engenharia, ele deve ser uma prioridade para uma empresa que administra um aplicativo de mensagens usado por mais de 1,5 bilhão de pessoas no mundo. 

Via: The Next Web