Com a evolução do coronavírus mundo afora, assistimos milhões de gráficos surgirem ilustrando o que poderá ocorrer no futuro com a disseminação da doença. Para contribuir nesse sentido, pesquisadores do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP, em São Carlos, estão utilizando técnicas de inteligência computacional (ramo da inteligência artificial) para analisar eventos extraídos de notícias em forma de texto.

Informações sobre o que aconteceu (como, quando, onde e com quem) têm sido o suficiente para obter bons adiantamentos nas áreas de agronegócio e educação desde 2014, quando a equipe começou a desenvolver uma ferramenta própria, chamada de Websensors, para esse caso.

Agora, a intenção é outra: coletar dados sobre o novo coronavírus (Covid-19) para incorporá-los a modelos de previsão já existentes, como da curva de contaminação da pandemia, que é alterada conforme novos eventos surgem.

“Quando olhamos para a evolução futura da curva de contaminação de uma doença e levamos em conta apenas dados sobre contágios que aconteceram no passado, temos uma visão limitada do problema. Se for possível enriquecer essa visão, adicionando à previsão informações extraídas de fontes confiáveis, acreditamos que poderemos incrementar nosso olhar e, quem sabe, construir modelos preditivos mais próximos da realidade”, explicou Solange Rezende, coordenadora do projeto junto ao professor Ricardo Marcacini, ambos do Laboratório de Inteligência Computacional do ICMC.

Da mesma forma que meteorologistas utilizam sensores ao longo do tempo para medir a temperatura, a umidade, a quantidade de chuva, a velocidade e a direção dos ventos em um lugar com o intuito de prever o clima no futuro, os pesquisadores poderão coletar informações confiáveis e seguras do mundo inteiro para antecipar o desenrolar do coronavírus e suas consequências.

“Isso acontece porque os computadores conseguem processar uma grande quantidade de informações e encontrar padrões no que aconteceu no passado e que poderá se repetir no futuro”, afirmou Marcacini.

Reprodução

Os links relacionados à Covid-19 são captados por meio de uma plataforma internacional chamada GDELT. Após a coleta, os pesquisadores do ICMC separam as notícias de fontes confiáveis que se referem especificamente à doença ou ao vírus que a causa. Em seguida, esses textos são transformados em um conjunto de sinais através de um processamento de linguagem natural – como uma tradução da linguagem humana para a linguagem das máquinas.

O conjunto de sinais é, então, inserido em uma rede neural, que analisa as características extraídas dos textos e dá pesos diferentes a cada uma, o que depende da frequência com que cada característica aparece na coletânea. Trata-se de encontrar padrões em um número gigantesco de textos, algo que um ser humano não seria capaz de fazer.

Como exemplo, de 19 a 24 de março, a ferramenta criada pelos pesquisadores do ICMC capturou 26.713 eventos georreferenciados em notícias que citam a palavra ‘Covid-19’ ou o ‘coronavírus’. Essas informações unidas aos dados de infecção oficiais resultaram em um modelo de contaminação para os próximos sete dias, que difere da curva desenvolvida com base apenas nos dados oficiais. Se a ferramenta do ICMC estiver certa, o número de infecções será ainda maior.

“Acrescentando os eventos, de fato há um ajuste para cima, com a previsão de mais casos, embora a gente precise fazer a ressalva de que ainda temos poucos dados no Brasil para validar estatisticamente essa análise preditiva”, disse Marcacini.

 

Via: Uol