Guillaume Lample e François Charton, pesquisadores do laboratório de inteligência artificial do Facebook em Paris, anunciaram a criação de uma rede neural que pode resolver expressões matemáticas avançadas, algo inédito. E o mais impressionante é que ela faz isso muito mais rápido, e com mais precisão, que software matemático tradicional como o Mathematica ou Matlab.

Publicidade

Redes neurais são muito boas no reconhecimento de padrões, como rostos ou objetos, mas até o momento tinham conseguido no máximo realizar a multiplicação e adição de inteiros. Cálculos mais avançados são difíceis porque que a matemática é uma linguagem altamente simbólica, e interpretar o significado e relações entre estes símbolos requer um nível de raciocínio abstrato que os sistemas existentes não conseguiam atingir.

O “pulo do gato” na técnica desenvolvida por Lample e Charton foi determinar que, ao nível fundamental, processos como integração e derivação são tarefas de reconhecimento de padrões, embora expressas de uma forma diferente. Seu algoritmo “quebra” uma equação em suas unidades fundamentais e treina a IA para reconhecer os padrões relacionados a integração e derivação.

Publicidade

A IA foi treinada com um banco de dados com 80 milhões de equações diferenciais de primeira e segunda ordem, e depois comparada com pacotes comerciais como Matlab e Mathematica resolvendo 5.000 expressões que nunca tinha visto antes. Os resultados são reveladores.

publicidade

“Em todas as tarefas, observamos que nosso modelo é significativamente superior ao Mathematica”, disseram os pesquisadores. “Na integração de funções, nosso modelo chega a 100% de precisão, enquanto o Mathematica mal chega a 85%”. Outros softwares, como o Maple e Matlab, se saem ainda pior.

Em alguns casos os pesquisadores impuseram um limite de 30 segundos para que a solução fosse encontrada. Sua IA geralmente concluía a tarefa em um segundo, enquanto os softwares concorrentes muitas vezes não conseguiam nada dentro do limite de tempo.

Publicidade

Um resultado interessante é que a rede neural geralmente encontra várias soluções equivalentes para o mesmo problema. Isso ocorre porque as expressões matemáticas geralmente podem ser escritas de várias maneiras diferentes.

Essa capacidade é um mistério tentador para os pesquisadores. “A capacidade do modelo de recuperar expressões equivalentes, sem ter sido treinado para fazê-lo, é muito intrigante”, afirmam Lample e Charton.

Fonte: MIT Technology Review

Publicidade