Novo robô do MIT pode identificar objetos pela visão e pelo toque

O modelo pode prever a interação com o ambiente a partir de sentimentos táteis, diz o estudante de doutorado no MIT
Redação17/06/2019 13h01, atualizada em 17/06/2019 13h43

20190617100526

Compartilhe esta matéria

Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Para os humanos, é fácil identificar um objeto pelo toque ou descobrir como será a sensação de tocar alguma coisa apenas ao olhar para ela. Mas, para os robôs, esse pode ser um dos maiores obstáculos. Agora, um novo autômato desenvolvido pelo Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do MIT está tentando fazer justamente isso.

A equipe pegou um braço robótico KUKA e adicionou um sensor tátil chamado GelSight , criado pelo grupo de Ted Adelson no CSAIL. A informação recolhida pela GelSight foi então alimentada a uma Inteligência Artificial (IA) para que pudesse aprender a relação entre informação visual e táctil.

Para ensinar a IA como identificar objetos por toque, a equipe registrou 12.000 vídeos de 200 objetos, como tecidos, ferramentas e objetos domésticos sendo tocados. Os vídeos foram divididos em imagens fixas e a AI usou esse conjunto de dados para conectar dados de toque com os visuais.

“Olhando para a cena, nosso modelo pode imaginar a sensação de tocar uma superfície plana ou uma borda afiada”, diz Yunzhu Li, estudante de doutorado da CSAIL e principal autor de um novo artigo sobre o sistema. “Ao tocar cegamente ao redor, nosso modelo pode prever a interação com o ambiente puramente a partir de sentimentos táteis. Reunir esses dois sentidos poderia capacitar o robô e reduzir os dados que podemos precisar para tarefas que envolvem manipular e agarrar objetos”.

Por enquanto, ainda é difícil para o robô operar fora do ambiente controlado, porém o MIT está tentando aumentar o banco de dados para que seja possível trabalhar em configurações mais diversas. “Métodos como esse têm o potencial de serem muito úteis para a robótica, onde você precisa responder perguntas como ‘este objeto é duro ou mole?’, ou ‘se eu levantar essa caneca pela alça, quão forte terá que ser meu aperto?’ “, diz Andrew Owens, pesquisador de pós-doutorado da Universidade da Califórnia em Berkeley.

“Esse é um problema muito desafiador, já que os toques são muito diferentes, mas esse modelo demonstrou grande capacidade”.

Via: Engadget

Colaboração para o Olhar Digital

Redação é colaboração para o olhar digital no Olhar Digital