Novo robô do MIT pode identificar as coisas pela visão e pelo toque

mit robô
mit robô

Um novo robô desenvolvido pelo Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do MIT está tentando fazer o mesmo que os humanos fazem – identificar coisas pela visão e pelo tacto.

A equipe do MIT pegou um braço robótico KUKA e adicionou um sensor tátil chamado GelSight, criado pelo grupo de Ted Adelson no CSAIL. A informação recolhida pela GelSight foi então alimentada a uma AI para que pudesse aprender a relação entre informação visual e táctil.

Para ensinar a IA como identificar objetos por toque, a equipe registrou 12.000 vídeos de 200 objetos, como tecidos, ferramentas e objetos domésticos sendo tocados. Os vídeos foram divididos em imagens fixas e a AI usou esse conjunto de dados para conectar dados táticos e visuais.

“Olhando para a cena, nosso modelo pode imaginar a sensação de tocar uma superfície plana ou uma borda afiada”, diz Yunzhu Li, estudante de doutorado da CSAIL e principal autor de um novo artigo sobre o sistema. “Ao tocar cegamente ao redor, nosso modelo pode prever a interação com o ambiente puramente a partir de sentimentos táteis. Reunir esses dois sentidos poderia capacitar o robô e reduzir os dados que podemos precisar para tarefas que envolvem manipular e agarrar objetos”.