Investigadores del MIT desarrollan una técnica que permite a un robot aprender una nueva tarea de recoger y colocar con sólo un puñado de demostraciones humanas.

Ante la avalancha de pedidos de comercio electrónico, un robot de almacén recoge tazas de una estantería y las coloca en cajas para su envío. Todo va bien, hasta que el almacén procesa un cambio y el robot tiene que coger tazas más altas y estrechas que se almacenan al revés.

Para reprogramar el robot hay que etiquetar a mano miles de imágenes que muestren cómo agarrar estas nuevas tazas y volver a entrenar el sistema. Pero una nueva técnica desarrollada por investigadores del MIT sólo requeriría un puñado de demostraciones humanas para reprogramar el robot. Este método de aprendizaje automático permite al robot coger y colocar objetos nunca vistos que se encuentran en poses aleatorias con las que nunca se ha encontrado. En 10 ó 15 minutos, el robot estará listo para realizar una nueva tarea de recogida y colocación.

La técnica utiliza una red neuronal diseñada específicamente para reconstruir las formas de los objetos en 3D. Con sólo unas pocas demostraciones, el sistema utiliza lo que la red neuronal ha aprendido sobre la geometría 3D para agarrar nuevos objetos similares a los de las demostraciones.

Sistema para e-commerce

En simulaciones y utilizando un brazo robótico real, los investigadores demuestran que su sistema puede manipular eficazmente tazas, cuencos y botellas nunca vistas, dispuestas en poses aleatorias, utilizando sólo 10 demostraciones para enseñar al robot.

«Nuestra principal aportación es la capacidad general de proporcionar de forma mucho más eficiente nuevas habilidades a los robots que tienen que operar en entornos más desestructurados en los que puede haber mucha variabilidad. El concepto de generalización por construcción es una capacidad fascinante porque este problema suele ser mucho más difícil», afirma Anthony Simeonov, estudiante de posgrado en ingeniería eléctrica e informática (EECS) y coautor del artículo.

Simeonov escribió el artículo junto con Yilun Du, estudiante de posgrado de EECS; Andrea Tagliasacchi, investigador científico de Google Brain; Joshua B. Tenenbaum, profesor de desarrollo profesional Paul E. Newton de la cátedra de cognición. Newton Career Development Professor of Cognitive Science and Computation en el Departamento de Ciencias Cognitivas y del Cerebro y miembro del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL); Alberto Rodríguez, profesor asociado de la promoción de 1957 del Departamento de Ingeniería Mecánica; y los autores principales Pulkit Agrawal, profesor del CSAIL, y Vincent Sitzmann, profesor asistente entrante de EECS. La investigación se presentará en la Conferencia Internacional sobre Robótica y Automatización.

Deja un comentario

Tu dirección de correo electrónico no será publicada.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

EVENTOS

RECIBE LA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Ir arriba