Enseñan a robots a aprender más rápido

Investigadores del MIT desarrollan una técnica que permite a un robot aprender una nueva tarea de recoger y colocar con sólo un puñado de demostraciones humanas.

Ante la avalancha de pedidos de comercio electrónico, un robot de almacén recoge tazas de una estantería y las coloca en cajas para su envío. Todo va bien, hasta que el almacén procesa un cambio y el robot tiene que coger tazas más altas y estrechas que se almacenan al revés.

Para reprogramar el robot hay que etiquetar a mano miles de imágenes que muestren cómo agarrar estas nuevas tazas y volver a entrenar el sistema. Pero una nueva técnica desarrollada por investigadores del MIT sólo requeriría un puñado de demostraciones humanas para reprogramar el robot. Este método de aprendizaje automático permite al robot coger y colocar objetos nunca vistos que se encuentran en poses aleatorias con las que nunca se ha encontrado. En 10 ó 15 minutos, el robot estará listo para realizar una nueva tarea de recogida y colocación.

La técnica utiliza una red neuronal diseñada específicamente para reconstruir las formas de los objetos en 3D. Con sólo unas pocas demostraciones, el sistema utiliza lo que la red neuronal ha aprendido sobre la geometría 3D para agarrar nuevos objetos similares a los de las demostraciones.

Sistema para e-commerce

En simulaciones y utilizando un brazo robótico real, los investigadores demuestran que su sistema puede manipular eficazmente tazas, cuencos y botellas nunca vistas, dispuestas en poses aleatorias, utilizando sólo 10 demostraciones para enseñar al robot.

«Nuestra principal aportación es la capacidad general de proporcionar de forma mucho más eficiente nuevas habilidades a los robots que tienen que operar en entornos más desestructurados en los que puede haber mucha variabilidad. El concepto de generalización por construcción es una capacidad fascinante porque este problema suele ser mucho más difícil», afirma Anthony Simeonov, estudiante de posgrado en ingeniería eléctrica e informática (EECS) y coautor del artículo.

Simeonov escribió el artículo junto con Yilun Du, estudiante de posgrado de EECS; Andrea Tagliasacchi, investigador científico de Google Brain; Joshua B. Tenenbaum, profesor de desarrollo profesional Paul E. Newton de la cátedra de cognición. Newton Career Development Professor of Cognitive Science and Computation en el Departamento de Ciencias Cognitivas y del Cerebro y miembro del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL); Alberto Rodríguez, profesor asociado de la promoción de 1957 del Departamento de Ingeniería Mecánica; y los autores principales Pulkit Agrawal, profesor del CSAIL, y Vincent Sitzmann, profesor asistente entrante de EECS. La investigación se presentará en la Conferencia Internacional sobre Robótica y Automatización.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.