La teoría del ofrecimiento ayudará a la Inteligencia Artificial

28 julio, 2020
6 Compartido 1,055 Visualizaciones

Un grupo de investigadores han estudiado como afecta la teoría del ofrecimiento de psicología a la Inteligencia Artifical y han obtenido resultados positivos.

En psicológica la teroía del ofrecimiento explica que «posibilidades materialmente ofrece un objeto para reconocer como usarlo», una teoría que pertenece a James J. Gibson del 1977. Esta teoría se ha visto que afecta tanto a las personas como a los animales.

El grupo de investigadores de DeepMind tomó este concepto para desarrollar un nuevo enfoque para el aprendizaje de refuerzo. En el aprendizaje de refuerzo que se ha estado utilizando hasta el momento, un agente aprende a través de la prueba y el error, ya que considera que cualquier acción es posible. Cuando se aplica el aprendizaje de refuerzo a un robot, y se le dice por ejemplo que se mueva del punto A al punto B, este probará todos los posibles caminos. Lo mejor sería que el robot aprendiera primero las asequiciones de su entorno, y así tardaría menos tiempo en llegar al camino correcto.

¿Cómo se desarrollo el experimento?

Para desarrollar el experimento los investigadores configuraron un escenario virtual simple. Para ello, colocaron un agente virtual en un entorno 2D con una pared en el centro e hicieron que el agente explorara su rango de movimiento hasta que hubiera aprendido lo que el entorno le permitiría hacer: sus asequiciones. Una vez que el robot sabía cómo podía interactuar con cada objeto del entorno, los investigadores le dieron al agente un conjunto de objetivos simples para lograr a través del aprendizaje de refuerzo, como moverse unos metros a la derecha o a la izquierda. Encontraron que, en esta ocasión el robot evitaba cualquier movimiento que hiciera que se bloqueara por la pared a mitad de su movimiento, estableciéndola para lograr su objetivo de manera más eficiente.

Aunque, las pruebas están todavía en su primera etapa, ya que han sido muy sencillas y los objetivos eran fáciles. Parece que podría asentarse una buena teoría para escalar la idea a acciones mucho más complejas.

En el futuro, este nuevo enfoque podría permitir a un robot evaluar rápidamente si puede, por ejemplo, verter líquido en una taza. Después de haber desarrollado una comprensión general de qué objetos ofrecen la posibilidad de sostener líquido y cuáles no, de esta manera se evitaría que vertiera líquido por toda la mesa antes de saber que la taza es el lugar donde puede hacerlo.

Te podría interesar

Firman un acuerdo para no fabricar armas con IA
Inteligencia Artificial
13 compartido2,238 visualizaciones
Inteligencia Artificial
13 compartido2,238 visualizaciones

Firman un acuerdo para no fabricar armas con IA

Mónica Gallego - 23 julio, 2018

Expertos y desarrolladores firmaron un acuerdo en la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IA) en el cual se comprometían a no fabricar armas con el uso…

«Para que los datos puedan aportar valor, antes hay que invertir en ellos»
Actualidad
20 compartido2,802 visualizaciones
Actualidad
20 compartido2,802 visualizaciones

«Para que los datos puedan aportar valor, antes hay que invertir en ellos»

José Luis Arcángel - 12 diciembre, 2019

Sodexo tiene muy claro que los datos son relevantes para el funcionamiento de su compañía. Elena Díaz de Liaño es la responsable de que esos datos gocen…

Objets 2.0 permite llevar a las aplicaciones analíticas y de Big Data a una infraestructura invisible
Actualidad
7 compartido1,053 visualizaciones
Actualidad
7 compartido1,053 visualizaciones

Objets 2.0 permite llevar a las aplicaciones analíticas y de Big Data a una infraestructura invisible

Redacción BDM - 20 marzo, 2020

La escalabilidad y sencillez de uso,en un solo click, de algunas soluciones ayuda a liberar a los científicos de datos para que puedan centrarse en tareas de…

Dejar comentario

Su email no será publicado

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.