Un estudio revela que la colaboración IA-Humano podría ser beneficiosa

Un nuevo método de entrenamiento permite que la inteligencia artificial se adapte a diversos estilos de juego en una partida cooperativa, en lo que podría ser una victoria para la colaboración entre humanos e inteligencia artificial.

A medida que la inteligencia artificial mejora en la realización de tareas que antes estaban exclusivamente en manos de los humanos, como la conducción de automóviles, muchos ven la inteligencia en equipo como una próxima frontera. En este futuro, los humanos y la IA son verdaderos socios en trabajos de alto riesgo, como la realización de complejas operaciones quirúrgicas o la defensa contra misiles. Pero antes de que la inteligencia en equipo pueda despegar, los investigadores deben superar un problema que corroe la cooperación: a los humanos a menudo no les gusta o no confían en sus compañeros de IA.

Mejoran la capacidad colaborativa de la IA

Ahora, una nueva investigación señala que la diversidad es un parámetro clave para hacer que la IA juegue mejor en equipo. Los investigadores del Laboratorio Lincoln del MIT han descubierto que el entrenamiento de un modelo de IA con compañeros de equipo matemáticamente «diversos» mejora su capacidad para colaborar con otra IA con la que nunca ha trabajado antes, en el juego de cartas Hanabi. Además, tanto Facebook como DeepMind, de Google, publicaron simultáneamente trabajos independientes que también infundían diversidad en el entrenamiento para mejorar los resultados en los juegos de colaboración entre humanos e IA.

En conjunto, los resultados pueden indicar a los investigadores un camino prometedor para crear una IA que pueda tener un buen rendimiento y ser considerada como buena colaboradora por los compañeros de equipo humanos.

«El hecho de que todos hayamos convergido en la misma idea -que si se quiere cooperar, hay que entrenar en un entorno diverso- es emocionante, y creo que realmente sienta las bases para el trabajo futuro en IA cooperativa», dice Ross Allen, investigador del Grupo de Tecnología de Inteligencia Artificial del Laboratorio Lincoln y coautor de un artículo que detalla este trabajo, presentado recientemente en la Conferencia Internacional sobre Agentes Autónomos y Sistemas Multiagente.

Adaptación a diferentes comportamientos

Para desarrollar la IA cooperativa, muchos investigadores utilizan Hanabi como campo de pruebas. Hanabi reta a los jugadores a trabajar juntos para apilar las cartas en orden, pero los jugadores sólo pueden ver las cartas de sus compañeros y sólo pueden darse escasas pistas sobre las cartas que tienen.

En un experimento anterior, los investigadores del Laboratorio Lincoln probaron con humanos uno de los modelos de IA de Hanabi con mejor rendimiento del mundo. Se sorprendieron al descubrir que a los humanos les disgustaba mucho jugar con este modelo de IA, calificándolo de compañero de equipo confuso e imprevisible. «La conclusión fue que nos faltaba algo sobre las preferencias humanas y que aún no somos buenos creando modelos que puedan funcionar en el mundo real», dice Allen.

El equipo se preguntó si la IA cooperativa debe ser entrenada de forma diferente. El tipo de IA que se utiliza, llamado aprendizaje por refuerzo, aprende tradicionalmente a tener éxito en tareas complejas descubriendo qué acciones producen la mayor recompensa. A menudo se entrena y se evalúa contra modelos similares a ella misma. Este proceso ha creado jugadores de IA inigualables en juegos competitivos como Go y StarCraft.

Deja un comentario

Tu dirección de correo electrónico no será publicada.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

EVENTOS

RECIBE LA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Ir arriba