La inteligencia artificial reconstruye secuencias de movimiento de personas y animales

La IA ayuda a investigadores a recrear las secuencias de imágenes que no se han presenciado para poder conocer los movimientos que han realizado los animales.

Imaginemos por un momento que estamos en un safari viendo pastar a una jirafa. Tras apartar la vista un segundo, vemos que el animal baja la cabeza y se sienta. Pero, nos preguntamos, ¿qué ha pasado mientras tanto? Los informáticos del Centro para el Estudio Avanzado del Comportamiento Colectivo de la Universidad de Constanza han encontrado una forma de codificar la pose y el aspecto de un animal para mostrar los movimientos intermedios que estadísticamente es probable que hayan tenido lugar.

Un problema clave de la visión por ordenador es que las imágenes son increíblemente complejas. Una jirafa puede adoptar una amplísima gama de poses. En un safari, no suele ser problema perderse parte de una secuencia de movimiento, pero, para el estudio del comportamiento colectivo, esta información puede ser crítica. Aquí es donde entran en juego los informáticos con el nuevo modelo «titiritero neural».

«Una idea en visión por ordenador es describir el complejísimo espacio de las imágenes codificando sólo el menor número posible de parámetros», explica Bastian Goldlücke, profesor de visión por ordenador en la Universidad de Constanza. Una representación muy utilizada hasta ahora es el esqueleto. En un nuevo artículo publicado en Proceedings of the 16th Asian Conference on Computer Vision, Bastian Goldlücke y los investigadores doctorales Urs Waldmann y Simon Giebenhain presentan un modelo de red neuronal que permite representar secuencias de movimiento y renderizar la apariencia completa de animales desde cualquier punto de vista basándose en unos pocos puntos clave.

«La idea era poder predecir puntos clave en 3D y también poder rastrearlos independientemente de la textura«, explica el investigador doctoral Urs Waldmann. «Por eso construimos un sistema de IA que predice imágenes de siluetas desde cualquier perspectiva de cámara basándose en puntos clave 3D». Invirtiendo el proceso, también es posible determinar puntos esqueléticos a partir de imágenes de siluetas. A partir de los puntos clave, el sistema de IA es capaz de calcular los pasos intermedios que son estadísticamente probables. Utilizar la silueta individual puede ser importante. Esto se debe a que, si sólo se trabaja con puntos esqueléticos, no se sabría si el animal que se está observando es bastante masivo o si está próximo a la inanición.

Objetivo a largo plazo: aplicar el sistema al mayor número posible de datos sobre animales salvajes

El equipo empezó prediciendo los movimientos de la silueta de humanos, palomas, jirafas y vacas. Los humanos se utilizan a menudo como casos de prueba en informática, señala Waldmann. Sus colegas del Cluster of Excellence trabajan con palomas. Sin embargo, sus finas garras suponen un verdadero reto. Para las vacas se disponía de buenos datos modelo, mientras que el larguísimo cuello de la jirafa era un reto que Waldmann estaba deseando afrontar. El equipo generó siluetas basadas en unos pocos puntos clave: de 19 a 33 en total.

Ahora los informáticos están listos para la aplicación en el mundo real: En el Imaging Hanger de la Universidad de Constanza, su mayor laboratorio para el estudio del comportamiento colectivo, se recogerán datos sobre insectos y aves en el futuro. En el Imaging Hangar es más fácil controlar aspectos ambientales como la iluminación o el fondo que en la naturaleza. Sin embargo, el objetivo a largo plazo es entrenar el modelo para tantas especies de animales salvajes como sea posible, con el fin de obtener nuevos conocimientos sobre el comportamiento de los animales.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio