Perfeccionan robots para que puedan gastar bromas

Ya hay sistemas de aprendizaje automático que son capaces de ‘bromear’ como lo haría un humano.

Si has visto fotos de una tetera con forma de aguacate o has leído un artículo bien escrito que se sale por la tangente de forma un tanto extraña, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA). Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación por su increíble capacidad para generar trabajos creativos.

¿Cómo funciona este nuevo enfoque de la IA? ¿Será el fin de la creatividad humana y el comienzo de una pesadilla de falsificación profunda? Los modelos  funcionan entrenando un único y enorme sistema con grandes cantidades de datos generales, y luego adaptando el sistema a nuevos problemas. Los modelos anteriores solían empezar desde cero para cada nuevo problema.

Emparejar imágenes y gastar bromas

DALL-E 2, por ejemplo, fue entrenado para emparejar imágenes (como la foto de un gato doméstico) con la leyenda («El Sr. Fuzzyboots, el gato atigrado, se relaja al sol») escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe qué aspecto tienen los gatos (y otras cosas) en las fotos.

Pero el modelo también puede utilizarse para muchas otras tareas interesantes de la IA, como generar nuevas imágenes a partir de un solo pie de foto («Muéstrame un koala encestando un balón de baloncesto») o editar imágenes a partir de instrucciones escritas («Haz que parezca que este mono está pagando impuestos»).

¿Cómo funcionan?

Funcionan con «redes neuronales profundas», inspiradas en el funcionamiento del cerebro. Estas redes implican una sofisticada matemática y una enorme potencia de cálculo, pero se reducen a un tipo de correspondencia de patrones muy sofisticado.

Por ejemplo, observando millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra «gato» con patrones de píxeles que suelen aparecer en las imágenes de gatos, como manchas de textura suave y peluda. Cuantos más ejemplos vea el modelo (cuantos más datos se le muestren), y cuanto más grande sea el modelo (cuantas más «capas» o «profundidad» tenga), más complejos pueden ser estos patrones y correlaciones.

El acceso es limitado – por ahora

La magnitud de estos sistemas de IA es difícil de imaginar. El PaLM tiene 540.000 millones de parámetros, lo que significa que aunque todos los habitantes del planeta memorizaran 50 números, no tendríamos suficiente espacio para reproducir el modelo.

Los modelos son tan enormes que su entrenamiento requiere enormes cantidades de recursos informáticos y de otro tipo. Una estimación sitúa el coste del entrenamiento del modelo lingüístico GPT-3 de OpenAI en unos 5 millones de dólares.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio