Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on whatsapp
Share on telegram
Share on email

Pese a que la inteligencia artificial puede emplearse en infinidad de situaciones, aún hay algunas tareas que son solo propias de los humanos.

Puede producir contenidos originales impresionantes: poesía, prosa, imágenes, música, rostros humanos. Puede diagnosticar algunas enfermedades con más precisión que un médico. El año pasado, dio una solución al «problema del plegado de las proteínas», un gran reto de la biología que ha dejado perplejos a los investigadores durante medio siglo.

Sin embargo, la IA actual sigue teniendo limitaciones fundamentales. En relación con lo que esperaríamos de un agente verdaderamente inteligente -en relación con la inspiración original y el punto de referencia de la inteligencia artificial, la cognición humana- la IA tiene un largo camino por recorrer.


A los críticos les gusta señalar estas deficiencias como prueba de que la búsqueda de la inteligencia artificial está equivocada o ha fracasado. Sin embargo, la mejor manera de verlos es como inspiración: como un inventario de los retos que será importante abordar para avanzar en el estado del arte de la IA.

Es útil dar un paso atrás y evaluar con franqueza los puntos fuertes y débiles de la IA actual para centrar mejor los recursos y los esfuerzos de investigación en el futuro. En cada una de las áreas que se comentan a continuación, ya se está trabajando de forma prometedora en las fronteras del campo para hacer que la próxima generación de inteligencia artificial sea más potente y robusta.

Utilizar el «sentido común»

Imagina lo siguiente: Un hombre fue a un restaurante. Pidió un filete. Dejó una gran propina. Si se le preguntara qué comió el hombre en este caso, un humano no tendría problemas para dar la respuesta correcta: un filete. Sin embargo, la inteligencia artificial más avanzada de hoy en día tiene dificultades para responder a este tipo de preguntas. ¿Cómo es posible?

Fíjate en que esta frase nunca dice directamente que el hombre comió un filete. La razón por la que los humanos captan automáticamente este hecho es que poseemos un amplio conjunto de conocimientos básicos sobre el funcionamiento del mundo: por ejemplo, que la gente come en restaurantes, que antes de comer en un restaurante lo piden, que después de comer dejan una propina. Nos referimos a este vasto cuerpo de conocimiento cotidiano, compartido y generalmente tácito, como «sentido común».

Aprender continuamente y adaptarse sobre la marcha

En la actualidad, el proceso típico de desarrollo de la IA se divide en dos fases distintas: el entrenamiento y el despliegue.

Durante el entrenamiento, un modelo de IA ingiere un conjunto de datos estático preexistente para aprender a realizar una determinada tarea. Una vez completada la fase de entrenamiento, se fijan los parámetros del modelo. A continuación, el modelo se pone en funcionamiento, donde genera ideas sobre nuevos datos basándose en lo que ha aprendido de los datos de entrenamiento.

Si queremos actualizar el modelo basándonos en nuevos datos o en circunstancias cambiantes, tenemos que volver a entrenarlo fuera de línea con el conjunto de datos actualizados (un proceso que suele requerir mucho tiempo y cálculo) y luego volver a desplegarlo.

Este paradigma de entrenamiento/despliegue por lotes está tan arraigado en la práctica moderna de la IA que a menudo no nos detenemos a considerar sus diferencias e inconvenientes en relación con la forma en que aprenden los humanos.

Los entornos del mundo real implican un flujo continuo de datos entrantes. La nueva información está disponible de forma incremental; las circunstancias cambian con el tiempo, a veces de forma abrupta. Los seres humanos son capaces de incorporar de forma dinámica y fluida esta información continua de su entorno, adaptando su comportamiento sobre la marcha. En el lenguaje del aprendizaje automático, se podría decir que los humanos «entrenan» y «despliegan» en paralelo y en tiempo real. La IA actual carece de esta flexibilidad.

Comprender la causa y el efecto

El aprendizaje automático actual es, en esencia, una herramienta correlativa. Es excelente para identificar patrones y asociaciones sutiles en los datos. Pero cuando se trata de entender los mecanismos causales -la dinámica del mundo real- que subyacen a esos patrones, la IA actual está perdida.

Por poner un ejemplo sencillo: con los datos adecuados, un modelo de aprendizaje automático no tendría problemas para identificar que los gallos cantan cuando sale el sol. Pero sería incapaz de establecer si el canto del gallo provoca la salida del sol o viceversa; de hecho, ni siquiera está equipado para entender los términos de esta distinción.

Desde sus inicios, el campo de la inteligencia artificial -y, de hecho, el campo de la estadística en general- se ha diseñado para comprender las asociaciones y no las causas. Esto se refleja en los símbolos matemáticos básicos que utilizamos.

«El lenguaje del álgebra es simétrico: si X nos habla de Y, entonces Y nos habla de X», dice la lumbrera de la IA Judea Pearl, que durante años ha estado al frente del movimiento para construir una IA que entienda la causalidad. «Las matemáticas no han desarrollado el lenguaje asimétrico necesario para captar nuestra comprensión de que si X causa Y no significa que Y cause X», concluye.

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on whatsapp
Share on telegram
Share on email

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

ARTÍCULOS MÁS RECIENTES

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Ir arriba