Paradojas matemáticas demuestran los límites de la IA

Investigadores de Cambridge y Oxford aseguran que la inestabilidad es el «talón de Aquiles de la IA modernaa» y prueban mediante una paradoja matemática las limitaciones de la inteligencia artificial.

Los humanos suelen ser bastante buenos para reconocer cuando se equivocan, pero los sistemas de inteligencia artificial no. Según un nuevo estudio, la IA suele sufrir limitaciones inherentes debido a una paradoja matemática centenaria.

Al igual que algunas personas, los sistemas de IA suelen tener un grado de confianza que supera con creces sus capacidades reales. Y al igual que una persona con exceso de confianza, muchos sistemas de IA no saben cuándo están cometiendo errores. A veces es incluso más difícil para un sistema de IA darse cuenta de que está cometiendo un error que producir un resultado correcto.

Investigadores de la Universidad de Cambridge y la Universidad de Oslo afirman que la inestabilidad es el talón de Aquiles de la IA moderna y que una paradoja matemática muestra las limitaciones de la IA. Las redes neuronales, la herramienta más moderna de la IA, imitan a grandes rasgos los vínculos entre las neuronas del cerebro. Los investigadores demuestran que hay problemas en los que existen redes neuronales estables y precisas, pero ningún algoritmo puede producirlas. Sólo en determinados casos los algoritmos pueden calcular redes neuronales estables y precisas.

Reconocimiento de patrones

Los investigadores proponen una teoría de clasificación que describe cuándo pueden entrenarse las redes neuronales para proporcionar un sistema de IA fiable en determinadas condiciones específicas. Sus resultados se publican en la revista Proceedings of the National Academy of Sciences.

El aprendizaje profundo, la principal tecnología de IA para el reconocimiento de patrones, ha sido objeto de numerosos titulares. Algunos ejemplos son el diagnóstico de enfermedades con más precisión que los médicos o la prevención de accidentes de tráfico mediante la conducción autónoma. Sin embargo, muchos sistemas de aprendizaje profundo son poco fiables y fáciles de engañar.

Inestabilidad de sistemas de IA

«Muchos sistemas de IA son inestables, y esto se está convirtiendo en una gran responsabilidad, sobre todo porque se utilizan cada vez más en áreas de alto riesgo, como el diagnóstico de enfermedades o los vehículos autónomos», afirma el coautor, el profesor Anders Hansen, del Departamento de Matemáticas Aplicadas y Física Teórica de Cambridge. «Si los sistemas de IA se utilizan en áreas en las que pueden causar un daño real si se equivocan, la confianza en esos sistemas tiene que ser la máxima prioridad».

La paradoja identificada por los investigadores se remonta a dos gigantes matemáticos del siglo XX: Alan Turing y Kurt Gödel. A principios del siglo XX, los matemáticos intentaron justificar las matemáticas como el último lenguaje coherente de la ciencia. Sin embargo, Turing y Gödel mostraron una paradoja en el corazón de las matemáticas: es imposible demostrar si ciertos enunciados matemáticos son verdaderos o falsos, y algunos problemas computacionales no pueden abordarse con algoritmos. Y, cuando un sistema matemático es lo suficientemente rico como para describir la aritmética que aprendemos en la escuela, no puede demostrar su propia consistencia.

Décadas después, el matemático Steve Smale propuso una lista de 18 problemas matemáticos sin resolver para el siglo XXI. El decimoctavo problema se refería a los límites de la inteligencia tanto para los humanos como para las máquinas.

«La paradoja identificada por primera vez por Turing y Gödel ha sido trasladada ahora al mundo de la IA por Smale y otros», dijo el coautor, el Dr. Matthew Colbrook, del Departamento de Matemáticas Aplicadas y Física Teórica. «Hay límites fundamentales inherentes a las matemáticas y, del mismo modo, no pueden existir algoritmos de IA para ciertos problemas».

Los investigadores afirman que, debido a esta paradoja, hay casos en los que pueden existir buenas redes neuronales, pero no se puede construir una intrínsecamente fiable. «Por muy precisos que sean los datos, nunca se puede obtener la información perfecta para construir la red neuronal necesaria», afirma el coautor, el Dr. Vegard Antun, de la Universidad de Oslo.

La imposibilidad de calcular la buena red neuronal existente también es cierta independientemente de la cantidad de datos de entrenamiento. Por muchos datos a los que pueda acceder un algoritmo, no producirá la red deseada. «Esto es similar al argumento de Turing: hay problemas computacionales que no pueden resolverse independientemente de la potencia de cálculo y el tiempo de ejecución», dijo Hansen.

Los investigadores afirman que no toda la IA es intrínsecamente defectuosa, sino que sólo es fiable en áreas específicas, utilizando métodos específicos. «El problema está en las áreas en las que se necesita una garantía, porque muchos sistemas de IA son una caja negra», dijo Colbrook. «Está completamente bien que en algunas situaciones una IA cometa errores, pero tiene que ser honesta al respecto. Y eso no es lo que estamos viendo en muchos sistemas: no hay forma de saber cuándo están más o menos seguros de una decisión».

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio