Muchos de los pioneros que empezaron a desarrollar redes neuronales artificiales no estaban seguros de cómo funcionaban realmente, y hoy no están más seguros.
En 1956, durante un viaje de un año a Londres y con poco más de 20 años, el matemático y biólogo teórico Jack D Cowan visitó a Wilfred Taylor y su nueva y extraña «máquina de aprender». A su llegada, quedó desconcertado por el «enorme banco de aparatos» que tenía ante sí. Cowan sólo pudo quedarse mirando cómo «la máquina hacía lo suyo». Lo que parecía estar haciendo era llevar a cabo un «esquema de memoria asociativa»: parecía ser capaz de aprender a encontrar conexiones y recuperar datos.
Puede que parecieran bloques de circuitos toscos, soldados a mano en un amasijo de cables y cajas, pero lo que Cowan estaba presenciando era una forma analógica temprana de red neuronal, precursora de la inteligencia artificial más avanzada de hoy en día, incluida la muy discutida ChatGPT, con su capacidad para generar contenido escrito en respuesta a casi cualquier orden. La tecnología subyacente de ChatGPT es una red neuronal. (Más información sobre las emociones AI soñadas por ChatGPT).
Mientras Cowan y Taylor observaban el funcionamiento de la máquina, no tenían ni idea de cómo se las arreglaba exactamente para realizar esta tarea. La respuesta al misterioso cerebro de la máquina de Taylor puede encontrarse en algún lugar de sus «neuronas analógicas», en las asociaciones realizadas por su memoria de máquina y, lo que es más importante, en el hecho de que su funcionamiento automatizado no podía explicarse del todo. Estos sistemas tardarían décadas en encontrar su propósito y en desvelar ese poder.
El término red neuronal incorpora una amplia gama de sistemas, pero, según IBM, estas «redes neuronales -también conocidas como redes neuronales artificiales (RNA) o redes neuronales simuladas (SNN)- son un subconjunto del aprendizaje automático y están en el corazón de los algoritmos de aprendizaje profundo». Y lo que es más importante, el propio término y su forma y estructura están «inspirados en el cerebro humano, imitando la forma en que las neuronas biológicas se señalan unas a otras».
Puede que quedara alguna duda residual sobre su valor en sus fases iniciales, pero con el paso de los años la moda de la IA ha virado firmemente hacia las redes neuronales. Ahora se las considera a menudo el futuro de la IA. Tienen grandes implicaciones para nosotros y para lo que significa ser humano. Recientemente hemos oído ecos de estas preocupaciones con llamamientos a poner en pausa los nuevos desarrollos de IA durante un periodo de seis meses para garantizar la confianza en sus implicaciones.
Sin duda, sería un error descartar la red neuronal por tratarse únicamente de nuevos artilugios brillantes y llamativos. Ya están bien implantadas en nuestras vidas. Algunas son potentes por su practicidad. Ya en 1989, un equipo de AT&T Bell Laboratories utilizó técnicas de retropropagación para entrenar un sistema de reconocimiento de códigos postales escritos a mano. El reciente anuncio de Microsoft de que las búsquedas en Bing estarán basadas en IA, lo que lo convertirá en su «copiloto para la web», ilustra cómo las cosas que descubrimos y cómo las entendemos serán cada vez más un producto de este tipo de automatización.
Basándose en una gran cantidad de datos para encontrar patrones, la IA puede entrenarse para hacer cosas como el reconocimiento de imágenes a gran velocidad, lo que se traduce, por ejemplo, en su incorporación al reconocimiento facial. Esta capacidad de identificar patrones ha dado lugar a muchas otras aplicaciones, como la predicción de los mercados bursátiles.
Inspiradas en el cerebro humano
Estas redes neuronales pueden ser sistemas complejos, pero tienen algunos principios básicos. Inspiradas en el cerebro humano, tratan de copiar o simular formas de pensamiento biológico y humano. En términos de estructura y diseño están compuestas, como también explica IBM, por «capas de nodos, que contienen una capa de entrada, una o más capas ocultas y una capa de salida». Dentro de ésta, «cada nodo, o neurona artificial, se conecta a otro». Como necesitan entradas e información para crear salidas, «dependen de datos de entrenamiento para aprender y mejorar su precisión con el tiempo». Estos detalles técnicos son importantes, pero también lo es el deseo de modelar estos sistemas a partir de las complejidades del cerebro humano.
Algunos investigadores como Joy Buolamwini, que en el Media Lab del MIT también ha trabajado para poner de relieve los sesgos raciales inherentes a muchos algoritmos de IA ya en uso, también sostiene que es necesario ampliar la educación sobre cómo la IA da forma a la vida de las personas. Erin Young, Judy Wajcman y Laila Sprejer, del Instituto Alan Turing, también han pedido a los gobiernos que tomen medidas para abordar las diferencias de género en los datos utilizados por la IA.
A medida que los avances en IA sigan configurando su conocimiento y comprensión del mundo, lo que descubren, cómo los tratan, cómo aprenden, consumen e interactúan, este impulso por comprender irá en aumento. Cuando se trata de una IA explicable y transparente, la historia de las redes neuronales les dice que es probable que en el futuro se alejen más de ese objetivo, en lugar de acercarse a él.