La ley europea de inteligencia artificial podría entrar en vigor a finales de 2024.
Todo empezó con un único tuit en noviembre de 2019. David Heinemeier Hansson, un empresario tecnológico de alto perfil, arremetió contra la recién lanzada tarjeta de crédito de Apple, calificándola de «sexista» por ofrecer a su esposa un límite de crédito 20 veces menor que el suyo.
Las acusaciones se extendieron como un reguero de pólvora, y Hansson subrayó que la inteligencia artificial -que ahora se utiliza ampliamente para tomar decisiones de préstamo- era la culpable. «No importa la intención de los representantes individuales de Apple, sino lo que hace EL ALGORITMO en el que han depositado toda su confianza. Y lo que hace es discriminar. Esto es una mierda».
Aunque los reguladores estadounidenses absolvieron a Apple y a sus suscriptores, Goldman Sachs, de violar las normas sobre préstamos justos el año pasado, esto reavivó un debate más amplio sobre el uso de la IA en las industrias públicas y privadas.
Los políticos de la Unión Europea están planeando introducir el primer modelo global para regular la IA, ya que las instituciones automatizan cada vez más las tareas rutinarias en un intento de aumentar la eficiencia y, en última instancia, reducir los costes.
La ley de Inteligencia Artificial
Esa legislación, conocida como Ley de Inteligencia Artificial, tendrá consecuencias más allá de las fronteras de la UE y, al igual que el Reglamento General de Protección de Datos de la UE, se aplicará a cualquier institución, incluidos los bancos del Reino Unido, que presten servicios a clientes de la UE. «El impacto de la ley, una vez adoptada, no puede ser exagerado», dijo Alexandru Circiumaru, responsable de políticas públicas europeas en el Instituto Ada Lovelace.
Dependiendo de la lista final de usos de «alto riesgo» de la UE, existe un impulso para introducir normas estrictas sobre cómo se utiliza la IA para filtrar las solicitudes de empleo, universidad o asistencia social, o -en el caso de los prestamistas- para evaluar la solvencia de los posibles prestatarios.
Los funcionarios de la UE esperan que, con una mayor supervisión y restricciones sobre el tipo de modelos de IA que pueden utilizarse, las normas frenen el tipo de discriminación basada en máquinas que podría influir en decisiones que cambian la vida de las personas, como si pueden permitirse una vivienda o un préstamo estudiantil.
«La IA puede utilizarse para analizar toda la salud financiera, incluidos los gastos, los ahorros y otras deudas, para obtener una imagen más completa», dijo Sarah Kocianski, consultora independiente de tecnología financiera. «Si se diseñan correctamente, estos sistemas pueden proporcionar un acceso más amplio al crédito asequible».
Pero uno de los mayores peligros es el sesgo involuntario, en el que los algoritmos acaban denegando préstamos o cuentas a determinados grupos, como mujeres, inmigrantes o personas de color. Parte del problema es que la mayoría de los modelos de IA sólo pueden aprender de los datos históricos que se les han proporcionado, lo que significa que aprenderán a qué tipo de cliente se le ha prestado anteriormente y qué clientes han sido marcados como poco fiables. Existe el peligro de que estén sesgados en cuanto a cómo es un «buen» prestatario», afirma Kocianski. «En particular, el género y la etnia suelen desempeñar un papel en los procesos de toma de decisiones de la IA basados en los datos que se le han enseñado: factores que no son en absoluto relevantes para la capacidad de una persona de devolver un préstamo».
A finales de 2024
Además, algunos modelos están diseñados para no tener en cuenta las denominadas características protegidas, lo que significa que no tienen en cuenta la influencia del género, la raza, la etnia o la discapacidad. Pero esos modelos de IA pueden seguir discriminando como resultado del análisis de otros puntos de datos, como los códigos postales, que pueden correlacionarse con grupos históricamente desfavorecidos que nunca han solicitado, obtenido o devuelto préstamos o hipotecas.
Y en la mayoría de los casos, cuando un algoritmo toma una decisión, es difícil que nadie entienda cómo ha llegado a esa conclusión, lo que da lugar a lo que se conoce como el síndrome de la «caja negra». Esto significa que los bancos, por ejemplo, pueden tener dificultades para explicar qué podría haber hecho un solicitante de forma diferente para poder optar a un préstamo o a una tarjeta de crédito, o si cambiar el género de un solicitante de hombre a mujer podría dar un resultado diferente.
Circiumaru dijo que la ley de IA, que podría entrar en vigor a finales de 2024, beneficiaría a las empresas tecnológicas que consiguieran desarrollar lo que él llamó modelos de «IA de confianza» que cumplieran con las nuevas normas de la UE.