Artículo de Mónica Villas, asesora de Tecnología, experta en Inteligencia Artificial y autora del ‘Manual de ética en Inteligencia Artificial’.
La inteligencia artificial (IA) se está convirtiendo en una parte cada vez más importante de nuestras vidas, y se está utilizando en una amplia variedad de aplicaciones, desde la atención médica hasta la publicidad en línea. Sin embargo, a medida que la IA se vuelve más sofisticada y se utiliza en situaciones críticas, como la toma de decisiones médicas o financieras, se vuelve cada vez más importante comprender cómo se están tomando estas decisiones.
Mónica Villas, asesora de Tecnología, experta en Inteligencia Artificial y autora del ‘Manual de ética en Inteligencia Artificial’, escribe para PiperLab esta reflexión sobre la evolución, impacto y consecuencias sobre la IA y la ética, y la necesidad de explicar los algoritmos.

Aunque la inteligencia artificial (IA) surgió alrededor de los años 50, no ha sido hasta el año 2010 cuando se ha empezado a utilizar de manera masiva. Su uso ha venido favorecido por la existencia de más datos que nunca, la mejora de los procesadores y el surgimiento de Cloud, que permite pagar sólo por uso, y esto resulta en un menor coste a la hora de entrenar los algoritmos. Además, existen cada vez más algoritmos open source que permiten la reutilización y en consecuencia unos tiempos de desarrollo muchos más cortos para diseñar aplicaciones de IA.
En la actualidad usamos IA cada día sin darnos cuenta, cuando nos desplazamos usando los navegadores, cuando interactuamos con los asistentes de voz que ya son un dispositivo más en nuestras casas, también cuando nos conceden un préstamo, nos recomiendan una película o incluso nos realizan un diagnóstico médico. Uno de los ejemplos más recientes, es el proyecto Alphafold de Deepmind, que permite a los médicos acortar los tiempos de diseño de proteínas, gracias al uso de la IA y que puede suponer una revolución en la cura de ciertas enfermedades. Pero también hemos visto ejemplos de cómo los asistentes de voz pueden invadir nuestra privacidad, como se pueden crear caras de personas que no existen, noticias falsas o incluso decisiones tomadas por la IA que están sesgadas. La IA puede ser de gran ayuda para el ser humano, pero como toda nueva tecnología tiene sus riesgos.
Es por ello qué desde el 2015 han surgido multitud de documentos acerca de la IA ética, y más en concreto de cuáles tendrían que ser los principios éticos que debería regir esta “nueva tecnología” que estamos utilizando ahora de manera masiva. A pesar de la multitud de publicaciones de organismos supranacionales, internacionales, entidades públicas y compañías tecnológicas, a día de hoy, no hay un acuerdo global en cuales deberían ser los principios éticos fundamentales para aplicar a la IA. Si bien es verdad que la mayoría de ellos se tiende a encuadrarlos en cuatro grandes grupos: autonomía, justicia, crear beneficio y no maleficiencia, y esto que podríamos considerarlo como un gran paso, es todavía insuficiente, pues sigue habiendo mucho debate en la sociedad sobre la utilización de la IA y cuáles deberían ser esos principios para marcar los límites de su uso.
Europa, que fue pionera con el RGPD (Reglamento General de Protección de Datos), ha vuelto a ser un modelo a seguir publicando el primer reglamento de IA en 2021, después de un trabajo de más de tres años que se inició en el 2018 y que se ha ido mejorando gracias a la participación de la sociedad civil, empresas, gobiernos y además un grupo de expertos (HLEG), en IA y ética, de todos los países europeos. El progreso de esta regulación, aunque continuado, no está siendo sencillo y además desde finales del año pasado la irrupción de ChatGPT ha generado nuevas incógnitas, principalmente acerca de la inclusión de este tipo de IA llamada generativa en dicha regulación. Sin duda estos nuevos modelos van a requerir de reflexiones adicionales y probablemente esto retrase la puesta en marcha de la regulación, pero Europa sigue convencida de la necesidad de este reglamento.
Estas normas se han diseñado en base a una aproximación a riesgos, de esta manera se han establecido cuatro niveles. Desde los riesgos inaceptables como el “social scoring”, es decir, que nos etiqueten por nuestro comportamiento hasta los riesgos aceptables como las aplicaciones que únicamente nos recomiendan películas, pasando por aquellas aplicaciones de riesgo medio y alto que requerirán de un análisis de explicabilidad para entender como está siendo realizada la toma de decisiones y poder mitigar los posibles problemas éticos, como por ejemplo los sesgos o la privacidad.
Es precisamente la explicabilidad, uno de los muchos principios éticos, lo que nos puede ayudar más a que la IA sea más confiable, aunque no es el único. Básicamente podemos clasificar los algoritmos en “caja negra” o “caja blanca”, teniendo en cuenta su explicabilidad. Los primeros, no requieren generalmente de una explicación dado que suelen tener una explicabilidad intrínseca, por ejemplo, árboles de decisiones o algoritmos de regresión lineal. En el caso de los algoritmos de “caja negra”, requieren de una explicación para poder entender como se ha hecho la toma de decisiones de ahí su nombre. Desde hace ya unos años se está investigando y avanzando en multitud de técnicas de explicabilidad, utilizando algoritmos más sencillos para explicar esos algoritmos más complejos obteniendo muy buenos resultados que ayudan a proporcionar una mayor confianza en esos algoritmos de caja negra. Algunas de estas técnicas de explicabilidad, están siendo incorporadas en software de IA comerciales y también están surgiendo empresas que desarrollan herramientas con ese propósito.
Vivimos sin duda un momento apasionante para los que trabajamos en IA, y desde mi punto de vista hay tres acciones diferenciadas en las que podemos ir trabajando para una IA más ética, sin esperar un acuerdo en los principios éticos a nivel global, que puede que nunca llegue. Por un lado, en la formación en IA de toda la sociedad, con el objetivo que entiendan su funcionamiento, y que puedan experimentar como la IA puede ayudarles en su día a día para hacer su trabajo de manera más eficiente, pero también para que entiendan los riesgos asociados, así como la necesidad de unos principios éticos. Esto significa no solo aprender de IA sino además reforzar el “pensamiento crítico”. Por otro lado, es clave que cualquier empresa que utilice la IA, incluya la ética desde el diseño de los algoritmos, y de esta manera poder minimizar los riesgos asociados. Por último, pero no menos importante, continuar con los avances que se están haciendo en técnicas de explicabilidad para poder interpretar mejor, esos algoritmos que llamamos de caja negra.