La explicabilidad de la Inteligencia Artificial

Artículo de Mónica Villas, asesora de Tecnología, experta en Inteligencia Artificial y autora del ‘Manual de ética en Inteligencia Artificial’.

La inteligencia artificial (IA) se está convirtiendo en una parte cada vez más importante de nuestras vidas, y se está utilizando en una amplia variedad de aplicaciones, desde la atención médica hasta la publicidad en línea. Sin embargo, a medida que la IA se vuelve más sofisticada y se utiliza en situaciones críticas, como la toma de decisiones médicas o financieras, se vuelve cada vez más importante comprender cómo se están tomando estas decisiones.

Mónica Villas, asesora de Tecnología, experta en Inteligencia Artificial y autora del ‘Manual de ética en Inteligencia Artificial’, escribe para PiperLab esta reflexión sobre la evolución, impacto y consecuencias sobre la IA y la ética, y la necesidad de explicar los algoritmos.

Mónica Villas

Aunque la inteligencia artificial (IA) surgió alrededor de los años 50, no ha sido hasta el año 2010 cuando se ha empezado a utilizar de manera masiva. Su uso ha venido favorecido por la existencia de más datos que nunca, la mejora de los procesadores y el surgimiento de Cloud, que permite pagar sólo por uso, y esto resulta en un menor coste a la hora de entrenar los algoritmos.  Además, existen cada vez más algoritmos open source que permiten la reutilización y en consecuencia unos tiempos de desarrollo muchos más cortos para diseñar aplicaciones de IA.

En la actualidad usamos IA cada día sin darnos cuenta, cuando nos desplazamos usando los navegadores, cuando interactuamos con los asistentes de voz que ya son un dispositivo más en nuestras casas, también cuando nos conceden un préstamo, nos recomiendan una película o incluso nos realizan un diagnóstico médico. Uno de los ejemplos más recientes, es el proyecto Alphafold de Deepmind, que permite a los médicos acortar los tiempos de diseño de proteínas, gracias al uso de la IA y que puede suponer una revolución en la cura de ciertas enfermedades. Pero también hemos visto ejemplos de cómo los asistentes de voz pueden invadir nuestra privacidad, como se pueden crear caras de personas que no existen, noticias falsas o incluso decisiones tomadas por la IA que están sesgadas. La IA puede ser de gran ayuda para el ser humano, pero como toda nueva tecnología tiene sus riesgos.

Es por ello qué desde el 2015 han surgido multitud de documentos acerca de la IA ética, y más en concreto de cuáles tendrían que ser los principios éticos que debería regir esta “nueva tecnología” que estamos utilizando ahora de manera masiva. A pesar de la multitud de publicaciones de organismos supranacionales, internacionales, entidades públicas y compañías tecnológicas, a día de hoy, no hay un acuerdo global en cuales deberían ser los principios éticos fundamentales para aplicar a la IA. Si bien es verdad que la mayoría de ellos se tiende a encuadrarlos en cuatro grandes grupos: autonomía, justicia, crear beneficio y no maleficiencia, y esto que podríamos considerarlo como un gran paso, es todavía insuficiente, pues sigue habiendo mucho debate en la sociedad sobre la utilización de la IA y cuáles deberían ser esos principios para marcar los límites de su uso.

Europa, que fue pionera con el RGPD (Reglamento General de Protección de Datos), ha vuelto a ser un modelo a seguir publicando el primer reglamento de IA en 2021, después de un trabajo de más de tres años que se inició en el 2018 y que se ha ido mejorando gracias a la participación de la sociedad civil, empresas, gobiernos y además un grupo de expertos (HLEG),  en IA y ética, de todos los países europeos. El progreso de esta regulación, aunque continuado, no está siendo sencillo y además desde finales del año pasado la irrupción de ChatGPT ha generado nuevas incógnitas, principalmente acerca de la inclusión de este tipo de IA llamada generativa en dicha regulación. Sin duda estos nuevos modelos van a requerir de reflexiones adicionales y probablemente esto retrase la puesta en marcha de la regulación, pero Europa sigue convencida de la necesidad de este reglamento.

Estas normas se han diseñado en base a una aproximación a riesgos, de esta manera se han establecido cuatro niveles. Desde los riesgos inaceptables como el “social scoring”, es decir, que nos etiqueten por nuestro comportamiento hasta los riesgos aceptables como las aplicaciones que únicamente nos recomiendan películas, pasando por aquellas aplicaciones de riesgo medio y alto que requerirán de un análisis de explicabilidad para entender como está siendo realizada la toma de decisiones y poder mitigar los posibles problemas éticos, como por ejemplo los sesgos o la privacidad.

Es precisamente la explicabilidad, uno de los muchos principios éticos, lo que nos puede ayudar más a que la IA sea más confiable, aunque no es el único. Básicamente podemos clasificar los algoritmos en “caja negra” o “caja blanca”, teniendo en cuenta su explicabilidad. Los primeros, no requieren generalmente de una explicación dado que suelen tener una explicabilidad intrínseca, por ejemplo, árboles de decisiones o algoritmos de regresión lineal. En el caso de los algoritmos de “caja negra”, requieren de una explicación para poder entender como se ha hecho la toma de decisiones de ahí su nombre. Desde hace ya unos años se está investigando y avanzando en multitud de técnicas de explicabilidad, utilizando algoritmos más sencillos para explicar esos algoritmos más complejos obteniendo muy buenos resultados que ayudan a proporcionar una mayor confianza en esos algoritmos de caja negra. Algunas de estas técnicas de explicabilidad, están siendo incorporadas en software de IA comerciales y también están surgiendo empresas que desarrollan herramientas con ese propósito.

Vivimos sin duda un momento apasionante para los que trabajamos en IA, y desde mi punto de vista hay tres acciones diferenciadas en las que podemos ir trabajando para una IA más ética, sin esperar un acuerdo en los principios éticos a nivel global, que puede que nunca llegue. Por un lado, en la formación en IA de toda la sociedad, con el objetivo que entiendan su funcionamiento, y que puedan experimentar como la IA puede ayudarles en su día a día para hacer su trabajo de manera más eficiente, pero también para que entiendan los riesgos asociados, así como la necesidad de unos principios éticos. Esto significa no solo aprender de IA sino además reforzar el “pensamiento crítico”. Por otro lado, es clave que cualquier empresa que utilice la IA, incluya la ética desde el diseño de los algoritmos, y de esta manera poder minimizar los riesgos asociados. Por último, pero no menos importante, continuar con los avances que se están haciendo en técnicas de explicabilidad para poder interpretar mejor, esos algoritmos que llamamos de caja negra.

 

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.