La UNESCO da un paso de gigante en su iniciativa mundial sobre data – ethics

Artículo de Ignacio Bocos García, Director de Modelos Regulados de Riesgo de Crédito en CaixaBank.

Ignacio Bocos García, Director de Modelos Regulados de Riesgo de Crédito en CaixaBank.

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, más conocida popularmente por sus siglas en inglés UNESCO, ha publicado en el mes de noviembre la primera guía internacional sobre data ethics elaborada conjuntamente por sus 193 miembros.

Estas recomendaciones son el resultado del desarrollo del mandato dado por la ‘40ª Conferencia General de la UNESCO’, celebrada en noviembre de 2019, al equipo de expertos en la materia. Este documento será presentado en la ‘41ª Conferencia General’, que se celebrará en 2021, donde se espera que sea aprobada por unanimidad.

El texto, en formato borrador, es un paso hacia adelante muy importante, si bien la propia organización reconoce que no es vinculante para sus miembros al emitirlo en formato de recomendación. El objetivo final de este conjunto de recomendaciones persigue conseguir que el resultado de cualquier sistema de inteligencia artificial (IA) sea ético.

En el documento, una vez enunciados los valores y principios éticos de la organización, se detallan las preocupaciones éticas fundamentales que podrían llevar a la discriminación, a la desigualdad y/o a una brecha digital para los ciudadanos. Los valores y principios están, con carácter general, altamente alineados con los que se vienen observando en otras publicaciones tanto de entidades nacionales y supranacionales como de organizaciones privadas.

Una de las principales conclusiones de las recomendaciones de la UNESCO es que se opone al uso de sistemas de IA en aplicaciones invasivas que infrinjan los derechos humanos y las libertades fundamentales, ejemplificando estas situaciones a través del social scoring o la vigilancia masiva.

En estas recomendaciones hace un llamamiento a una mayor transparencia sobre el control de los datos personales y mayores límites, además de concienciación, sobre la simulación de comportamientos humanos por medio de la tecnología.

Concretar esta publicación, de gran valor, pasará necesariamente por la definición de una metodología, que en el documento denominan Ethical Impact Assessment (EIA), que consiga, desde la óptica técnica, plasmar en pruebas cuantitativas y cualitativas las preguntas que deben formularse para concluir si un sistema de IA sea ético.

Las recomendaciones se emiten ligadas a once áreas de actuación: Ethical Impact Assessment, administración y gobierno ético, datos, desarrollo y cooperación internacional, entorno y ecosistema, género, cultura, educación e investigación, comunicación e información, economía y trabajo, salud y bienestar social.

Como ejemplos de recomendaciones se pueden destacar los siguientes:

Un sistema de IA nunca podrá reemplazar la responsabilidad final de los seres humanos y la obligación de rendir cuentas. Las decisiones de vida o muerte no deben cederse a sistemas de IA.

Los estados deben garantizar la transparencia en la captación de datos y la posibilidad para el ciudadano de acceder a los suyos y de borrarlos, salvo excepciones, promoviendo que se avance en el conocido como open data y que, en esta línea, los estados miembros revisen sus políticas internas y marcos regulatorios para hacerlo posible.

En el ámbito de la discriminación por sexo, por ejemplo, se solicita asegurar que el potencial de las tecnologías digitales y de la inteligencia artificial contribuya a maximizar la igualdad de género y, por tanto, se incluya siempre una perspectiva de género transversal.

De la misma manera, se quiere asegurar que la predominancia del inglés en el ámbito de la IA no se produzca a costa de lenguas minoritarias ni de aspectos culturales y opiniones más amplios no necesariamente vinculados al mundo anglosajón. Es en este punto donde adquiere gran relevancia la interpretación ética, en función de los aspectos culturales y geográficos, de un mismo hecho, al que me referí en un artículo previo.

También advierte sobre el impacto que tiene la constante interacción con sistemas de IA, incluidos los algoritmos implantados en las redes sociales, ya que pueden impactar negativamente sobre la salud mental tanto de adultos como de niños.

La convivencia con otras guías publicadas anteriormente y a futuro, tanto a nivel público y privado, será todo un reto, ya que, si bien todas las guías emitidas hasta la fecha buscan objetivos similares, no siempre llegan a las mismas conclusiones en ciertas tecnologías y/o tipologías de sistemas de IA.

Es el caso de las guías éticas publicadas por China a principios de octubre, sólo dos meses antes de la publicación de la UNESCO, donde la percepción sobre los sistemas de vigilancia desde la óptica ética difiere sustancialmente, tanto en su conceptualización como en su uso. De hecho, según los datos publicados por Comparitech el pasado mes de mayo, China tiene el mayor sistema del mundo de CCTV en funcionamiento y 16 de las 20 ciudades más vigiladas del mundo están en este país.

En este sentido, la UNESCO reconoce que sus miembros se encuentran en situaciones de partida diferentes y ayudará a cada miembro a identificar su estatus actual y su trayectoria futura de adopción de las recomendaciones con el objetivo de poder avanzar en el despliegue de estas recomendaciones de manera consistente.

En definitiva, la autorregulación ética de los sistemas de IA tiene sus días contados, como ya apuntaba Gabriela Ramos. No obstante, para lograr el despliegue total y completo de estas recomendaciones, ahora es necesario dar el siguiente paso, y probablemente el más relevante: diseñar la clave de bóveda que sustentará técnicamente la valoración del componente ético de los sistemas de IA.

Este proceso de conceptualización, cuya síntesis persigue el denominado Ethical Impact Assessment (EIA), será de una magnitud gigantesca, ya que sólo el rango de técnicas estadísticas y la variedad de usos de éstas son, hoy en día, prácticamente infinitos, al ser posible su aplicación en cualquier sector de actividad.

TE PUEDE GUSTAR

Bain & Company ha adquirido PiperLab, compañía española especializada en soluciones de Inteligencia Artificial y Machine Learning (ML), con el objetivo de ampliar su oferta

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio