Los Servicios de Inteligencia (Artificial) de Estados Unidos impulsan el Data Ethics

Ignacio Bocos García, Director de Data & Models Bankia.

El filósofo y militar Sun Tzu escribió en el Arte de la Guerra que “el conocimiento sobre las disposiciones del enemigo sólo puede ser obtenido a través de otros hombres”.

Esta aseveración ha estado vigente hasta la irrupción de la Inteligencia Artificial ya que la IA no sólo está cada vez presente en más ámbitos, sino que también está adquiriendo mayor protagonismo en ellos.

Esto implica que debe ser usada de manera rigurosa desde un punto de vista técnico y de manera extremadamente escrupulosa desde un punto de vista ético, de donde emana la importancia del denominado Data Ethics.

Derivado de lo anterior, como he venido tratando en anteriores artículos, es necesario, en las organizaciones que utilicen Data Science, establecer una política de Data Ethics que pivote a partir de unos principios claros y un desarrollo de éstos efectivo de forma que permita a los órganos de decisión y a los propios data scientist implantar sistemas analíticos que eviten la aparición de sesgos y resultados indeseados potencialmente discriminatorios.

En los últimos años, principalmente en las sociedades anglosajonas y en menor medida europeas, se está avanzando en el desarrollo de cultura del dato en su ámbito ético permeando en todo tipo de organizaciones de diversa índole ya sean privadas o públicas.

Éste es el caso de la Comunidad de Inteligencia de los Estados Unidos, que engloba 17 organizaciones de inteligencia estadounidenses (la Central Intelligence Agency (CIA), Drug Enforcement Administration (DEA), el Ejército y la Federal Bureau of Investigation (FBI) entre otras) y cuya responsabilidad, establecida en la Orden Ejecutiva 333 del 4 de Diciembre de 1981 por el Presidente de EEUU Ronald Reagan, es realizar actividades de inteligencia nacional contribuyendo a la planificación de misiones militares y actividades de espionaje.

Esta organización ha publicado recientemente sus Principios de Data Ethics, inspirados en los principios de Data Ethics del Departamento de Defensa de EEUU y alineados con los principios globales de comportamiento ético de la propia organización, acompañado de un marco de IA que los desarrolla.

Los seis principios establecidos por la Comunidad de Inteligencia son similares a los existentes en otras organizaciones por lo que la aportación más valiosa, más allá de la explicitación de la necesidad de un uso éticode sus sistemas de IA, es la publicación del “Marco de IA para la Comunidad de Inteligencia”.

En este marco se definen una serie de ámbitos de cuestionamiento ético – analíticos proponiendo en cada uno de ellos un conjunto de preguntas que facilitarán la valoración, por parte de los profesionales de cada agencia de inteligencia, de la idoneidad ética del Sistema de IA planteado con carácter previo al desarrollo del mismo.

Los ámbitos de análisis son los siguientes:

  • Entendimiento de Objetivos y Riesgos. Determinar qué objetivos se intentan conseguir para asegurar que se puede diseñar una inteligencia artificial que balancea los resultados deseados con un riesgo aceptable.
  • Obligaciones legales además de consideraciones de política interna de gobierno de Inteligencia Artificial y Datos. Buscar la colaboración con los equipos especialistas que gestionan en cada agencia riesgos de cumplimiento, legales, derechos civiles y privacidad.
  • Juicio experto y rendición de cuentas. Perfilar y predefinir en qué puntos del diseño del Sistema de IA y hasta qué nivel de profundidad es necesaria la interacción con un humano.
  • Mitigación de la aparición de sesgos indeseados y asegurar la objetividad. Evitar sesgos que puedan eliminar la validez de los análisis de la IA, dañar a ciudadanos o impactar en las libertades civiles como por ejemplo las de movimiento, discurso, religión, privacidad.
  • Probar el sistema de IA. Probar todo sistema, antes de su puesta en producción, no sólo desde un punto de vista de funcionamiento operativo sino de implicaciones éticas de los resultados obtenidos.
  • Inventario y reevaluación del entorno ético en modificaciones, versiones y evoluciones de la IA. Establecer el mantenimiento del Sistema de IA cuyas implicaciones pueden ir desde modificaciones menores hasta la sustitución del mismo por uno nuevo que conllevará la necesidad de replantear la idoneidad ética de cada modificación. En caso de ser necesaria la incorporación de un cambio, éste deberá ser incorporado a un inventario documentado de todas las modificaciones / evoluciones introducidas.
  • Documentación de objetivos, parámetros, limitaciones y diseño de resultados del Sistema de IA. Disponer de una documentación robusta de cara, no sólo a la gestión del sistema de IA, sino a posibles readaptaciones del mismo a nuevos usos.
  • Transparencia: explicabilidad e interpretabilidad. Implantar métodos que sean explicables para que, hasta donde sea posible, puedan ser entendibles por terceros (supervisores, usuarios, sociedad) ya que un sistema de IA puede conseguir resultados satisfactorios a pesar de utilizar criterios inapropiados.
  • Revisión periódica. Realizar un seguimiento con una periodicidad apropiada de los sistemas de IA para determinar su correcto funcionamiento y que los posibles sesgos éticos indeseados del mismo estén correctamente mitigados.
  • Administración y rendición de cuentas. Asignar, con carácter previo al desarrollo del sistema de IA, en quién reside la responsabilidad del ciclo de vida del mismo (mantenimiento, seguimiento y actualización).

Realizar un ejercicio de análisis exhaustivo de todos los ámbitos anteriores es básico en cualquier sistema analítico y particularmente en la Inteligencia Artificial para, con una valoración ética positiva, dar confianza a los usuarios, a largo plazo, de su utilización y, por tanto, conseguir una integración e implantación real que genere un entorno data – driven.

De hecho, la puesta en producción efectiva debe ser el objetivo final de cualquier producto que se desarrolle para conseguir aportar valor a las organizaciones ya que, en caso contrario, un Sistema de IA que no se utiliza se convierte en un coste hundido que, adicionalmente, puede conllevar costes fijos sin aportar valor añadido y que tanto a corto como a largo plazo impactará negativamente en algo intangible como la cultura del dato de la organización.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio