Los Servicios de Inteligencia (Artificial) de Estados Unidos impulsan el Data Ethics

Ignacio Bocos García, Director de Data & Models Bankia.

El filósofo y militar Sun Tzu escribió en el Arte de la Guerra que “el conocimiento sobre las disposiciones del enemigo sólo puede ser obtenido a través de otros hombres”.

Esta aseveración ha estado vigente hasta la irrupción de la Inteligencia Artificial ya que la IA no sólo está cada vez presente en más ámbitos, sino que también está adquiriendo mayor protagonismo en ellos.

Esto implica que debe ser usada de manera rigurosa desde un punto de vista técnico y de manera extremadamente escrupulosa desde un punto de vista ético, de donde emana la importancia del denominado Data Ethics.

Derivado de lo anterior, como he venido tratando en anteriores artículos, es necesario, en las organizaciones que utilicen Data Science, establecer una política de Data Ethics que pivote a partir de unos principios claros y un desarrollo de éstos efectivo de forma que permita a los órganos de decisión y a los propios data scientist implantar sistemas analíticos que eviten la aparición de sesgos y resultados indeseados potencialmente discriminatorios.

En los últimos años, principalmente en las sociedades anglosajonas y en menor medida europeas, se está avanzando en el desarrollo de cultura del dato en su ámbito ético permeando en todo tipo de organizaciones de diversa índole ya sean privadas o públicas.

Éste es el caso de la Comunidad de Inteligencia de los Estados Unidos, que engloba 17 organizaciones de inteligencia estadounidenses (la Central Intelligence Agency (CIA), Drug Enforcement Administration (DEA), el Ejército y la Federal Bureau of Investigation (FBI) entre otras) y cuya responsabilidad, establecida en la Orden Ejecutiva 333 del 4 de Diciembre de 1981 por el Presidente de EEUU Ronald Reagan, es realizar actividades de inteligencia nacional contribuyendo a la planificación de misiones militares y actividades de espionaje.

Esta organización ha publicado recientemente sus Principios de Data Ethics, inspirados en los principios de Data Ethics del Departamento de Defensa de EEUU y alineados con los principios globales de comportamiento ético de la propia organización, acompañado de un marco de IA que los desarrolla.

Los seis principios establecidos por la Comunidad de Inteligencia son similares a los existentes en otras organizaciones por lo que la aportación más valiosa, más allá de la explicitación de la necesidad de un uso éticode sus sistemas de IA, es la publicación del “Marco de IA para la Comunidad de Inteligencia”.

En este marco se definen una serie de ámbitos de cuestionamiento ético – analíticos proponiendo en cada uno de ellos un conjunto de preguntas que facilitarán la valoración, por parte de los profesionales de cada agencia de inteligencia, de la idoneidad ética del Sistema de IA planteado con carácter previo al desarrollo del mismo.

Los ámbitos de análisis son los siguientes:

  • Entendimiento de Objetivos y Riesgos. Determinar qué objetivos se intentan conseguir para asegurar que se puede diseñar una inteligencia artificial que balancea los resultados deseados con un riesgo aceptable.
  • Obligaciones legales además de consideraciones de política interna de gobierno de Inteligencia Artificial y Datos. Buscar la colaboración con los equipos especialistas que gestionan en cada agencia riesgos de cumplimiento, legales, derechos civiles y privacidad.
  • Juicio experto y rendición de cuentas. Perfilar y predefinir en qué puntos del diseño del Sistema de IA y hasta qué nivel de profundidad es necesaria la interacción con un humano.
  • Mitigación de la aparición de sesgos indeseados y asegurar la objetividad. Evitar sesgos que puedan eliminar la validez de los análisis de la IA, dañar a ciudadanos o impactar en las libertades civiles como por ejemplo las de movimiento, discurso, religión, privacidad.
  • Probar el sistema de IA. Probar todo sistema, antes de su puesta en producción, no sólo desde un punto de vista de funcionamiento operativo sino de implicaciones éticas de los resultados obtenidos.
  • Inventario y reevaluación del entorno ético en modificaciones, versiones y evoluciones de la IA. Establecer el mantenimiento del Sistema de IA cuyas implicaciones pueden ir desde modificaciones menores hasta la sustitución del mismo por uno nuevo que conllevará la necesidad de replantear la idoneidad ética de cada modificación. En caso de ser necesaria la incorporación de un cambio, éste deberá ser incorporado a un inventario documentado de todas las modificaciones / evoluciones introducidas.
  • Documentación de objetivos, parámetros, limitaciones y diseño de resultados del Sistema de IA. Disponer de una documentación robusta de cara, no sólo a la gestión del sistema de IA, sino a posibles readaptaciones del mismo a nuevos usos.
  • Transparencia: explicabilidad e interpretabilidad. Implantar métodos que sean explicables para que, hasta donde sea posible, puedan ser entendibles por terceros (supervisores, usuarios, sociedad) ya que un sistema de IA puede conseguir resultados satisfactorios a pesar de utilizar criterios inapropiados.
  • Revisión periódica. Realizar un seguimiento con una periodicidad apropiada de los sistemas de IA para determinar su correcto funcionamiento y que los posibles sesgos éticos indeseados del mismo estén correctamente mitigados.
  • Administración y rendición de cuentas. Asignar, con carácter previo al desarrollo del sistema de IA, en quién reside la responsabilidad del ciclo de vida del mismo (mantenimiento, seguimiento y actualización).

Realizar un ejercicio de análisis exhaustivo de todos los ámbitos anteriores es básico en cualquier sistema analítico y particularmente en la Inteligencia Artificial para, con una valoración ética positiva, dar confianza a los usuarios, a largo plazo, de su utilización y, por tanto, conseguir una integración e implantación real que genere un entorno data – driven.

De hecho, la puesta en producción efectiva debe ser el objetivo final de cualquier producto que se desarrolle para conseguir aportar valor a las organizaciones ya que, en caso contrario, un Sistema de IA que no se utiliza se convierte en un coste hundido que, adicionalmente, puede conllevar costes fijos sin aportar valor añadido y que tanto a corto como a largo plazo impactará negativamente en algo intangible como la cultura del dato de la organización.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.