5 claves a tener en cuenta para que nuestro sistemas con IA sean éticos

El informe «Five Guiding Pillars» quiere ofrecer los puntos claves para lograr sistemas que sean éticos, sin sacrificar la productividad y las ventajas de usar la IA.

La principal pregunta a la que se enfrentan los lideres en transformación digital cuando quieren elaborar herramientas con Inteligencia Artificial es «¿Cómo puede beneficiarse la empresa de las oportunidades que ofrece la tecnología al tiempo que salvaguarda el bienestar de empleados, clientes y la sociedad?«. La consultaría KPMG ha elaborado este informe para ayudar a resolver estás dudas.

Aunque, algunas personas temen a la Inteligencia Artificial por el miedo a perder sus puestos de trabajo. A lo largo de estos últimos años se ha podido ver que ayudan a automatizar procesos y nos hacen dedicarnos a actividades que requieren otras cualidades.

Para que la IA entre de forma correcta en el mundo empresarial, estas tienen que crear una ética y mentenerla en el futuro. La IA debe regirse y controlarse de manera responsable.

Cinco pilares guía

Transformar el lugar de trabajo

Según el informe el 73% de los encuestados creen que la IA y la robótica van a crear más puestos y no reducirlos, en comparación con el 52 por ciento que opinaba así el pasado año. 

En el informe de KPMG dan una serie de consejos para que las organizaciones se vayan preparando para los cambios que se vienen. Aconsejan sobre todo comenzar a preparar a los trabajadores para el cambio utilizando programas específicos. También, les recuerda a los responsables de que el reto al que se enfrentarán es para gestionar el cambio. 

Establecer supervisión y buen gobierno

En el informe se han recabado las regulaciones y supervisiones que se están haciendo por parte de grandes organismos:

  • El Reglamento General de Protección de Datos (RGPD), elaborado y aprobado por la Unión Europea en 2018, tiene una serie de directrices para el uso de la IA. Se están formulando ya más declaraciones y principios para salvaguardar el bienestar de las personas a medida que se desarrolla la IA y puede influir en futuros reglamentos de la UE2.
  • En febrero de 2019, la American AI Initiative incluyó cinco áreas de énfasis: inversiones en I+D para IA; impulso de recursos de IA (datos, modelos y capacidad informática; talento e investigación); establecimiento de normas de gobierno; creación de la plantilla de IA; y compromiso para proteger la ventaja competitiva estadounidense en IA. 

Así como los algunos grandes organismos están sacando estas iniciativas, en el informe se les recuerda a las empresas que, también, es importante que ellas tomen medidas. En el Foro Económico Mundial (FEM) de Davos en 2019 se propusieron un conjunto de directrices para el desarrollo responsable de la IA que incluye «Herramientas de IA» para ayudar a los miembros del consejo.

Toda empresa, organización o gobierno que utilicen la IA entre sus productos o servicios, deben dar la seguridad y la confianza necesaria a las partes interesadas. Además, deberán de encargarse de supervisar continuamente los datos para que se mantengan fieles a los objetivos originales.   

En el informe recuerdan la importancia de crear algoritmos basados en un solido marco ético

Alinear la ciberseguridad y la ética en IA

El 72% de los CEOs estadounidenses coinciden, este año, en que la ciberseguridad es crucial para inspirar confianza a las partes, dato que contrasta con el 15% que opinaba así el año pasado. Esto demuestra la gran preocupación que existe por este tema.

Los consejos que se dan en el informe para afrontar los problemas de ciberseguridad dentro de la IA son los siguientes:

  • Conocer a fondo el contexto y el propósito buscando conforme al que se desarrolló el modelo. 
  • Identificar quién habilitó los algoritmos.
  • Conocer la procedencia de los datos y los cambios realizados en los mismos.
  • Conocer cómo se atienden y protegen los modelos ahora y en el pasado.
  • Llevar a cabo una revisión y una confirmación continuas de la efectividad y la precisión del algoritmo. 

Reducir el sesgo

Este es uno de los mayores problemas que presenta la IA y de lo que más se ha hablado en los últimos meses. También, es una de las grandes preocupaciones que tiene los responsables y reguladores de la IA dentro de las empresas. Según el informe cuando la habilitación se interrumpe durante largos periodos de tiempo, el modelo puede perder integridad y es cuando los sesgos pueden aparecer.

Por eso, creen que al hacer que la IA sea más explicable, auditable y transparente, se puede conseguir un sistema más equitativo, efectivo y más útil. 

Aumentar la transparencia

Como solución para lograr la equidad a medida que avanza la IA se aconseja la transparencia de datos para los ciudadanos y consumidores. Las empresas tiene que establecer una política de gestión general para la IA.

En el informe destacan que la parte más complicada está en ofrecer de forma clara los datos para que los entienda todo el mundo. Dan especial importancia a la parte de considerar el manejo de la información de identificación personal y los datos como un «contrato de confianza»

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio