Las empresas, cada vez más conscientes de la necesidad de IA éticas y de confianza

Un 70% de los consumidores espera que las empresas ofrezcan experiencias de IA transparentes y justas, según un informe de Capgemini.

La Inteligencia Artificial tiene la capacidad de transformar positivamente la sociedad y el medio ambiente, y para aprovechar todo su potencial, las organizaciones deben centrarse en abordar los desafíos éticos. Así lo indica el nuevo informe del Instituto de Investigación de Capgemini, “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust”, que señala que un 62% de los consumidores cree que las empresas son completamente transparentes en el uso de sus datos personales en comparación con el 76% de 2019. El estudio también afirma que sólo el 53% de las organizaciones tienen un líder responsable de la ética de los sistemas de IA. Además, la gobernanza, la rendición de cuentas de la IA y el despliegue de herramientas y marcos pragmáticos para el desarrollo y uso de estos sistemas tiene un alto coste para las organizaciones.

El documento señala que, aunque las empresas están más sensibilizadas a nivel ético, la puesta en marcha de IA ética no es uniforme. Por ejemplo, un 64% de los directivos señala que su empresa avanza en su capacidad de explicar el razonamiento de la IA (frente al 32% en 2019), mientras que el número de directivos que ha tomado medidas para establecer dimensiones de «justicia» (65% en 2020 vs. 66% en 2019) y «auditabilidad» (45% en 2020 vs. 46% en 2019) en sus sistemas de IA no ha avanzado. Al mismo tiempo, la transparencia ha caído del 73% al 59%, a pesar del hecho de que el 58% de los negocios dice haber fomentado la concienciación entre su personal sobre problemas que pueden surgir del uso de IA. 

Asimismo, el informe pone de manifiesto que el 70% de los consumidores busca una explicación más clara de los resultados y espera de las empresas interacciones de IA transparentes y justas.

Los prejuicios de los sistemas de IA y las experiencias negativas del consumidor salen caras a las empresas

Conforme las instituciones públicas y privadas aumentan el uso de tecnologías de IA, es clave que mantengan la confianza de sus usuarios con el fomento de las relaciones positivas con la IA. De todos modos, los informes indican que los conjuntos de datos recopilados para el sector sanitario y público están sometidos a sesgos sociales y culturales.

Esto no se limita al sector público. El estudio de Capgemini llega a la conclusión de que el 65% de los directivos dice ser consciente del problema de las inclinaciones discriminatorias de los sistemas de IA. Es más, casi un 60% de las empresas ha sido estudiada jurídicamente y un 22% se ha enfrentado a reacciones negativas de sus clientes en los últimos dos o tres años, a raíz de decisiones tomadas por estos sistemas. De hecho, el 45% de los consumidores apunta que compartirá sus experiencias negativas con su familia y amistades y les desaconsejará cualquier relación con esas empresas; un 39% planteará sus preocupaciones a la empresa y exigirá una explicación, y otro 39% cambiará el canal de IA por una interacción humana de mayor coste. Más de una cuarta parte de los consumidores (27%) declara que dejaría de tratar con la compañía en general. 

Compromiso con las cuestiones éticas: quienes lideran han de asumir la responsabilidad

Solo el 53% de las empresas cuenta con un responsable de ética de IA. Es esencial que un alto directivo esté encargado de estas cuestiones para garantizar que se priorizan de la forma adecuada desde la alta dirección y para crear sistemas de IA sólidos en el ámbito moral.

Además, la responsabilidad de los resultados éticos de las aplicaciones de IA debe recaer sobre directivos tanto del área de tecnología como de negocio. Según nuestro estudio, solo la mitad ha declarado tener una línea de atención confidencial o figura de mediación que facilite a los consumidores y el personal el planteamiento de cuestiones éticas con los sistemas de IA.

El gobierno ético ya es un requisito

La necesidad de un código ético empresarial viene también impulsada por el aumento de marcos normativos. Por ejemplo, la Comisión Europea ha publicado unas directrices con principios éticos clave que deberían utilizarse en el diseño de aplicaciones de IA. Entretanto, las pautas formuladas por la Comisión Federal de Comercio de los EE. UU. (FTC) a principios de 2020 piden una IA transparente. Esta reclamación se apoya en que, cuando un sistema con funciones de IA toma una decisión desfavorable (como la denegación de un crédito a un cliente), la empresa debería mostrar a la persona afectada los datos clave utilizados para llegar a esa decisión, y otorgarle el derecho de modificar cualquier información errónea. Sin embargo, aunque el 73% de las compañías del mundo informaba a sus usuarios sobre cómo podían afectarles las decisiones de la IA en 2019, esta cifra se ha desplomado hasta el 59% en la actualidad.

De acuerdo con el informe, estas salvaguardas son muestra de las circunstancias actuales provocadas por la covid-19, así como de necesidades de la sociedad y del medio ambiente, la complejidad creciente de los modelos de IA y un cambio en el comportamiento de la población consumidora, todo lo cual ha alterado las funcionalidades de los algoritmos de IA. Factores nuevos, como una preferencia por la seguridad, las compras al por mayor o una falta de datos pasados adecuados para formar a las IA, han provocado el rediseño de los sistemas empresariales para adaptarse a la nueva normalidad; pero esto se ha traducido en una menor transparencia.

Asimismo, el informe pone de relieve siete medidas clave para que las empresas desarrollen sistemas de IA éticamente firmes sostenidos sobre una base sólida de liderazgo, gobierno y prácticas internas:

  • Definir de manera clara el propósito previsto de los sistemas de IA y evaluar su impacto potencial general.
  • Implementar de forma proactiva la IA para el beneficio de la sociedad y el medioambiente.
  • Integrar proactivamente principios de diversidad e inclusión a través de la vida útil de los sistemas de IA.
  • Aumentar la transparencia con la ayuda de herramientas tecnológicas.
  • Humanizar la experiencia de IA y garantizar la supervisión humana de sus sistemas.
  • Garantizar la seguridad tecnológica de los sistemas de IA.
  • Proteger la privacidad de las personas, capacitándolas y poniéndolas a cargo de las interacciones de IA.

«Dado su potencial, el uso ético de la IA debe garantizar que no se daña a las personas. Al mismo tiempo, debe estar respaldada por humanos que rindan cuentas y se hagan responsables cuando las cosas no funcionan como deben. Además, crea una oportunidad para perseguir el bienestar social y la mejora medioambiental», indica Anne-Laure Thieullent, responsable de Inteligencia Artificial y analítica de datos de Capgemini. «La IA es una tecnología de transformación con la capacidad de lograr avances de gran alcance en negocios, así como en la sociedad y el entorno. En vez de temer el impacto de estos sistemas en la sociedad y las personas, es posible dirigir activamente la IA para que se oponga a los prejuicios contra minorías e, incluso, corregir los prejuicios existentes en la sociedad actual. Esto significa que las organizaciones, gubernamentales o no, que cuentan con las capacidades de IA, grandes cantidades de datos y un propósito de trabajar para el bienestar social y medioambiental han de asumir una responsabilidad mayor para abordar estas cuestiones y beneficiar a las sociedades ahora y en el futuro, mientras respetan principios de transparencia y establecen reglas para la rendición de cuentas».

TE PUEDE GUSTAR

La Unión Europea (UE) ha avanzado de manera notable en la regulación de la inteligencia artificial (IA) al implementar la Ley de IA, vigente

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio