Un 70% de los consumidores espera un uso transparente de la Inteligencia Artificial

21 octubre, 2020
6 Compartido 857 Visualizaciones

Un informe revela que a pesar de que el 62% de los consumidores cree que las empresas son completamente transparentes en el uso de los datos, solo un 53% de las organizaciones tiene un líder responsable de la ética de los sistemas de IA.

¿Hacen las empresas un uso ético del Big Data y de la Inteligencia Artificial? Deberían hacerlo. Así, por lo menos lo espera la mayor parte de los consumidores. Y es que, según el informe del Instituto de Investigación de Capgemini, ‘AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust‘ , se pone de manifiesto que un 70% de los consumidores espera que exista un uso transparente de la Inteligencia Artificial.

A pesar de ese resultado, destaca también que un 62% de los consumidores sí cree que las empresas son completamente transparentes en el uso de sus datos personales en comparación con el 76% de 2019.

Y es que, según se percibe del estudio, un 53% de las organizaciones tienen un líder responsable de la ética de los sistemas de IA, algo vital para que pueda existir la transparencia a la que tanto aluden los usuarios.

IA ética «desigual»

Según la consultora, las empresas sí que «están más sensibilizadas a nivel ético» con el uso de la IA, pero que la puesta en marcha de la IA ética «no es uniforme». Advierten que un 64% de los directivos señala que su empresa avanza en su capacidad de explicar el razonamiento de la IA, frente al 32% que había en 2019.

En cuanto al número de directivos que ha tomado medidas para establecer dimensiones adecuadas sobre el uso justo de la IA, destaca el 65% en 2020 frente a un 66% en 2019. Mientras que el proceso de auditabilidad también destaca el 45% en 2020 frente al 46% en 2019 en sus sistemas de IA no ha avanzado.

Por otro lado, el uso de la transparencia ha caído del 73% al 59%, a pesar del hecho de que el 58% de los negocios dice haber fomentado la concienciación entre su personal sobre problemas que pueden surgir del uso de IA.

En el informe recuerdan la importancia de que las empresas cuenten con un código ético empresarial que impulse un aumento de marcos normativos. Por ejemplo, la Comisión Europea ha publicado unas directrices con principios éticos clave que deberían utilizarse en el diseño de aplicaciones de IA.

Te podría interesar

LOS40 presentan junto a Samsung su primera aplicación de realidad virtual
Inteligencia Artificial
21 compartido2,898 visualizaciones
Inteligencia Artificial
21 compartido2,898 visualizaciones

LOS40 presentan junto a Samsung su primera aplicación de realidad virtual

Mónica Gallego - 30 noviembre, 2018

Samsung Electronics Iberia y LOS40 presentan la primera aplicación para conectar al público millenial con artistas nacionales e internacionales del panorama musical mediante tecnología de realidad virtual a través…

La Inteligencia Artificial revolucionará la agroindustria
Inteligencia Artificial
7 compartido2,375 visualizaciones
Inteligencia Artificial
7 compartido2,375 visualizaciones

La Inteligencia Artificial revolucionará la agroindustria

Mónica Gallego - 17 mayo, 2018

Los drones y la Inteligencia Artificial (IA) revolucionarán la agroindustria gracias a la asociación de Microsoft y el fabricante de drones DJI, ya que podrán obtener información…

Fujitsu desarrolla una tecnología de detección de objetos basada en aprendizaje profundo, capaz de trabajar con datos limitados
BD Network
12 compartido1,179 visualizaciones
BD Network
12 compartido1,179 visualizaciones

Fujitsu desarrolla una tecnología de detección de objetos basada en aprendizaje profundo, capaz de trabajar con datos limitados

Vicente Ramírez - 21 mayo, 2018

Fujitsu  anunció el desarrollo de una tecnología de IA que utiliza el aprendizaje profundo para detectar objetos, incluso en casos en los que solo hay una pequeña…

Dejar comentario

Su email no será publicado

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.