Todo lo que necesitas saber sobre la ética de la IA

La IA está transformando el funcionamiento de las empresas y su relación con las personas. La tecnología ofrece la posibilidad de automatizar tareas sencillas y repetitivas, descubrir información oculta en los datos y ayudar a los usuarios a tomar decisiones mejores y más informadas.

A medida que la IA se incorpora a la corriente de TI, aumenta la preocupación por su posible uso indebido. Para hacer frente a los problemas éticos que pueden surgir del análisis de datos no humanos y de la toma de decisiones, un número creciente de empresas está empezando a prestar atención a cómo se puede evitar que la IA tome decisiones potencialmente perjudiciales.

La IA es una tecnología poderosa con un inmenso número de atributos positivos. «Sin embargo, para calibrar plenamente sus beneficios potenciales, necesitamos construir un sistema de confianza, tanto en la tecnología como en quienes la producen», dice Francesca Rossi, líder global de ética de IA de IBM. «Las cuestiones relativas a la parcialidad, la explicabilidad, el manejo de los datos, la transparencia sobre las políticas de datos, las capacidades de los sistemas y las opciones de diseño deben abordarse de forma responsable y abierta.»

«La ética de la IA debe centrarse en la comprensión del impacto de la IA en la sociedad, la mitigación de las consecuencias no deseadas y el impulso de la innovación global hacia el bien», explica Olivia Gambelin, una ética de la IA y CEO de la firma de asesoramiento ético Ethical Intelligence. La práctica de la operatividad de la ética de la IA implica la traducción de principios de alto nivel en acciones concretas y detalladas, y busca habilitar una tecnología centrada en los valores humanos de base», afirma.

Zonas de peligro de la inteligencia artificial

Hay un sinfín de formas en las que se puede hacer un mal uso de la IA, y muchas de ellas ya están ocurriendo, dice Kentaro Toyama, profesor de información comunitaria W.K. Kellogg en la Escuela de Información de la Universidad de Michigan. «Los drones militares que toman decisiones basadas en la IA para matar; las imágenes falsas profundas que ofrecen «pruebas» visuales de mentiras absolutas; las empresas que compran y venden inferencias basadas en la IA sobre usted para su beneficio comercial». Otro tema candente actualmente en la ética de la IA es la cuestión de la «equidad algorítmica», señala. «¿Cómo podemos asegurarnos de que los sistemas digitales no están sesgados contra grupos de personas debido a la raza, el género u otras identidades?» se pregunta Toyama.

La exuberancia que rodea a la IA está chocando de frente con una cruda realidad de modelos de aprendizaje automático construidos y desplegados apresuradamente que pueden, en efecto, satisfacer un resultado empresarial específico, pero solo a costa de afectar a grupos dispares, dice Scott Zoldi, director de análisis de FICO, una empresa de análisis especializada en servicios de puntuación de crédito. «La mística de los modelos de aprendizaje automático da lugar a que los usuarios empresariales de estos modelos se vuelvan descuidados y burdos en su toma de decisiones, y a menudo ni siquiera supervisan o cuestionan los resultados.»

Otro motivo de preocupación es que, aunque los sistemas de IA tienden a funcionar bien cuando utilizan los datos con los que han sido entrenados, una vez que se enfrentan a datos frescos del mundo real, muchos empiezan a funcionar mal, dice Lama Nachman, director de los laboratorios de sistemas inteligentes de Intel. «Esto plantea ciertos problemas de seguridad, como que un vehículo autónomo clasifique erróneamente escenas poco comunes», señala. «Es fundamental que estos sistemas [de IA] tengan una supervisión y un control para garantizar que no se desvíen con el tiempo».

Abordar la ética de la IA

Una política de ética de la IA es esencialmente un conjunto de principios y directrices diseñados para informar el desarrollo y el despliegue de las tecnologías de IA de una organización. «Por lo general, se basa en un enfoque de análisis de riesgos, donde las personas que participan en la definición, el desarrollo, las ventas y / o el despliegue de estos sistemas evaluarán los posibles riesgos que suelen estar asociados con las tecnologías de IA», dice Nachman. Los principios éticos de la IA suelen incluir áreas como la equidad, la transparencia, la privacidad, la seguridad, la responsabilidad, la inclusión y la supervisión humana, añade.

Con un número cada vez mayor de reglamentos sobre la IA que llegan a los libros y la creciente demanda del mercado de tecnología responsable, una política formal de ética de la IA ya no es simplemente algo agradable de tener, sino una verdadera necesidad para la supervivencia, dice Gambelin. «Al utilizar la ética como una herramienta clave para la toma de decisiones, las empresas impulsadas por la IA ahorran tiempo y dinero a largo plazo al construir soluciones sólidas e innovadoras desde el principio».

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio