¿Se puede proteger al mundo de los prejuicios de la IA?

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on whatsapp
Share on telegram
Share on email

Los modelos humanos reflejan los prejuicios humanos, pero se puede evitar. Conociendo los sesgos de este tipo de inteligencia se pueden eludir los prejuicios.

Hasta finales de la década de 1960, sabíamos muy poco sobre lo que contenían los alimentos que comprábamos. Los estadounidenses preparaban la mayoría de los alimentos en casa, con ingredientes bastante comunes. No veíamos la necesidad de saber más. Luego, la producción de alimentos comenzó a evolucionar. Nuestros alimentos contenían más aditivos artificiales. En 1969, una conferencia de la Casa Blanca recomendó que la Administración de Alimentos y Medicamentos asumiera una nueva responsabilidad: desarrollar una nueva forma de entender los ingredientes y la nutrición de lo que comemos.

Al igual que la llegada de los alimentos procesados, el advenimiento de la inteligencia artificial marca una nueva era, y el hecho de que resulte buena o mala para nosotros dependerá de lo que se incluya en ella. La diferencia es que, al ritmo al que se desarrolla la inteligencia artificial, no tenemos 20 años -ni siquiera dos- para establecer medidas de seguridad. La buena noticia es que las empresas pueden dar el primer paso, el más crítico, de identificar los sesgos perjudiciales o inaceptables de la inteligencia artificial, y luego unirse rápidamente en torno a los principios que los mitigan.


El sesgo de la I.A. se produce cuando el software hace algo involuntario o con mala intención. En el caso de la contratación, por ejemplo, podríamos diseñar un sistema de I.A. para buscar los mejores candidatos para un puesto. La I.A. buscaría exactamente lo que nosotros especificamos: experiencia laboral relevante, una sólida formación académica y, tal vez, servicios a la comunidad. Con el tiempo, la I.A. podría excluir a toda una población sólo por las clases que tomaron en la universidad. Podría hacerlo estableciendo una correlación entre el servicio a la comunidad y los cursos tomados, incluso si esa conexión no es causal de ninguna manera. En otras palabras, la I.A. podría conducir involuntariamente a malas decisiones de contratación.

Sesgos en la IA

No es difícil imaginar escenarios aún más atroces: Un desarrollador que, involuntariamente, incorpore un sesgo en la Inteligencia Artificial que excluya a una población por razones de género. O, en el caso de un banco, una I.A. que rechace todos los préstamos originados en un determinado código postal, sin que el ser humano tenga conocimiento de esa decisión. O en el comercio minorista, un programa de fidelización que sólo premia a los clientes de un determinado nivel socioeconómico.

Los modelos humanos reflejan los prejuicios humanos. Como lo hacen, sea cual sea la intención, podemos encontrarnos con que las decisiones más críticas las toma un actor irracional: un software mal entrenado. Para combatir esto, debemos abordar de forma proactiva los sesgos y desarrollar y desplegar la Inteligencia Artificial de forma socialmente responsable, utilizando un enfoque gobernado para proteger tanto a los individuos como a nuestra sociedad.

Debemos empezar a asegurarnos de que la inteligencia artificial que utilizamos toma decisiones con un sesgo mitigado, especialmente cuando se trata de ámbitos de alto riesgo como la atención sanitaria, los servicios públicos o financieros y la justicia.

3 principios para evitar prejuicios

Afortunadamente, existe un conjunto de principios que podemos seguir para encaminarnos rápidamente hacia una gestión de riesgos de la Inteligencia Artificial socialmente responsable o de la Inteligencia Artificial en general.

Imparcialidad: La I.A. debe representar los valores y la ética de la organización que la utiliza. Debe tomar las decisiones que su mejor empleado tomaría, si estuviera realizando la acción. En resumen, debe ser justa y estar libre de prejuicios, basados en quién la creó, de dónde proceden los datos o cualquier otro factor que pueda influir en la ecuanimidad.
Calidad: Suponiendo que sea justa en su intención, la inteligencia artificial es tan buena como los datos que analiza. ¿Recuerda la expresión «basura que entra, basura que sale»? Es cierta en el mundo de los datos y de la Inteligencia Artificial. La calidad consiste en garantizar que la Inteligencia Artificial funciona como se espera, lo que significa que es precisa, que minimiza los falsos positivos o negativos y que tiene las entradas y salidas correctas.
Deriva: En muchos negocios, una buena decisión hoy puede no serlo mañana. Esa es la naturaleza de los entornos rápidos y dinámicos. Por lo tanto, es fundamental entender cómo se comporta la inteligencia artificial cuando el entorno cambia. COVID-19 es un duro recordatorio de que los fundamentos de un entorno pueden cambiar, y la inteligencia artificial debe ajustarse en tiempo real.

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on whatsapp
Share on telegram
Share on email

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

EVENTOS

RECIBE LA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Ir arriba