Sesgos en el análisis de los datos, violaciones de la privacidad o discriminación contra distintas minorías son algunos de los posibles riesgos de la aplicación de procesos de Inteligencia Artificial.
McKinsey & Company, firma líder en consultoría de gestión a nivel mundial, publica el informe “Liderar tu organización hacia una IA responsable”, en el que se analizan los posibles riesgos de la aplicación de la Inteligencia Artificial (IA) en las compañías y los recursos en manos de sus directivos para prevenir, evitar y reducir los peligros en estos procesos, alineándolos con los valores de la empresa. El porcentaje de empresas que han incorporado al menos una capacidad de IA en sus procesos de negocio se ha duplicado en 2018 respecto al año anterior según la Encuesta sobre la adopción de IA de McKinsey, lo que genera importantes oportunidades pero también riesgos en su uso y aplicación.
La IA se está convirtiendo en una herramienta básica de los CEO para impulsar los ingresos y la rentabilidad, pero su despliegue requiere una gestión cuidadosa para evitar posibles daños no intencionados que pueden llegar a ser significativos. Estos pueden afectar no solo a la reputación de las compañías, sino también a empleados, individuos y sociedad ya que, incluso los usos aparentemente inocuos de la IA pueden tener graves implicaciones en cuanto a sesgos significativos en el análisis de los datos, violaciones de la privacidad e incluso discriminación a distintas minorías.
En este sentido, los CEO están bajo el foco de atención para garantizar una aplicación responsable de los sistemas de IA más allá del cumplimiento de las leyes aplicables. Su rol es vital, ya que deben tener un sólido conocimiento práctico de los desarrollos de la IA para poder orientar al conjunto de la empresa en tres áreas clave. En primer lugar, deben clarificar la forma de trasladar los valores de la empresa a las aplicaciones de IA a través de directrices sobre los objetivos marcados, con el fin de seleccionar los procesos candidatos a la automatización. En segundo lugar, los CEO deben guiar a la compañía con definiciones y métricas para evaluar la IA ante posibles sesgos e imparcialidad en el análisis. Por último, es necesario establecer una jerarquía de valores de empresa y destacar el papel de la diversidad en la selección de talento. El desarrollo de la IA siempre implica contrapartidas, especialmente las relacionadas con la precisión de los algoritmos y la transparencia en su toma de decisiones, por lo que el criterio de la dirección es esencial para que los equipos tomen las decisiones más acertadas. Además, un equipo con personas diversas aporta una variedad de experiencias con enfoques innovadores, necesarios para resolver problemas de calado. Los líderes deben considerar todo tipo de diversidad: de género, edad, etnia, disciplina y experiencia.
Pero hay muchos casos en los que no es suficiente la buena voluntad para hacer coincidir los desarrollos de IA con los valores de la empresa, especialmente de cara a la opinión pública. Por ello, el informe destaca cinco áreas que exigen un sólido liderazgo desde la dirección de las compañías para poder hacer frente a los problemas más comunes:
- Una adquisición apropiada de datos: cuantos más datos se recojan, mayor precisión tendrá la aplicación de IA, pero en ocasiones esta puede ser percibida como una invasión de la privacidad. Los directivos deben vigilar de dónde se adquieren esos datos y cómo se utilizan.
- Adecuación del conjunto de datos: asegurar que los conjuntos de datos reflejan con precisión todas las poblaciones analizadas, evitando sesgos para no privilegiar a grupos mayoritarios.
- Imparcialidad en la aplicación de IA: incluso cuando las series de datos reflejan de forma veraz a las poblaciones reales, los resultados de la IA pueden ser imparciales debido a sesgos históricos, ya que estos análisis no tienen en cuenta el contexto y las implicaciones de estas decisiones.
- Cumplimiento normativo y compromiso: con la incipiente oleada regulatoria, los directivos deben asegurarse de que sus organizaciones cumplen con la legislación y, por ejemplo, no compren o vendan datos obtenidos sin consentimiento.
- Explicación del modelo de IA: en ocasiones, es necesaria una explicación del modelo que se ha llevado a cabo para llegar a una u otra conclusión, especialmente en los usos de la IA relacionados con la búsqueda de trabajo o con préstamos financieros (en los que los candidatos rechazados querrán entender los motivos).
En definitiva, los directivos que refuerzan sus valores corporativos estableciendo equipos diversos, crean un lenguaje generando puntos de referencia para guiar a la IA, y establecen un compromiso con los equipos de desarrollo de esta tecnología, hacen posible un uso responsable de la IA. Por ello, una IA responsable genera confianza tanto en los empleados como en los consumidores. Los empleados confiarán en la información que la IA les brinde y estarán más dispuestos a aplicarla en su trabajo diario, ayudando a idear nuevas formas de usar esta tecnología para crear valor. En cuanto a los consumidores, una vez que se adquiere su confianza estarán dispuestos a utilizar productos relacionados con la IA, ganando las compañías el derecho a usar sus datos de forma adecuada y ayudando a mejorar continuamente los procesos de IA. Se trata de un círculo virtuoso que impulsa la reputación de la marca y la capacidad de una organización para innovar y competir y, lo más importante, permite a la sociedad beneficiarse del poder de la IA en lugar de sufrir sus consecuencias menos deseadas.