Artículo de Begoña Vega, Head of AI Models & Applications en Innova-tsn.
La inteligencia artificial (IA) ha experimentado avances significativos en los últimos años, transformando múltiples sectores. Ha demostrado ser una herramienta poderosa en diversas industrias. La automatización de tareas, la toma de decisiones informadas y la personalización de contenidos son algunos ejemplos de la utilidad que la IA brinda a nivel empresarial.
Además, en los últimos años se ha producido un vertiginoso avance en diversas ramas de la IA como la visión artificial, permitiendo aplicaciones como el reconocimiento facial o la detección de objetos en imágenes y videos. También en procesamiento del lenguaje natural, especialmente en áreas como la traducción automática, la compresión del lenguaje y los chatbots. Asimismo, en el campo de la robótica, con el desarrollo de robots inteligentes capaces de realizar tareas complejas en entornos dinámicos y no estructurados.
Pero si hay un ámbito que ha experimentado una auténtica revolución es la aparición en escena de la IA generativa. A diferencia de la IA predictiva, capaz de identificar patrones y realizar pronósticos para llevar a cabo de manera eficiente tareas predefinidas, la IA generativa es capaz de crear contenido único y nuevo en forma de texto, imágenes y audio.
Los beneficios de su uso para las empresas son múltiples. Podemos pensar, por ejemplo, en el desarrollo de productos y respuestas específicas para cada usuario, personalizando aún más el contenido de los mensajes que recibe, mejorando así la experiencia de usuario. Otros usos pueden ser desde la creación del contenido de una web a la elaboración de una campaña publicitaria. En el campo de la ciencia y la tecnología, podemos pensar en la generación de diseños para el desarrollo de productos tecnológicos, o en la concepción de experimentos, otorgando a los científicos de la oportunidad de investigar de manera más rápida y eficiente. Para los programadores también es una herramienta de extrema utilidad, desarrollando líneas enteras de código a partir de una serie de instrucciones funcionales, la conversión a otros lenguajes de programación o la optimización del código.
Sin embargo, el uso de la IA generativa, de la que ChatGPT es el máximo exponente en la actualidad, ha acelerado una serie de recelos en la sociedad, que van más allá de las discusiones alrededor de la ética de la IA de los últimos años: La privacidad y seguridad de los datos con los que se entrenan los modelos, la propagación de contenido falso y manipulado, la atribución de la responsabilidad y falta de control sobre los contenidos producidos, el impacto en el empleo, especialmente en aquellos puestos de índole creativa como el periodismo o el ámbito publicitario, o el aumento del consumo energético debido a la complejidad de los modelos y la alta capacidad computacional requerida para su desarrollo y explotación, se unen a otras preocupaciones ya existentes como son la falta de transparencia y explicabilidad de los algoritmos o la posibilidad de sesgos en los modelos.
Hagamos, por tanto, una reflexión sobre cuál debería ser la postura adoptada por las empresas para mitigar estas inquietudes, mediante la adopción de una serie de acciones y procedimientos:
- Privacidad y seguridad de los datos: Estos modelos requieren de grandes volúmenes de información para entrenarse y existe el riesgo de que estos datos se utilicen para acceder y manipular indebidamente información personal. La implementación de una serie de medidas técnicas, organizativas y legales garantizan la protección de los datos con la que se entrenan los algoritmos: la anonimización de los datos mediante la eliminación o encriptación de la información de identificación personal, la implementación de políticas de acceso restringido y controlado a los sistemas de almacenamiento mediante roles y permisos, la utilización de servidores y sistemas con medidas de seguridad en la infraestructura y la aplicación del cumplimiento normativo, utilizando datos con consentimiento informado cuando existen datos sensibles, son las principales medidas que ayudan a minimizar estos riesgos.
- La desinformación y propagación de contenido falso: La aplicación de algoritmos y técnicas de IA que detecten e identifiquen noticias falsas y contenido engañoso junto con la realización de auditorías independientes de estos sistemas, el fomento de la educación mediática para ayudar a las personas a evaluar la calidad de la información que consumen y el promover la transparencia en las fuentes de información son algunas de las acciones que pueden ayudar a contrarrestar este recelo.
- La falta de transparencia en los algoritmos y sistemas de inteligencia artificial también plantea preocupaciones éticas. Sin comprender cómo se toman las decisiones, es difícil confiar en ellas y evaluar su imparcialidad. El registro y documentación de todo el proceso de desarrollo, así como el de los datos utilizados en el entrenamiento garantiza esta trazabilidad de las decisiones tomadas por el algoritmo.
- La explicabilidad es otro aspecto crucial; por lo tanto, debemos exigir la utilización de técnicas interpretables que permitan explicar las respuestas, así como entender las características más relevantes y proporcionar razones claras y comprensibles para entender la toma de decisiones de los modelos.
- La posibilidad de sesgos en los modelos de IA es otra de las preocupaciones existentes. El entrenamiento de los modelos con datos que reflejen prejuicios sociales o desigualdades puede dar como resultado decisiones discriminatorias. En este sentido, la utilización de conjuntos de datos amplios y representativos incluyendo la diversidad demográfica, así como el análisis y monitorización de posibles sesgos mediante el análisis de predicciones en diferentes grupos demográficos puede mitigar estas tendencias parciales. La configuración de los equipos que van a formar parte del desarrollo e implementación de los modelos también cobra un papel fundamental. Formar equipos diversos, con personas de diferentes perfiles, con diferentes antecedentes, experiencias y perspectivas puede ayudar a identificar y abordar estos sesgos inconscientes. Conceptos como equidad y justicia, por tanto, deben ser considerados como elementos centrales al desarrollar y aplicar estos sistemas.
- También debe abordarse el tema de la sostenibilidad ambiental. El crecimiento exponencial de la IA y el coste computacional derivado de la complejidad de los algoritmos utilizados implica el aumento en el consumo de los recursos energéticos, lo que puede tener un impacto muy negativo para el medio ambiente. La optimización del código y del flujo de trabajo del modelo, así como la utilización de hardware e infraestructuras de datos eficientes pueden contribuir a la reducción del consumo energético. Además, debemos evaluar diferentes algoritmos y arquitecturas encontrando el balance entre precisión y consumo para así minimizar la carga computacional, y consecuentemente, avanzar hacia un enfoque más sostenible en la aplicación de la IA.
- Por último, el impacto que puede tener el uso de la IA generativa en el empleo suscita serias inquietudes. Según el informe publicado por Goldman Sachs a finales de marzo “Los enormes potenciales efectos de la inteligencia artificial en el crecimiento económico”, uno de cada cuatro empleos desaparecerá tanto en Estados Unidos como en Europa por el efecto de esta tecnología. Sin embargo, el mismo informe ofrece conclusiones esperanzadoras, ya que asegura que también se abrirán nuevas oportunidades de empleo creándose nuevos roles y empleos hoy no existentes, tal y como ha ocurrido históricamente en otras revoluciones tecnológicas. Es importante, además, destacar que la IA generativa no reemplazará la creatividad ni el juicio humano. Los publicistas, por ejemplo, seguirán siendo necesarios para interpretar y adaptar el contenido creado por la IA a los objetivos específicos de cada campaña. Los científicos de datos podrán centrarse en tareas más complejas y estratégicas, aplicando su conocimiento especializado y su juicio para mejorar los modelos de aprendizaje. Y así será con la mayoría de roles actuales, que seguirán siendo necesarios para interpretar, validar y adaptar todo aquello que produzca la IA.
Es por tanto de vital importancia mitigar estos recelos a medida que se avanza en el desarrollo y aplicación de la IA, mediante la implementación de marcos regulatorios que garanticen su uso responsable y la realización de auditorías independientes donde se revise que se llevan a cabo toda esta serie de medidas y procedimientos. Es esencial que los gobiernos, las organizaciones, y comités expertos en ética se unan para establecer un marco regulatorio conjunto donde se aborden los riesgos asociados al uso de la IA. Sin embargo, no podemos permitir que la lentitud en la creación de estos códigos regulatorios nos detenga.
Es crucial que desde las empresas avancemos al mismo ritmo que evoluciona la IA, sin paralizarnos, asumiendo la responsabilidad en el desarrollo y aplicación de una IA ética y justa, fomentando y promoviendo la equidad, la transparencia, la privacidad y la seguridad.
En definitiva, una IA responsable, orientada a la eficiencia de procesos y en beneficio de la sociedad en su conjunto debe ser la que guíe nuestro camino hacia el futuro.