“Tener impacto y ser efectivo con ML requiere que se considere como un proceso a mantener, no como una actividad que se ejecuta aislada”

Juan José López Murphy, Director de IA y Data Science de Globant.

Entrevista a Juan José López Murphy, Director de IA y Data Science de Globant.

Autor de la publicación “Embracing the Power of AI” y experto en el uso de modelos matemáticos para mejorar el proceso de toma de decisiones y la capacidad de aprendizaje de los sistemas de Inteligencia Artificial (IA), Juan José López Murphy desempeña el cargo de Global Head of Artificial Intelligence en Globant, compañía nativa digital enfocada en la reinvención de los negocios.

Con más de 20 años de experiencia dirigiendo equipos de más de 120 personas a nivel internacional, López Murphy ha trabajado en proyectos para la implementación de IA en compañías de primer nivel del ámbito de las finanzas, la sanidad, la logística o el entretenimiento, entre otros, con el objetivo de potenciar su transformación digital. Además de su destacada labor en Globant, López Murphy es asesor del Máster en Gestión y Analítica del ITBA.

Big Data Magazine (BDM): Antes de entrar en materia, ¿qué significa el acrónimo MLOps? Cuéntanos algo más sobre esto.

Juan José López (JJL): MLOps es el acrónimo de “Machine Learning Operations”, y se refiere a una combinación de los conceptos de “machine learning”, como aprendizaje automatizado a partir de datos y de “operaciones”, en el sentido de cómo poder ejecutar de manera consistente y fehaciente las tareas requeridas para que los modelos lleguen al mundo real. Se refiere a la aplicación de conceptos de operaciones del mundo IT, metodologías ágiles, desarrollo o entrega continua y otros aprendizajes.

La idea detrás de este enfoque es que, a medida que se gana madurez en el desarrollo de iniciativas asociadas a machine learning, se dejan atrás prácticas consideradas más artesanales o de laboratorio, o hasta incluso académicas, en pos de obtener un proceso continuo sostenible en el tiempo con buenos parámetros de control y enfocados en la calidad. Para ello se incorporan aprendizajes y estructuras de desarrollo, particularmente aquellos asociados a DevOps, que aplica para el desarrollo de software en general. 

BDM: ¿Cuál es el motivo por el que este término no para de ganar popularidad en el sector de la tecnología?

JJL: El Machine learning sólo tiene impacto en el negocio cuando está “desplegado en producción”, es decir, cuando está expuesto y siendo usado por sus usuarios y consumidores, ya sean usuarios de las aplicaciones de la empresa, trabajadores u otros sistemas dentro de la misma organización. Esto conlleva algunos grandes desafíos en términos de calidad, relevancia, control y capacidad de respuesta.

No tiene el mismo nivel de dificultad y rigor ejecutar una prueba de concepto que un proyecto lo suficientemente robusto como para exponerlo a que afecte los resultados de la empresa. La calidad en este aspecto se relaciona con la trazabilidad sobre cómo se construyó un modelo, comparación entre distintas versiones, posibilidad de replicar lo logrado y magnitud del esfuerzo de desarrollo.

En cuanto a la relevancia, es raro el caso donde un modelo entrenado puede ser usado de forma “estática” durante mucho tiempo, es decir, sin actualizarlo con nuevos datos, o incorporando mejoras o retroalimentaciones de su uso en producción, por lo que “entrenar un modelo” ya no es más una actividad que se hace una vez, sino el establecimiento de un nuevo proceso de negocio.

Lo mismo se extiende al control y capacidad de respuesta. Necesitamos poder re-entrenar un modelo que está fallando de manera automática, o volver a desplegar uno que dejó de funcionar, entender qué tipos de respuesta está entregando para saber si sigue siendo usado en un tipo de caso de uso y datos similares a los que fueron utilizados para entrenar, etc. Lo que esto implica es que tener impacto y ser efectivo con ML requiere que se considere como un proceso a mantener, no como una actividad que se ejecuta aislada.

BDM: Desde Globant trabajáis en un proyecto relacionado con el MLOps, ¿cuáles son las claves para alcanzar el éxito en estas investigaciones?

JJL: La clave es entender el contexto en el cual esto se está aplicando: qué nivel de madurez tiene la organización donde se ejecuta, qué tipo de capacidades y perfiles están disponibles, qué acceso a distintas plataformas tienen y cuál es la estrategia de datos que siguen.

De estos elementos se va a desprender cuál es la versión mínima que se va a requerir establecer para poder empezar a trabajar en esta metodología, y a partir de ahí ir agregando elementos. En algunos casos el despliegue y monitorización van a ser más críticos dados modelos ya entrenados o con mucha validación, pero donde fallan en la agilidad para ser desplegados. En otros, serán las herramientas que se le dan a los desarrolladores de modelos para minimizar la necesidad de que gestionen punta a punta desde ingestas de datos hasta disponibilización de ambientes en la nube, dejándoles tiempo para ser más efectivos en entrenar modelos y no en administrarlos. En otros casos la clave será el establecimiento de flujos de datos y dispositivos como los “feature stores” para mejorar la disponibilidad de los datos al momento de modelar.

No existe una respuesta única excepto en destrabar progresivamente aquello que dificulta ser efectivos en poner los modelos en producción de la manera más ágil posible.

BDM: ¿Cuál es la principal disrupción que introduce esta nueva forma de aplicación del aprendizaje automático en los procesos empresariales?

JJL: Existen un par de elementos muy interesantes que tienen que ver con la percepción, las expectativas y los modos de trabajo. De alguna manera, MLOps ayuda a formalizar la necesidad de entender que estos productos son iniciativas “vivas”, es decir, no empiezan, terminan y quedan estáticas, sino que evolucionan permanentemente y se van adaptando. Se “terminan” cuando dejan de aportar valor. Pero esto implica que la entrega de ese valor también es iterativa e incremental. La primera versión será siempre muy básica e irá mejorando, mientras que en tiempos anteriores, existía la expectativa de que un modelo de ML sería “perfecto” para comenzar a utilizarlo. Ahora se valora mucho más la retroalimentación y adaptación rápida.

Desde el lado de desarrollo, también aporta una necesidad de disciplina ágil que en el pasado era más fácil intentar ignorar apoyándose en la idea de que “hacer ML” era principalmente una cuestión de investigación, con esquemas y tiempos más inspirados en la academia que en la empresa. El cambio en la modalidad de trabajo no es fácil, pero tiene mucho rédito una vez que es adoptado, y permite una ganancia en eficiencia que se ve en la idea de “cuál es el mínimo cambio que se puede hacer para que la versión en producción sea mejor”, en lugar de dedicar meses a simplemente investigar posibilidades. 

BDM: Al igual que ocurre con todas las nuevas tecnologías, ¿cuál dirías que es el principal desafío que plantea MLOps?

JJL: El entorno tecnológico es todavía incipiente en muchos aspectos, y existe una multiplicidad de ofertas, tecnologías, plataformas y empresas que ofrecen servicios con un nombre u objetivo similar, pero que cubren aspectos muy dispares. Esto plantea desde problemas de coordinación entre elementos de la misma infraestructura, desarrollos ad-hoc de amalgama entre los elementos, o la posibilidad de que muchos productos se abandonen o sean fusionados con otros proyectos. La dificultad es navegar esa explosión de ofertas en un entorno de madurez incipiente, donde se está aprendiendo a la vez cuáles son las características más críticas que se deben resolver.

Otro problema lo vemos en la adopción. Para muchos practicantes de ML es un cambio de modo de trabajo y paradigma que muchas veces incomoda, y la definición misma del perfil de data scientist, machine learning engineer u otras denominaciones va cambiando y se va adaptando. Como corolario de este escenario de madurez pendiente de las tecnologías, muchas veces se pretende que los desarrolladores manejen como expertos temas muy dispares, en lugar de identificar estos procesos como un trabajo de equipo donde aprovechar a los especialistas. La definición puntual de cuáles son las fronteras de las responsabilidades de cada miembro de ese equipo están en constante movimiento.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.