Tim Grosser ha sido el protagonista de una ilustrativa sesión con las nuevas estrategias para el manejo de los datos como protagonista.
El madrileño Hotel Urso ha sido el escenario elegido por Denodo y el Club del CDO para su último acto. El objetivo ha sido conocer las estrategias de datos y las iniciativas de gobierno del dato en empresas de todo el mundo. El acto estuvo dirigido por José Juan Sánchez, Marketing Director EMEA de Denodo y Rafael Fernández Campos, Chief Data Officer de Bankia y presidente del Club del CDO.
Ante un atento auditorio el principal protagonista de la mañana fue Tim Grosser, Head of Consulting Business Intelligence & Data Management de BARC, una de las principales consultoras de Centroeuropa. Presentó las conclusiones del estudio ¿Cómo gobernar tu mundo de datos? basado en una encuesta que realizó la consultora en 2018 a más de 350 empresas respecto al gobierno actual de los datos y los retos que encuentran.
Explicó que, según los encuestados, la calidad de los datos es uno de los mayores desafíos para la gobernanza eficaz de los datos. Otros retos planteados por las empresas fueron:
- Organización ineficaz de la política de datos, debido a la existencia de gobernanzas dispares en cada departamento o área de negocio de las empresas.
- El difícil acceso a los datos, los cuales se hallan repartidos entre múltiples silos de información que no paran de crecer.
- Un gobierno del dato exclusiva o mayoritariamente centrado en el entorno de data warehouse, lo cual deja sin gobierno otras fuentes de datos que también son relevantes para la analítica de negocio y que pueden estar proporcionando información en bruto no verificada.
Claves para llevar
Las conclusiones que ofreció Tim Grosser a los asistentes fueron de gran relevancia. Explicó que: ”Las empresas se enfrentan a una gran complejidad y, en particular, a los desafíos organizativos”. A este respecto compartió tres factores a tener en cuenta para conseguir el éxito:
- La participación de la línea de negocios es esencial para el establecimiento de la administración de datos. Actualmente, los usuarios de negocios no cuentan con los recursos y las habilidades adecuadas disponibles para dominar la tarea y deben tener poder.
- El apoyo y la aceptación de los ejecutivos en los negocios, son requisitos previos indispensables para perseguir la gobernabilidad del dato. Un buen punto de partida es monitorear y visualizar la calidad de los datos y crear un bucle de retroalimentación desde los datos analíticos hasta los procesos empresariales centrales. También tiene que conseguirse que la gobernabilidad de los datos sea un elemento sustancial de todos los proyectos y procesos.
- La gobernabilidad de los datos no debe limitarse a los límites establecidos por los entornos de datos específicos, sino que debe configurarse como una iniciativa empresarial global, enfocando el gobierno del dato en el almacén de datos para mantener el problema de los datos, en lugar de resolverlo.
Virtualización de Datos
Alberto Pan, CTO de Denodo fue el encargado de explicar los objetivos de su empresa. Comenzó de manera sencilla explicando que su función podría definirse como “vamos a coger todos los datos relevantes para el negocio, los vamos a poner en un mismo sitio y vamos a ser capaces gracias a esto de tener una gobernanza de datos unificada”.
Aunque recordó que en los últimos años estamos volviendo a un escenario de fragmentación. Esto ocurre por múltiples razones:
- Gran tamaño de la empresa
- Diferenciación entre Big Data y Data Science
- El Cloud influye creando silos
Pan aportó la solución que propone Gartner que “es el almacén de datos lógico. Se asume que cierto nivel de fragmentación es inevitable e incluso aconsejable”. Ahondando en soluciones a estos problemas detalló que “el puente entre lo complejo de los datos y el usuario es Denodo y su virtualizacion de datos. El objetivo es llevar los datos de manera amigable y ágil sin perder nunca el control de los mismos”.
Entre los beneficios de las soluciones de Denodo para la gobernanza del dato, Alberto Pan destacó:
- Recuperar el punto único para la interfaz que permite establecer políticas de seguridad.
- Tener el dato siempre accesible desde cualquier lugar
- Recuperar la idea de la fuente canónica y original de los datos.
- Saber quién accede a cada dato, cómo, cuándo y dónde
- Minimizar la replicación de datos
Epílogo participativo
A la finalización de las ponencias hubo un pequeño se dio paso a la participación de los asistentes. Abrió el fuego Eduardo Saiz, de EROSKI que explicó que “Llevamos un par de años con la virtualización. Nos ha dado mucha agilidad, fiabilidad y acceso al origen del dato, que es muy importante para nosotros. Usamos Denodo hacia arriba, pero aun no somos capaces de usar la virtualización para hacer apps o aplicarlo a proyectos mayores”.
El responsable de Datos de Ferrovial Servicios, Unai Obieta recalcó que “nosotros trabajamos hace unos años con analítica de datos. No tenemos cliente final, y nos cuesta más encontrar la parte analítica porque es para procesos internos. La analítica nos ha llevado a dos ámbitos de trabajo, y ha sido especialmente exitosa en nuestra plataforma de carsharing Zity, ya que es nuestro foco analítico hacia cliente final”.
Por otra parte, el representante de Ferrovial Servicios explicó que “la analítica nos ha llevado a trabajar con los científicos de datos que trabajan in house en Ferrovial. Lo que hemos podido ver después de analizar nuestros departamentos es que debemos tener un modelo federado, es decir, que desde el equipo de IT hagamos un tutelaje del resto de departamentos de Data dentro de la compañía (tenemos un total de 7-8) y proporción de herramientas para que se autogestionen. Por medio de Sandbox Microsoft les damos entornos y ellos trabajan. Cuando funciona se comparte y se pone en la arquitectura global de Ferrovial que estamos construyendo a día de hoy”.
Otro de los intervinientes en esta última parte de la mañana fue Pablo Pellicer Franco, Data & Analytics Manager en Cabify. Sobre su empresa detalló que: “Tenemos dos tipos de analítica independientes, pero en proceso de integración. Por un lado, analítica de producto y por otro analítica de negocio. La referida a producto, al ser más tecnológica está más avanzada, y tenemos cómo referencia empresas como Spotify, Google o Lyft, dónde tienen un equipo enorme de científicos del dato»
«La parte de negocio es más usual, y todo lo que se haga tiene que ser simple y rápido. Nuestro principal caso de éxito es la implantación de modelo de self service real dónde los usuarios tienen acceso directo a los datos. Tenemos aproximadamente unas 130 medidas actualmente. Con lo que tenemos damos solución a la mayoría de necesidades de negocio. Algunos datos relevantes es que llevamos el doble de gente a los aeropuertos de la que recogemos desde el aeropuerto a otros destinos. Aunque la lectura detrás de esos datos es bastante obvia», concluyó.