Artículo de Adelina Sarmiento, CMO de Keepler Data Tech.
La aceleración de la digitalización entra en una siguiente fase que lleva a las organizaciones a centrarse en dos objetivos principales: mejorar los márgenes y reducir costes.
En este sentido, la nube tiene mucho que decir. Una vez los datos han migrado a la nube, lo que en el pasado ha supuesto el foco de atención y las inversiones principales, se hace necesario explotarlos y obtener su valor más allá del reporting. Así pues, el siguiente reto de los proveedores cloud será fidelizar a los que han apostado por ella, creando entornos que permitan a las grandes empresas encontrar en su ecosistema todo lo que necesitan y evitando que salgan de su plataforma para buscar funcionalidades.
En este sentido, es ya un hecho que cada proveedor de cloud está apostando por ofrecer plataformas completas e inmersivas que abarquen todo el ciclo de vida de los datos y que engloben a todos los perfiles involucrados en el trabajo diario con ellos, desde desarrolladores, arquitectos cloud, data engineers, data scientists y data analysts.
A esto se sumará la apuesta por integrar la Inteligencia Artificial de manera transparente en los diferentes servicios de la nube, llevando un poco más lejos las funcionalidades que aporta y haciendo más sencilla su adopción por parte de empresas y usuarios, que hasta ahora no veían cabida en sus procesos o cargas de trabajo.
La simplificación o democratización al acceso de este tipo de herramientas, es una tendencia que podemos ver en las propias mejoras de las plataformas cloud, cada vez más accesibles a los diferentes perfiles de la organización con muy diferente grado de conocimiento técnico, y en el avance de las plataformas low-code, que permiten desarrollar aplicaciones sin apenas conocimiento de lenguajes de programación.
Sin embargo, el alto grado de especialización de quienes desarrollan con seguridad y con los diseños de arquitecturas adecuados, va a continuar siendo necesario para poder gestionar y evolucionar plataformas robustas, sostenibles y escalables y, para ello, va a ser indispensable la integración de equipos especialistas con equipos internos menos cualificados.
La seguridad será una piedra angular en los proyectos de datos a abordar. Los proveedores de nube no sólo deben ya implementar sus mecanismos de protección y seguridad, si no que deben asegurarse de ser compatibles con los requisitos y soluciones de seguridad implementadas en las diferentes empresas. Este es un punto clave en la expansión de la nube en las organizaciones y es un punto de foco para cualquier proveedor de nube que quiera que las empresas (sobre todo las grandes empresas) migren sus sistemas y sus cargas de trabajo a un entorno 100% cloud.
Cuatro retos a corto plazo
No hay duda de que en el último año se ha visto un auge en el desarrollo de soluciones basadas en big data e inteligencia artificial para la impulsar aspectos como la mejora de la eficiencia operativa y de recursos, la optimización del time-to-market y la diferenciación de productos.
En este sentido, el enfoque de Producto de Datos está permitiendo una aproximación muy exitosa, ayudando a poner foco en aquello que aporta valor y muy orientadas a resolver un reto concreto de negocio a través de los datos. Esto está provocando un alto impacto en el negocio de forma rápida y demostrable, en ámbitos como la mejora de la experiencia del cliente, la productividad de los empleados, la creación de nuevos productos y el desarrollo de la competitividad.
Teniendo en cuenta los escenarios anteriormente planteados, desde Keepler Data Tech apostamos por 4 retos prioritarios que a corto plazo deben estar en la mente de los responsables de datos en las organizaciones:
- Aportar una mayor perspectiva data-centric en los proyectos IA, mediante la cuál la prioridad no sea acumular datos, sino trabajar en la mejora de la calidad de los mismos y eliminar datos inconsistentes. La calidad del etiquetado de los datos, estrategias en data augmentation, el versionado de los datos o los feature stores acelerarán este proceso.
- Priorizar la privacidad y seguridad de los proyectos IA desde su definición, debiendo tener presente estos aspectos y también se requerirán prácticas que determinen modelos más robustos y confiables, aplicando técnicas como adversarial training para prevenir respuestas ante posibles datos corruptos o escenarios poco frecuentes.
- Impulsar la automatización de procesos cognitivos, incorporando servicios disponibles en distintas plataformas cloud (voz, imagen, texto o decisión) o haciendo uso de modelos pre entrenados “multimodales” en el estado del arte.
- Incrementar capacidades big data de los procesos cada vez más exigentes, teniendo en cuenta el auge de quantum computing para la realización de simulaciones a gran escala o desafíos en procesos de optimización entre otros.