AI Hub y Kubeflow Pipelines: Trabajando para que la IA sea más simple, rápida y útil para las empresas

Hussein Mehanna,  Director de Ingeniería de Cloud ML Platform.

Las empresas, ya sean de fabricación de textiles o un e-commerce, están en continua evolución, recurriendo cada vez más a la Inteligencia Artificial para avanzar todo lo posible en su sector. Sin embargo, para muchas empresas la complejidad de adoptar plenamente la IA puede llegar a ser una tarea muy compleja e, incluso, casi inaccesible.

Nuestro objetivo es poner la IA al alcance de todos los negocios. Es por eso que elaboramos todas nuestras propuestas de IA teniendo en cuenta tres ideas básicas: que sean simples, para que más empresas puedan adoptarlas, útiles para poder llegar al mayor número de organizaciones posibles y que sean rápidas para que las empresas puedan tener éxito más deprisa.

A principios de este año anunciamos AutoML para ayudar a las empresas con conocimientos y experiencia limitada en Machine Learning a crear sus propios modelos de ML. Además hemos invertido en formación especializada y certificaciones para ayudar a aumentar el conjunto de habilidades de ML.

También proporcionamos a las empresas recursos como el laboratorio de soluciones avanzadas, que ofrece la posibilidad de colaborar in situ con los propios ingenieros de ML de Google. Todo esto ha contribuido a que crezca la adopción de la IA en todas las empresas. Hasta la fecha, tenemos más de 15.000 clientes de pago de diferentes tipos de industrias que utilizan nuestros servicios de IA.

Otra forma de hacer que la IA sea más rápida, sencilla y útil es ayudando a los expertos en datos a ser más efectivos. Aunque hay aproximadamente 20 millones de desarrolladores en el mundo, sólo hay 2 millones de expertos en datos. Estos necesitan herramientas que les ayuden a escalar sus esfuerzos, y las organizaciones necesitan más formas de aprovechar su trabajo y hacer que este sea accesible para sus desarrolladores e ingenieros. Hoy anunciamos varios productos nuevos incluidos en nuestro portafolio de IA que se orientan a eso precisamente.

Simplificando la IA con AI Hub

Conseguir que más empresas puedan utilizar Inteligencia Artificial significa que sea más fácil para ellas el descubrir, compartir y utilizar las herramientas y el trabajo ya existentes. Pero hasta hace poco, la escasez de conocimientos sobre Machine Learning por parte de los programadores hacía difícil la construcción de un recurso integral. Hoy ponemos en marcha AIHub para atender esta necesidad.

El AI Hub es un punto de encuentro para contenido ML plug-and-play, incluyendo pipelines, Jupyter notebooks,  módulos TensorFlow y más. AI Hub ofrece dos ventajas significativas: el primero es poner a disposición de todas las empresas los recursos ML de alta calidad desarrollados por Google Cloud AI, Google Research y otros equipos de Google. La segunda es que proporciona un centro privado y seguro donde las empresas pueden subir y compartir recursos de ML dentro de sus propias organizaciones. Esto facilita a las empresas la reutilización de pipelines y su despliegue para la producción en GCP (o en infraestructuras híbridas utilizando el sistema pipelines Kubeflow) en tan sólo unos pasos.

Aún en versión alpha, el AI Hub proporcionará estos recursos desarrollados por Google y controles de uso compartido privado. Su versión beta se ampliará para incluir más tipos de activos y una gama más amplia de contenido público, incluyendo soluciones para partners.

Haciendo que la IA sea más útil con Kubeflow Pipelines y actualizaciones de API para vídeo

No basta con proporcionar un lugar donde las organizaciones puedan descubrir, compartir y utilizar recursos de ML, sino que también necesitan una forma de crearlos y empaquetarlos para que sean lo más útiles posible para la mayor variedad de usuarios. Es por eso que estamos presentando Kubeflow Pipelines.

Kubeflow Pipelines es un nuevo componente de Kubeflow, un popular proyecto de código abierto iniciado por Google, que empaqueta el código ML al tiempo que proporciona una aplicación para que puedan utilizarlo otros usuarios de una organización. Kubeflow Pipelines ofrece un espacio de trabajo para componer, desplegar y gestionar flujos de trabajo de ML de extremo a extremo, lo que lo convierte en una solución híbrida que no se bloquea ideal para tanto para la creación de prototipos como para la producción. También permite una experimentación rápida y fiable, por lo que los usuarios pueden probar muchas técnicas de ML para identificar qué es lo que funciona mejor para su aplicación.

La equidad es uno de nuestros principios de IA y algo que discutimos con nuestros clientes de la nube que adoptan el ML en sus propios negocios. Kubeflow Pipelines puede ayudarles a aprovechar las bibliotecas de código abierto TensorFlow Extended (TFX) de Google que abordan cuestiones de producción de ML, como el análisis de modelos, la validación de datos, la inclinación de los servicios de formación, la deriva de datos y mucho más. Esto mejora la precisión, relevancia y equidad de los resultados para las empresas. Ya se puede utilizar Kubeflow Pipelines en GitHub.

También seguimos ampliando las capacidades de nuestros componentes básicos de IA para hacerlos aún más útiles para las empresas, incluida la versión beta de tres funciones de nuestra API de vídeo en la nube que aborda los retos comunes para las empresas que trabajan mucho con vídeo. La detección de texto ahora puede determinar dónde y cuándo aparece el texto en un vídeo, lo que facilita la búsqueda del mismo. Esta característica está disponible en más de 50 idiomas. El tracking de objetos puede identificar más de 500 clases de objetos en un vídeo. Speech Transcription for Video puede transcribir audio, lo que permite crear fácilmente subtítulos, así como aumentar la capacidad de búsqueda de sus contenidos. Se puede obtener más información sobre los elementos básicos de nuestra IA en nuestra web.

Acelerando la IA con actualizaciones de Cloud TPU

Estamos continuamente reduciendo las barreras informáticas a la IA con nuestras Tenros Processing Units (TPUs). Estos chips ASIC personalizados y diseñados por Google para cargas de trabajo de Machine Learning aceleran drásticamente las tareas ML y se puede acceder a ellos fácilmente a través de la nube.

En julio anunciamos que estaban disponibles nuestros TPU de segunda generación y al alcance de todos los usuarios de la nube, incluidos los usuarios free-tier. En octubre, anunciamos también el lanzamiento de nuestra tercera generación de TPUs en la nube liquid-cooled Cloud TPUs y pusimos PyTorch a disposición de todo el mundo en Google Cloud, y pronto estará disponible para su uso en TPUs. Hoy también hemos anunciado el precio de nuestros V2 TPU Pods. Todas estas actualizaciones tienen como objetivo hacer que el ML con uso intensivo de ordenadores sea más rápido y accesible para las empresas de todo el mundo. Hay más información sobre los TPU en nuestra web.

Mirando hacia el futuro

Durante los últimos meses hemos visto cómo muchos de nuestros clientes han utilizado con éxito la IA para resolver sus desafíos empresariales.

Meredith Corporation, una compañía de medios de comunicación, utiliza el Machine Learning para automatizar la clasificación de contenido, aplicando una taxonomía universal personalizada con Cloud AutoML y Natural Language. El ML les ayuda a hacer que la clasificación de contenidos sea más escalable, ahorrando tiempo y mejorando la experiencia de los lectores.

«En Meredith Corporation nos especializamos en crear contenido relevante a través de plataformas para marcas como PEOPLE, Better Homes & Gardens, Martha Stewart Living, Allrecipes y Food & Wine«, afirma Alysia Borsa, Directora de Marketing y Datos de Meredith Corporation. «Al utilizar los servicios de Natural Language y AutoML para aplicar nuestra taxonomía universal personalizada a nuestro contenido, somos capaces de identificar y responder mejor a las tendencias emergentes, permitir una segmentación detallada y proporcionar a nuestra audiencia experiencias más relevantes y atractivas«, añade.

La Universidad de Emory está combinando datos clínicos, Machine Learning y la infraestructura escalable de GCP para desarrollar un motor de predicción de sepsis que utiliza análisis en tiempo real en un esfuerzo por proporcionar una mejor atención a los pacientes en riesgo y, al mismo tiempo, controlar los costes médicos.

«Con la sepsis, la detección temprana es clave«, dice el Dr. Ashish Sharma, profesor asistente del Departamento de Informática Biomédica de la Facultad de Medicina de la Universidad de Emory. «Al convertir nuestro algoritmo de predicción de sepsis basado en TensorFlow en una aplicación y ejecutarlo en Google App Engine, podemos proporcionar información para que los médicos pueden realizar intervenciones significativas para un paciente. Lo que más importa es mejorar los resultados médicos de los pacientes reales en las UCI y el ML es crucial para ayudar a optimizar la atención al paciente«, concluye

Geotab utiliza BigQuery ML y BigQuery GIS para predecir áreas de conducción potencialmente peligrosas en Chicago y promover la toma de decisiones basada en datos y permitir iniciativas de ciudades inteligentes.

«Geotab proporciona información basada en datos sobre vehículos de flotas comerciales en todos los continentes«, dice Mike Branch, Vicepresidente de Datos y Análisis de Geotab. «Aprovechando el ML y BigQuery, entre otros conocimientos inteligentes de la ciudad, hemos podido desarrollar una solución para nuestros clientes que predice zonas de conducción especialmente peligrosas en una ciudad, en función de las condiciones meteorológicas y el flujo del tráfico. Estamos muy contentos de colaborar con la tecnología de ML de Google Cloud para ayudar a crear mejores soluciones para nuestros clientes y la comunidad«.

También estamos encantados de ver el continuo crecimiento de la comunidad de Kubeflow. Organizaciones como Cisco y NVIDIA se encuentran entre los principales contribuyentes a este proyecto de código abierto y están colaborando estrechamente con nosotros para adopta Kubeflow pipelines.. NVIDIA ya está integrando RAPIDS, un nuevo conjunto de bibliotecas de datos de código abierto, en Kubeflow. La biblioteca RAPIDS aprovecha las GPUs para proporcionar una aceleración de orden de magnitud para el preprocesamiento de datos y machine learning, complementando así a la perfección a Kubeflow.

«El machine learning está emergiendo rápidamente como una parte indispensable de la transformación digital a la que nuestros clientes se están adaptando. Además, el ML está ganando cada vez más terreno con los equipos de TI en la empresa y los equipos de ingeniería a medida que intentan desplegar arquitecturas que sirven a los expertos en datos en sus líneas de negocio. Utilizar el potencial del ML en entornos empresariales requiere una simplificación drástica del ciclo de vida de toda la solución«, afirma Kaustubh Das, vicepresidente de gestión de productos de centros de datos de Cisco. «Las importantes contribuciones de Cisco a Kubeflow tienen como objetivo simplificar la gestión del ciclo de vida de la IA/ML híbrida/multi nube. Cisco también está encantado de ver el nacimiento de Kubeflow Pipeline, que promete una simplificación radical de los flujos de trabajo de ML, que son fundamentales para la adopción generalizada. Esperamos poder ofrecer a nuestros clientes los beneficios de esta tecnología junto con nuestra cartera de productos de AI/ML«.

TE PUEDE GUSTAR

Bain & Company ha adquirido PiperLab, compañía española especializada en soluciones de Inteligencia Artificial y Machine Learning (ML), con el objetivo de ampliar su oferta

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio