Databricks Machine Learning
Sensibilización | Directivos | Inteligencia artificial | Transformación digital
OBJETIVOS
- Aprende Programación con Apache Spark™ (ver Data Engineering path)
- Aprende ML Escalable con Apache Spark™
○Realiza un Análisis Exploratorio de Datos escalable con Spark
○Construye y ajusta modelos de ML con SparkML
○Realiza un seguimiento, versiona e implementa modelos con MLflow
○Lleva a cabo la sintonización distribuida de hiperparámetros con HyperOpt
○Utiliza el workspace ML de Databricks para crear un almacén de características y experimentos de AutoML
○Aprovecha la API de pandas en Spark para escalar tu código de pandas
Aprende ML en Producción
○Realiza un seguimiento, versiona y gestiona experimentos de ML
○Aprovecha el Feature Store de Databricks para una gestión de datos reproducible
○Implementa estrategias para implementar modelos en batch, en tiempo real y streaming
○Construye soluciones de monitorización, incluida la detección de desviaciones
- Aprende ML con Databricks
○Construye modelos de ML utilizando tensorflow.keras
○Ajusta hiperparámetros a escala con Hyperopt y Spark
○Realiza un seguimiento, versiona y gestiona experimentos con MLflow
A QUIÉN SE DIRIGE
Ingenieros de datos y científicos de datos
PROGRAMA
Cursos incluidos en este recorrido de formación:
Programación de Apache Spark™ con Databricks (2 días) (ver Data Engineering path)
ML escalable con Apache Spark™ (2 días) – Este curso te enseña cómo escalar pipelines de ML con Spark, incluido el entrenamiento distribuido, la sintonización de hiperparámetros y la inferencia. Construirás y ajustarás modelos de ML con SparkML, aprovechando MLflow para hacer un seguimiento, versionar y gestionar estos modelos. Cubre las últimas características de ML en Apache Spark, como las UDF de Pandas, las funciones de Pandas y la API de Pandas en Spark, así como las últimas ofertas de productos de ML, como Feature Store y AutoML.
ML en producción (1 día) – Aprenderás las mejores prácticas de MLOps para poner modelos de ML en producción. La primera mitad del curso utiliza un Feature Store para registrar datos de entrenamiento y utiliza MLflow para hacer un seguimiento del ciclo de vida, empaquetar modelos para implementación y gestionar versiones de modelos. La segunda mitad del curso examina problemas de producción, incluidos paradigmas de implementación, monitoreo y CI/CD. Al final de este curso, habrás construido un canal completo para registrar, implementar y monitorear modelos de ML.
Aprendizaje profundo con Databricks (2 días) – Este curso comienza cubriendo los conceptos básicos de las redes neuronales y la API tensorflow.keras. Nos enfocaremos en cómo aprovechar Spark para escalar nuestros modelos, incluido el entrenamiento distribuido, la sintonización de hiperparámetros y la inferencia, mientras aprovechamos MLflow para hacer un seguimiento, versionar y gestionar estos modelos. Profundizaremos en el aprendizaje profundo distribuido, incluidos ejemplos prácticos para comparar y contrastar diversas técnicas para la preparación distribuida de datos, como Petastorm y TFRecord, así como técnicas de entrenamiento distribuido como Horovod y spark-tensorflow-distributor
Rol
Ingenieros de datos y científicos de datos
Duración
56 horas
Modalidad
Online
Nivel
Avanzado
Precio
Gratuito