fbpx

Puesta en Producción

$69.99 Sin IVA

*Precio en dólares

Fecha: 16 al 20 de octubre del 2020 (viernes, lunes y martes)
Horario: 7h00 a 9h00 (GTM-5: Bogotá, Lima, Quito).
Duración: 6 horas.

Categorías: ,
Resumen

En este curso, optimiza y automatiza las cargas de trabajo de Extracción, Transformación y Carga (ETL) mediante el procesamiento de flujos, estrategias de recuperación de jobs y estrategias de automatización como la integración con una API de REST. Al final de este curso programará jobs ETL altamente optimizados y robustos, depurando problemas en el camino.

Metodología

Aplicamos la metodología “learning by doing” para el trabajo con herramientas digitales. Por medio del trabajo en notebooks e infraestructura cloud mediante la plataforma Databricks.

¿Por qué aprender sobre la Puesta en Producción?

Realizar procesos manuales dentro de un Data Pipeline o depender de la interacción de un humano en algunos puntos, suele generar cuellos de botella, está sujeto a errores e imposibilita la replicación y recuperación automática de los flujos de trabajo. Por ello, es fundamental contar con herramientas que permitan automatizar el proceso ETL de punta a punta, llevar un control y monitoreo de los flujos de trabajo y ser capaces de recuperarse ante algún fallo oportunamente.

Objetivos de aprendizaje
  1. Aprender sobre las herramientas que interactúan con Apache Spark para calendarizar jobs ETLs.
  2. Poner en producción flujos de trabajo a través de APIs.
  3. Aplicar las mejores prácticas para optimizar procesos ETL.

Lecciones

  • Streaming ETL
  • Notebooks ejecutables
  • Calendarización de Jobs
  • Manejo de fallos
  • Optimizaciones de ETLs

Instructor

MIT. Diego Montúfar

Co-fundador y Director Ejecutivo de handytec, empresa referente en Ecuador en ofrecer soluciones de Big Data Analytics. Ingeniero de Sistemas y Master of Information Technology por la Universidad de Melbourne, Australia. Especializado en Computación distribuida y Big Data Analytics. Diego tiene experiencia trabajando en la construcción de data pipelines sobre diversas plataformas on-prem y cloud como MSFT Azure, AWS y GCP utilizando tecnologías state of the art para industrias de Retail, Banca & Finanzas y Seguros. Ha participado en el diseño y puesta en marcha de proyectos de Analítica de Datos de alto impacto en los principales Bancos y Cooperativas de Ecuador. Diego es Certified Blockchain Expert y su área de especialización se enfoca en construir plataformas robustas de almacenamiento, procesamiento y análisis de información a gran escala.

Detalles importantes

  • Herramienta: Python en Databricks. No necesitas instalar ningún software en tu computadora
  • Conocimientos previos:
    • Lenguajes de programación (intermedio)
    • Bases de datos (intermedio)
  • Accede a los videos de las clases grabadas

También te recomendamos…

Ir arriba