Aprende a emplear los servicios en la nube para la ingesta, procesamiento y delivery de múltiples fuentes de datos.
Domina las funcionalidades ofrecidas por los principales proveedores de servicios de computación en la nube: Google, Amazon y Microsoft.
Desarrolla un conocimiento práctico de las tareas realizadas por un ingeniero de datos por medio de la construcción de pipelines.
Ejecuta la construcción de ETLs al trabajar con datos provenientes de batch y streaming.
Al finalizar este programa tendrás la capacidad de:
Crear pipelines de ingesta de datos en batch y streaming para múltiples fuentes de información. | |
Construir pipelines ETL y realizar tareas de procesamiento de datos de forma eficiente. | |
Crear modelos de datos que puedan ser consumidos por inteligencia de negocio y analítica avanzada. | |
Poner en producción pipelines de datos sobre las nubes de Azure, AWS y GCP. |
2023
Online en vivo
90 horas distribuidas
en 9 semanas
Clases en vivo: 18h30 a 20h30 (GTM-5 Quito, Lima y Bogotá)
Comprende las habilidades clave de un ingeniero de datos y adquiere un conocimiento de las temáticas relacionadas al procesamiento en batch y streaming, plataformas cloud y data pipelines.
Construye data pipelines empleando los principales servicios de Microsoft Azure. Realiza la ingesta de datos en batch y streaming empleando Azure Data Factory y Event Hubs para múltiples fuentes de datos como: Azure Data Lake, RDBMS, entre otras. Continúa el procesamiento de datos creando ETLs con Apache Spark por medio de Databricks. Finalmente, ejecuta el delivery de los datos sobre varias fuentes de destino: Azure Synapse, RDBMS, Azure Data Lake, etc.
Construye data pipelines empleando los principales servicios de Google Cloud Platform. Realiza la ingesta de datos en batch y streaming empleando Google Cloud Dataflow y Pub/Sub para múltiples fuentes de datos como: Google Cloud Storage, RDBMS, entre otras. Continúa el procesamiento de datos creando ETLs con Apache Spark por medio de Google Cloud Dataprep. Finalmente, ejecuta el delivery de los datos sobre varias fuentes de destino: BigQuery, RDBMS, Google Cloud Storage, etc.
Construye data pipelines empleando los principales servicios de Amazon Web Services. Realiza la ingesta de datos en batch y streaming empleando AWS Glue y Amazon Kinesis para múltiples fuentes de datos como: S3, RDBMS, entre otras. Continúa el procesamiento de datos creando ETLs con Apache Spark por medio de AWS Glue. Finalmente, ejecuta el delivery de los datos sobre varias fuentes de destino: Amazon Redshift, RDBMS, S3, etc.
Pondrás en práctica lo aprendido al trabajar en un caso práctico guiado por el instructor.
Analista de Datos
Recopila, organiza y estudia los datos para proporcionar soluciones desde una visión de negocio. Aplica herramientas de análisis y visualización de datos para la toma de decisiones y presentación de resultados.
Científico de Datos
Emplea datos para identificar y resolver problemas de negocio complejos. Tiene un enfoque interdisciplinario, utilizando técnicas y conocimientos de diversas disciplinas científicas e informáticas.
Ingeniero de Datos
Prepara, refina y disponibiliza datasets de calidad y los integra en la arquitectura empresarial, creando flujos automatizados de datos que provienen de fuentes estructuradas y no estructuradas.
Custodio de Datos
Define y maneja el uso de datos, ejecutando las políticas, criterios y procesos para asegurar la calidad, seguridad e integridad de los datos de la organización, de principio a fin.