Programa de Ingeniería de Datos Multicloud

Adquiere un conocimiento general de todas las tareas y destrezas que se requieren dentro de la ingeniería de datos empleando las principales nubes: Microsoft Azure, Amazon Web Services (AWS) y Google Cloud Platform (GCP).

arrow

Programa

Aprende y certifícate

Aprende a emplear los servicios en la nube para la ingesta, procesamiento y delivery de múltiples fuentes de datos.

Domina las funcionalidades ofrecidas por los principales proveedores de servicios de computación en la nube: Google, Amazon y Microsoft.

Desarrolla un conocimiento práctico de las tareas realizadas por un ingeniero de datos por medio de la construcción de pipelines.

Ejecuta la construcción de ETLs al trabajar con datos provenientes de batch y streaming.

Al finalizar este programa tendrás la capacidad de:

Crear pipelines de ingesta de datos en batch y streaming para múltiples fuentes de información.
Construir pipelines ETL y realizar tareas de procesamiento de datos de forma eficiente.
Crear modelos de datos que puedan ser consumidos por inteligencia de negocio y analítica avanzada.
Poner en producción pipelines de datos sobre las nubes de Azure, AWS y GCP.

INICIO:

07 de febrero al
11 de abril

MODALIDAD:

Online en vivo

HORARIO:

Clases en vivo
18h30 a 20h30 (GTM-5 Quito, Lima y Bogotá)

DURACIÓN:

90 horas distribuidas
en 9 semanas

CLASES:

Sincrónicas

BENEFICIOS:

Clases grabadas, material en la plataforma, software sin necesidad de instalación y certificado Open Badge.

Inscríbete
Consulta precios en tu moneda local, descarga nuestro brochure
forma

TEMARIO: Programa de Ingeniería de Datos Multicloud

Fundamentos de ingeniería de datos, big data y cloud computing
Instalación y configuración de la herramienta

Comprende las habilidades clave de un ingeniero de datos y adquiere un conocimiento de las temáticas relacionadas al procesamiento en batch y streaming, plataformas cloud y data pipelines.

Ingeniería de datos con Microsoft Azure
Recuperar datos de múltiples tablas

Construye data pipelines empleando los principales servicios de Microsoft Azure. Realiza la ingesta de datos en batch y streaming empleando Azure Data Factory y Event Hubs para múltiples fuentes de datos como: Azure Data Lake, RDBMS, entre otras. Continúa el procesamiento de datos creando ETLs con Apache Spark por medio de Databricks. Finalmente, ejecuta el delivery de los datos sobre varias fuentes de destino: Azure Synapse, RDBMS, Azure Data Lake, etc.

Ingeniería de datos con Google Cloud Platform
Tipos de datos y diseño de bases de datos

Construye data pipelines empleando los principales servicios de Google Cloud Platform. Realiza la ingesta de datos en batch y streaming empleando Google Cloud Dataflow y Pub/Sub para múltiples fuentes de datos como: Google Cloud Storage, RDBMS, entre otras. Continúa el procesamiento de datos creando ETLs con Apache Spark por medio de Google Cloud Dataprep. Finalmente, ejecuta el delivery de los datos sobre varias fuentes de destino: BigQuery, RDBMS, Google Cloud Storage, etc.

Ingeniería de datos con Amazon Web Services
Fundamentos y construcción de esquemas

Construye data pipelines empleando los principales servicios de Amazon Web Services. Realiza la ingesta de datos en batch y streaming empleando AWS Glue y Amazon Kinesis para múltiples fuentes de datos como: S3, RDBMS, entre otras. Continúa el procesamiento de datos creando ETLs con Apache Spark por medio de AWS Glue. Finalmente, ejecuta el delivery de los datos sobre varias fuentes de destino: Amazon Redshift, RDBMS, S3, etc.

Proyecto Final
Insertar, actualizar y eliminar datos

Pondrás en práctica lo aprendido al trabajar en un caso práctico guiado por el instructor.

forma 2
Ruta de aprendizaje
forma
Cualidades de cada perfil
Certificado Open bagde

Analista de Datos

Recopila, organiza y estudia los datos para proporcionar soluciones desde una visión de negocio. Aplica herramientas de análisis y visualización de datos para la toma de decisiones y presentación de resultados.

Metodología Learning by doing

Científico de Datos

Emplea datos para identificar y resolver problemas de negocio complejos. Tiene un enfoque interdisciplinario, utilizando técnicas y conocimientos de diversas disciplinas científicas e informáticas.

Enfoque endatos masivos

Ingeniero de Datos

Prepara, refina y disponibiliza datasets de calidad y los integra en la arquitectura empresarial, creando flujos automatizados de datos que provienen de fuentes estructuradas y no estructuradas.

Enfoque endatos masivos

Custodio de Datos

Define y maneja el uso de datos, ejecutando las políticas, criterios y procesos para asegurar la calidad, seguridad e integridad de los datos de la organización, de principio a fin.

¿Tienes más dudas?
Consulta con un asesor
facebook
linkedin
youtube
whatsapp
whatsapp
tiktok