Resumen
En este curso, aprenderá a construir soluciones de análisis de datos en streaming utilizando servicios de AWS, incluidos Amazon Kinesis, Amazon Data Firehose y Amazon Managed Streaming para Apache Kafka (Amazon MSK). Kinesis es un servicio de transmisión de datos en tiempo real masivamente escalable y duradero. Amazon MSK ofrece un servicio de Apache Kafka seguro, completamente gestionado y altamente disponible.
Aprenderá cómo Kinesis y Amazon MSK se integran con servicios de AWS como AWS Glue y AWS Lambda. El curso aborda los componentes de ingestión de datos en streaming, almacenamiento de transmisión y procesamiento de transmisión de la canalización de análisis de datos. También aprenderá a aplicar buenas prácticas de seguridad, rendimiento y gestión de costos a la operación de Kinesis y Amazon MSK.
El curso está dividido en diferentes módulos. Los módulos de aprendizaje introducen nuevos conceptos y los servicios AWS que puede usar para construir su solución. Los módulos de laboratorio son actividades prácticas en profundidad con instrucciones paso a paso para que pueda aplicar lo que ha aprendido.
Actividades: Contenido interactivo, videos, verificación de conocimientos, evaluaciones y laboratorios prácticos
Objetivos del curso:
- Reconocer un desafío de un cliente de analítica y describir la solución adecuada de AWS para resolverlo, con una arquitectura de datos en streaming.
- Describir fuentes de datos adecuadas para aplicaciones de transmisión y cómo se ingieren esos datos.
- Identificar servicios de almacenamiento a corto y largo plazo para datos en streaming.
- Describir cómo diseñar e implementar soluciones de procesamiento de datos en tiempo real.
- Reconocer cómo servir datos en streaming para el consumo de los usuarios finales.
- Describir cómo optimizar una canalización de datos en streaming utilizando Amazon Kinesis, Amazon MSK y Amazon Redshift.
- Identificar buenas prácticas para asegurar una canalización de datos en streaming.
Público objetivo:
- Ingeniero de datos
- Analista de datos
- Arquitecto de datos
- Ingeniero de inteligencia empresarial
Habilidades recomendadas:
- 2-3 años de experiencia en ingeniería de datos
- 1-2 años de experiencia práctica con servicios de AWS
- Completar AWS Cloud Practitioner Essentials o equivalente
- Completar Fundamentos de Analítica en AWS Parte 1 y 2
- Completar Ingeniería de Datos en AWS – Fundamentos
Esquema del curso:
Módulo 1: Construyendo una Solución de Canalización de Datos en Streaming
Este curso muestra cómo identificar, seleccionar y configurar los servicios de AWS adecuados para construir una solución de canalización de datos en streaming para cumplir con los objetivos de negocio de un cliente ficticio.
- Introducción
- Ingestión de Datos de Fuentes de Transmisión
- Almacenamiento de Datos de Transmisión
- Procesamiento de Datos
- Análisis de Datos
- Evaluación Final
- Conclusión
Módulo 2: Analítica de Transmisión con el Servicio Administrado de Amazon para Apache Flink (Laboratorio)
Este laboratorio es una actividad práctica paso a paso para construir una canalización de procesamiento de transmisión mediante la ingestión de datos de clickstream y el enriquecimiento de los datos de clickstream con datos de catálogo almacenados en Amazon Simple Storage Service (Amazon S3). Realizará un análisis de los datos enriquecidos para identificar las ventas por categoría en tiempo real y visualizará los resultados.
- Resumen del laboratorio
- Tarea 1: Configurar el entorno del bloc de notas Zeppelin
- Tarea 2: Conectar al productor de Amazon EC2 y comenzar el generador de clickstream
Programa de estudio
Enseñado por
Etiquetas