What You Need to Know Before
You Start
Starts 10 June 2025 21:35
Ends 10 June 2025
00
days
00
hours
00
minutes
00
seconds
Intégration des Data Lakes et ClickHouse - Comprendre les formats de table ouverts et l'analyse en temps réel
Explorez l'intégration des data lakes avec ClickHouse®, en couvrant les formats Parquet, Iceberg, et la mise en œuvre d'analyses en temps réel à l'aide d'Apache Spark et Kafka pour le traitement de données à grande échelle.
Altinity
via YouTube
Altinity
2588 Cours
1 hour 1 minute
Optional upgrade avallable
Not Specified
Progress at your own speed
Free Video
Optional upgrade avallable
Aperçu
Explorez l'intégration des data lakes avec ClickHouse®, en couvrant les formats Parquet, Iceberg, et la mise en œuvre d'analyses en temps réel à l'aide d'Apache Spark et Kafka pour le traitement de données à grande échelle.
Programme
- Introduction aux Data Lakes
- Présentation de ClickHouse
- Formats de Table Ouverts
- Analyse en Temps Réel avec Apache Spark
- Streaming de Données en Temps Réel avec Apache Kafka
- Intégration des Data Lakes avec ClickHouse
- Ateliers Pratiques
- Conclusion et Tendances Futures
- Ressources et Lectures Supplémentaires
Aperçu des Data Lakes vs. Data Warehouses
Avantages des Data Lakes pour l'analyse à grande échelle
Technologies clés alimentant les Data Lakes
Introduction à ClickHouse et son architecture
Configuration et mise en place de ClickHouse pour l'intégration des données
Avantages de l'utilisation de ClickHouse pour l'analyse en temps réel
Introduction au format Parquet
Structure et avantages de Parquet
Lecture et écriture de Parquet avec ClickHouse
Introduction au format Apache Iceberg
Caractéristiques et cas d'utilisation d'Iceberg
Intégration d'Iceberg avec ClickHouse
Introduction à Apache Spark pour le traitement des Big Data
Installation de Spark pour l'intégration avec ClickHouse
Transformation des données à la volée avec Apache Spark
Comprendre Apache Kafka et ses composants
Installation et meilleures pratiques de Kafka pour les Data Lakes
Diffusion de données dans ClickHouse via Kafka
Stratégies pour un chargement de données efficace
Optimisation des requêtes pour des charges de travail mixtes
Études de cas et exemples d'intégration de Data Lake
Mise en place d'un Data Lake avec ClickHouse
Pratique de la conversion de formats de données (Parquet, Iceberg)
Mise en œuvre de pipelines de données en temps réel avec Kafka et Spark
Révision des apprentissages clés
Exploration des tendances émergentes dans les Data Lakes et l'analyse en temps réel
Feuille de route pour un apprentissage et une exploration plus approfondis
Livres et articles recommandés
Tutoriels en ligne et documentation
Forums communautaires et canaux de soutien
Sujets
Affaires