-
Zone Gold et Pipeline d’intégration synapse
Après avoir alimenté notre zone bronze : Paramétrer les Pipeline Azure Synapse Analytics sans ouvrir Synapse ! ; Après avoir alimenté notre zone sliver : Notre premier notebook Spark dans Synapse ; Nous allons maintenant alimenter notre zone gold et créer notre pipeline d’intégration complet de l’ingestion de nos données On-Prem jusqu’à l’écriture de notre…
-
Notre premier notebook Spark dans Synapse
Synapse nous permet d’utiliser Apache Spark en tant que Runtime de processing afin de travailler nos différents datasets. Dans cet article, nous allons créer notre premier notebook Spark (et le pool Spark nécessaire) pour transformer nos premières données de la zone bronze pour commencer à alimenter notre zone silver. Introduction et pool Spark Un Notebook…
-
Connexion du Lake à Synapse
Nous avons fait le choix de créer un compte de stockage (ou plusieurs) séparé de celui propre à Synapse pour notre datalake. Et donc, après avoir créé nos différentes ressources (workspace et stockage), il reste une étape importante qui est la « connexion » du stockage au workspace afin de pouvoir travailler. Dans synapse cela se fait…
-
Zones de Datalake selon les « bonnes pratiques » Microsoft
Comme tout bon éditeur qui se respecte, Microsoft présente de bonnes pratiques d’implémentation. La documentation proposée est disponible ici : Zones et conteneurs de lac de données – Cloud Adoption Framework | Microsoft Learn Nous allons dans cet article créer les différentes zones de notre Datalake en respectant ces bonnes pratiques Microsoft adaptées à notre…
-
Wide World Importers – BDD source du projet
Nous allons dans cette article « installer » la base d’exemple Wide Word Importer de Microsoft, la préparer et l’inspecter un minimum pour pouvoir débuter nos travaux de Datalake.