-
Fabric – Copy job
Il y a quelque temps, Microsoft a annoncé un type de job particulier, les « Copy job ». Dans de nombreux projets, pour des raisons d’impact sur les bases opérationnelles, nous faisons des copies des données sources pour travailler de façon autonome par la suite. Ce type de job est justement là pour traiter ce cas d’usage…
-
Microsoft Fabric via Terraform – les Basics
Microsoft a annoncé très récemment la « Public Preview » d’un provider Terraform pour Microsoft Fabric. Nous allons ici tester les basics de la mise en place d’une Infrastructure as Code (IaC) autour de Fabric !
-
Zone Gold et Pipeline d’intégration synapse
Après avoir alimenté notre zone bronze : Paramétrer les Pipeline Azure Synapse Analytics sans ouvrir Synapse ! ; Après avoir alimenté notre zone sliver : Notre premier notebook Spark dans Synapse ; Nous allons maintenant alimenter notre zone gold et créer notre pipeline d’intégration complet de l’ingestion de nos données On-Prem jusqu’à l’écriture de notre…
-
Notre premier notebook Spark dans Synapse
Synapse nous permet d’utiliser Apache Spark en tant que Runtime de processing afin de travailler nos différents datasets. Dans cet article, nous allons créer notre premier notebook Spark (et le pool Spark nécessaire) pour transformer nos premières données de la zone bronze pour commencer à alimenter notre zone silver. Introduction et pool Spark Un Notebook…
-
Connexion du Lake à Synapse
Nous avons fait le choix de créer un compte de stockage (ou plusieurs) séparé de celui propre à Synapse pour notre datalake. Et donc, après avoir créé nos différentes ressources (workspace et stockage), il reste une étape importante qui est la « connexion » du stockage au workspace afin de pouvoir travailler. Dans synapse cela se fait…