-
Zones de Datalake selon les « bonnes pratiques » Microsoft
Comme tout bon éditeur qui se respecte, Microsoft présente de bonnes pratiques d’implémentation. La documentation proposée est disponible ici : Zones et conteneurs de lac de données – Cloud Adoption Framework | Microsoft Learn Nous allons dans cet article créer les différentes zones de notre Datalake en respectant ces bonnes pratiques Microsoft adaptées à notre…
-
Créer un dataset Power BI depuis notre Synapse DataLakeHouse
Notre DataLakeHouse contient physiquement des fichiers de données. Ceux-ci sont organisés, nettoyés, représentent un modèle de donnée défini sur la « dernière » couche et éventuellement de formats différents. Nous pouvons donc lire nos données depuis ces fichiers et travailler dessus pour faire ce que l’on en veut. Un des principaux cas d’usage est de connecter un…
-
Configurer un runtime dans Synapse pour la connexion à une base de données On-Prem
Dans cet article, je vais procéder à l’installation d’un runtime d’intégration « simple » pour Synapse, il n’y a pas de scalabilité ni de haute dispo comme il pourrait être nécessaire en production pour des applications critiques.
-
Un Data Lakehouse fonctionnel avec Azure Synapse Analytics
Cet article est le point de départ du projet global qui sera créé le long de plusieurs articles à venir. L’objectif est de créer un datalake autour de la solution intégrée de Microsoft : Synapse Analytiques et d’autres solutions Microsoft / Azures s’imbriquant dans notre besoin.
-
Générer un dataset partitionné via un data flow Azure Synapse Analytics
Afin d’optimiser des les requêtes effectués sur des fichiers parquets depuis un pool serverless, on travail généralement avec des dataset partitionné. Cette article décrit comment générer un dataset partitionné via un data flow Azure Synapse Analystics.