Maîtrisez l’ETL avec Microsoft Fabric, de l’ingestion à l’exploitation
Une formation Microsoft Fabric ETL complète, conçue pour rendre vos équipes autonomes.
En 2 jours, les participants apprennent à ingérer, transformer et industrialiser des flux de données avec les briques essentielles de Fabric : Data Factory (pipelines + Dataflows Gen2) et le Lakehouse sur OneLake avec des tables Delta.
À l’issue de l’atelier, votre équipe sait construire un flux cohérent de l’ingestion jusqu’au modèle, suivre les exécutions, appliquer le bon modèle de permissions, et optimiser les transformations (notamment lorsque le query folding peut apporter un gain).
Nous ne croyons pas aux formations qui noient les participants sous la théorie. Nous privilégions une immersion structurée. Notre « arc d’autonomie en 3 étapes » garantit que les concepts ne sont pas seulement compris, mais réellement maîtrisés.
1) Fondations & architecture
Alignement sur les fondamentaux ETL et sur le paysage Fabric : comment les “expériences” s’enchaînent, ce que OneLake / Lakehouse / Delta impliquent concrètement, et comment Data Factory (pipelines + Dataflows Gen2) s’intègre dans le workflow.
2) Construire les pipelines & transformations
Mise en pratique : création de flux d’ingestion et de transformation avec Dataflows Gen2, puis orchestration via les pipelines (y compris l’exécution de Dataflows au sein d’un pipeline).
3) Exploiter : monitoring, sécurité & optimisation
Apprendre à faire tourner les pipelines de manière fiable : comportements de refresh et d’écriture, monitoring de l’historique d’exécution, permissions/partage du Lakehouse, et arbitrages d’optimisation (choix de stratégie de transformation, prise en compte du query folding quand pertinent).
Principes ETL, enchaînement des expériences Fabric de bout en bout, et rôle de OneLake / Lakehouse / Delta dans un workflow moderne d’intégration.
Construire des flux avec Dataflows Gen2 (Power Query online), choisir les destinations, et comprendre les comportements de refresh/écriture pour des sorties prévisibles et maintenables.
Créer des pipelines pour automatiser séquences, dépendances et exécutions, y compris l’exécution d’un Dataflow Gen2 comme activité de pipeline, et exploiter l’historique des runs.
Charger et structurer les données en tables Delta dans le Lakehouse, et comprendre les patterns qui rendent le stockage Lakehouse exploitable et cohérent pour les équipes analytics.
Permissions et partage des Lakehouses, bonnes pratiques de monitoring, et choix d’optimisation (dont les arbitrages de stratégie de transformation et les considérations de performance).
Richard Feynman l’a parfaitement résumé : « Si vous ne pouvez pas l’expliquer simplement, c’est que vous ne le comprenez pas assez bien. »
C’est l’ADN d’eaQbe. Nous ne formons pas vos équipes à utiliser des outils data. Nous formons des experts capables d’expliquer, d’appliquer et de diffuser ce qu’ils apprennent.