Fabric

Fabric

Maîtrisez l’ETL avec Microsoft Fabric, de l’ingestion à l’exploitation

À propos de la formation Microsoft Fabric - ETL

Une formation Microsoft Fabric ETL complète, conçue pour rendre vos équipes autonomes.
En 2 jours, les participants apprennent à ingérer, transformer et industrialiser des flux de données avec les briques essentielles de Fabric : Data Factory (pipelines + Dataflows Gen2) et le Lakehouse sur OneLake avec des tables Delta.

À l’issue de l’atelier, votre équipe sait construire un flux cohérent de l’ingestion jusqu’au modèle, suivre les exécutions, appliquer le bon modèle de permissions, et optimiser les transformations (notamment lorsque le query folding peut apporter un gain).

La méthodologie eaQbe : une courbe d’apprentissage progressive

Nous ne croyons pas aux formations qui noient les participants sous la théorie. Nous privilégions une immersion structurée. Notre « arc d’autonomie en 3 étapes » garantit que les concepts ne sont pas seulement compris, mais réellement maîtrisés.

1) Fondations & architecture

Alignement sur les fondamentaux ETL et sur le paysage Fabric : comment les “expériences” s’enchaînent, ce que OneLake / Lakehouse / Delta impliquent concrètement, et comment Data Factory (pipelines + Dataflows Gen2) s’intègre dans le workflow.

2) Construire les pipelines & transformations

Mise en pratique : création de flux d’ingestion et de transformation avec Dataflows Gen2, puis orchestration via les pipelines (y compris l’exécution de Dataflows au sein d’un pipeline).

3) Exploiter : monitoring, sécurité & optimisation

Apprendre à faire tourner les pipelines de manière fiable : comportements de refresh et d’écriture, monitoring de l’historique d’exécution, permissions/partage du Lakehouse, et arbitrages d’optimisation (choix de stratégie de transformation, prise en compte du query folding quand pertinent).

Compétences acquises
  • Autonomie de bout en bout sur Fabric ETL : ingestion → transformation → Lakehouse / tables Delta
  • Orchestration opérationnelle : pipelines qui coordonnent Dataflows et étapes de traitement
  • Socle de stockage clair : Lakehouse + tables Delta pour des usages downstream cohérents
  • Accès maîtrisés : gestion pratique des permissions, rôles et partage du Lakehouse
  • Réflexes d’optimisation : choisir la bonne approche de transformation et comprendre les leviers de performance (dont le query folding lorsque applicable)
Détails pratiques
  • Format : atelier interactif de 2 jours
  • Taille du groupe : 3–6 participants
  • Prérequis : aucun
  • Suivi : évaluation + exercices d’ancrage post-formation

De l’ingestion au Lakehouse : Microsoft Fabric ETL

Module 1 - Fondations Fabric pour l’ETL

Principes ETL, enchaînement des expériences Fabric de bout en bout, et rôle de OneLake / Lakehouse / Delta dans un workflow moderne d’intégration.

Module 2 - Dataflows Gen2 : ingestion & transformation

Construire des flux avec Dataflows Gen2 (Power Query online), choisir les destinations, et comprendre les comportements de refresh/écriture pour des sorties prévisibles et maintenables.

Module 3 - Orchestration avec Data Factory (pipelines)

Créer des pipelines pour automatiser séquences, dépendances et exécutions, y compris l’exécution d’un Dataflow Gen2 comme activité de pipeline, et exploiter l’historique des runs.

Module 4 - Lakehouse & tables Delta

Charger et structurer les données en tables Delta dans le Lakehouse, et comprendre les patterns qui rendent le stockage Lakehouse exploitable et cohérent pour les équipes analytics.

Module 5 - Sécurité, monitoring & optimisation

Permissions et partage des Lakehouses, bonnes pratiques de monitoring, et choix d’optimisation (dont les arbitrages de stratégie de transformation et les considérations de performance).

Construire l'autonomie, pas la dépendance

Richard Feynman l’a parfaitement résumé : « Si vous ne pouvez pas l’expliquer simplement, c’est que vous ne le comprenez pas assez bien. »

C’est l’ADN d’eaQbe. Nous ne formons pas vos équipes à utiliser des outils data. Nous formons des experts capables d’expliquer, d’appliquer et de diffuser ce qu’ils apprennent.