Machine Learning

Machine Learning

Formez votre équipe à entraîner et évaluer des modèles ML

À propos de la formation Machine Learning

Une formation Machine Learning complète, conçue pour rendre vos équipes autonomes. En 3 jours, les participants apprennent à préparer les données, choisir la bonne approche d’apprentissage, entraîner des modèles et évaluer les résultats correctement. L’objectif n’est pas de transformer chacun en ingénieur logiciel : il s’agit de construire une compréhension solide pour appliquer les méthodes de Machine Learning de manière juste, interpréter les résultats, et décider avec discernement quand (et comment) utiliser un modèle.

La formation privilégie la maîtrise des concepts et l’interprétation pratique. Des exemples guidés et du code pré-écrit sont utilisés pour illustrer les algorithmes, afin que les participants se concentrent sur le “pourquoi” et “comment évaluer”, plutôt que de perdre du temps sur des détails d’implémentation.

La méthodologie eaQbe : une courbe d’apprentissage progressive

Nous ne croyons pas aux formations qui noient les participants sous la théorie. Nous privilégions une immersion structurée. Notre « arc d’autonomie en 3 étapes » garantit que les concepts ne sont pas seulement compris, mais réellement maîtrisés.

1) Fondations & données prêtes pour le modèle

Les participants comprennent comment la qualité des données, les distributions, la fuite de cible (leakage) et les choix de préparation influencent directement le comportement d’un modèle. Ils développent des réflexes solides en feature engineering, encodage, mise à l’échelle, gestion des valeurs manquantes, et stratégies de split.

2) Méthodes d’apprentissage & entraînement des modèles

Les participants découvrent les grandes familles d’apprentissage supervisé et non supervisé, quand les utiliser, et ce que leurs hypothèses impliquent. Ils s’exercent à entraîner et comparer des modèles avec une logique d’évaluation adaptée à chaque tâche.

3) Évaluation, interprétation & choix de modèle

Les participants maîtrisent les bases de l’évaluation et de l’interprétation : choix des métriques, lecture des erreurs, compréhension de l’overfitting, validation correcte, et arbitrages entre performance, stabilité et simplicité.

Validation continue des acquis

Chaque module réutilise et prolonge volontairement le précédent. Les concepts sont appliqués plusieurs fois dans de nouveaux exercices afin de construire une compréhension durable, pas superficielle.

Compétences acquises
  • Une base commune, claire, de concepts et de vocabulaire Machine Learning
  • De bons réflexes en préparation des données et feature engineering
  • La capacité d’entraîner et comparer des modèles supervisés et non supervisés
  • Une vraie confiance en évaluation : choisir les métriques, lire les résultats, repérer les pièges classiques
  • De meilleures décisions sur quand le ML est pertinent et comment utiliser les résultats de manière responsable

Détails pratiques

  • Format : atelier interactif de 3 jours
  • Taille du groupe : 3–6 participants
  • Prérequis : connaissances de base en data
  • Suivi : évaluation + exercices d’ancrage post-formation

De la préparation des données à l’évaluation des modèles (3 jours)

Module 1 - Préparation des données & feature engineering

Comprendre les propriétés des données, les stratégies de nettoyage, la création de variables, les choix de preprocessing, et ce qui peut invalider un modèle (leakage, contamination de la cible, splits biaisés).

Module 2 - Fondamentaux d’entraînement & d’évaluation

Logique train/validation, généralisation, overfitting vs underfitting, intuition biais/variance, approche baseline, et principes de sélection des métriques.

Module 3 - Apprentissage supervisé : méthodes paramétriques

Intuition et usage de modèles comme la régression linéaire/logistique et les réseaux de neurones : ce qu’ils apprennent, ce qu’ils supposent, et quoi surveiller dans l’évaluation.

Module 4 - Apprentissage supervisé : méthodes non paramétriques

Arbres de décision, random forests, gradient boosting (type XGBoost), et k-NN : comportement, réglages “sensés”, et comparaison équitable des modèles.

Module 5 - Essentiels du non supervisé

Clustering et découverte de patterns : cas d’usage, limites, et bonnes habitudes d’interprétation/évaluation.

Résultat final (fin du jour 3): Les participants savent préparer les données correctement, entraîner les principales familles de modèles, évaluer les résultats avec les bonnes métriques, et interpréter les sorties avec confiance.

Construire l'autonomie, pas la dépendance

Richard Feynman l’a parfaitement résumé : « Si vous ne pouvez pas l’expliquer simplement, c’est que vous ne le comprenez pas assez bien. »

C’est l’ADN d’eaQbe. Nous ne formons pas vos équipes à utiliser des outils data. Nous formons des experts capables d’expliquer, d’appliquer et de diffuser ce qu’ils apprennent.