Maîtriser le MLOps moderne avec Databricks
Dernière mise à jour : 18/04/2026
M'inscrire à la formation
Type : Stage pratique
Description
Accélérez l'industrialisation de vos modèles avec le MLOps sur Databricks.
Dans un contexte où l'intelligence artificielle s'impose comme un levier stratégique de performance, cette formation vous permet d'ancrer les bonnes pratiques du MLOps au cœur de vos projets Data et ML sur la plateforme Databricks.
Pensée pour les équipes Data Science, Data Engineering et Machine Learning, elle couvre l'ensemble du cycle de vie des modèles : de l'expérimentation à grande échelle jusqu'au déploiement opérationnel, en intégrant les standards de traçabilité, reproductibilité et gouvernance.
Les participants apprennent à :
- Piloter efficacement leurs modèles avec MLflow et Unity Catalog, véritables tours de contrôle du Machine Learning.
- Industrialiser les pipelines d'entraînement et de déploiement avec Databricks Asset Bundle et le CLI Databricks.
- Gérer les features à grande échelle avec Feature Store et orchestrer des déploiements batch ou temps réel via Model Serving.
- Mettre en œuvre des stratégies de rollout avancées (A/B testing, canary) et assurer le suivi continu des modèles grâce à Lakehouse Monitoring.
Grâce à une approche résolument pratique et orientée résultats, cette formation vous aide à accélérer vos cycles d'expérimentation, fiabiliser vos processus de déploiement et renforcer la gouvernance de vos modèles à l'échelle de l'entreprise.
Objectifs de la formation
- Identifier et analyser les principes clés du MLOps sur Databricks afin de comparer les différentes approches, en mettant en évidence leurs avantages opérationnels et leurs limites techniques.
- Concevoir, implémenter et superviser des modèles de machine learning sur Databricks en mobilisant les outils natifs pour mesurer les performances et ajuster les hyperparamètres en vue d'une optimisation continue.
- Concevoir et mettre en production des modèles de machine learning robustes sur Databricks, en argumentant les choix méthodologiques et en évaluant la performance et la résilience du déploiement en environnement réel.
- Automatiser et industrialiser les workflows de machine learning sur Databricks en intégrant les solutions de gestion de pipelines pour accroître l'efficacité, la traçabilité et la reproductibilité des processus.
Public visé
- Analyste
- Statisticien
- Data Scientist
- Data Engineer
- Machine Learning Engineer
- Développeur
Prérequis
- Connaissances de base en programmation et en scripting (Python notamment)
- Avoir suivi la formation "Fondamentaux de la Data Science" (DSFDX) ou savoir modéliser et développer un problème de Data Science simple
Modalités pédagogiques
Profil du / des Formateur(s)
Cette formation est dispensée par un·e ou plusieurs consultant·es d'OCTO Technology ou de son réseau de partenaires, expert·es reconnus des sujets traités.
Le processus de sélection de nos formateurs et formatrices est exigeant et repose sur une évaluation rigoureuse leurs capacités techniques, de leur expérience professionnelle et de leurs compétences pédagogiques.
Modalités d'évaluation et de suivi
Programme
Jour 1
OUVERTURE DE SESSION
- Accueil des participants et tour de table des attentes
- Présentation du programme et déroulé de la formation
PRÉPARATION DES DONNÉES POUR LE MACHINE LEARNING
- Gestion et exploration de la data
- Pré-traitement des données et feature engineering pour le Machine Learning
- Utilisation d'un feature store
- Mises en pratique :
- "Préparer les données"
- "Instancier la feature table"
- "Manipuler via l'API"
- "Enrichir les features (merge)"
- "Nettoyer son environnement"
DÉVELOPPEMENT DE MODÈLES POUR LE MACHINE LEARNING
- Workflow de développement de modèles avec MLflow
- Tuning et optimisation de modèles avec Optuna
- Mises en pratique :
- "Connecter le feature store"
- "Traçabilité rigoureuse (MLflow Tracking)"
- "Enregistrement d'artefacts visuels"
- "Exploration de l'UI"
- "Définir un espace de recherche"
- "Intégrer Optuna et MLflow (Nested Runs)"
- "Identifier le modèle gagnant"
- "Enregistrer le modèle en production"
- Automatisation du Machine Learning avec AutoML
MACHINE LEARNING ET DÉPLOIEMENT
- Conception et gestion des pipelines et traitements batch pour le Machine Learning
- Mises en pratique
- "Préparation et création de la Feature table"
- "Entraînement lié et inférence Batch"
- "Optimisation des performances (Liquid Clustering)"
- Déploiement en temps réel avec les model serving
- Mises en pratique
- "Approche UI (simple et visuelle)"
- "Approche API"
Jour 2
MLOPS : GESTION OPÉRATIONNELLE DES MODÈLES DE MACHINE LEARNING
- Pipeline MLOps : contrôle de la qualité des données et analyse des features
- Monitoring et visualisation des données Lakehouse via un tableau de bord
- Mises en pratique
- "Définir la référence (Baseline)"
- "Ingérer et parser les requêtes de production (Inference tables)"
- "Consolider les données"
- "Activer le Lakehouse Monitor (via SDK)"
MLOPS AVANCÉ : DÉPLOIEMENT, MONITORING ET OPTIMISATION DES MODÈLES DE ML
- Méthodes et bonnes pratiques de déploiement de Machine Learning sur Databricks
- Création d'assets de Machine Learning en tant que code avec Databricks Asset Bundle (DAB)
- Mises en pratique sur mlops-stacks (standard industriel de Databricks)
- "Initialiser le projet"
- "Explorer l'architecture"
- "Déployer et exécuter"
- Retours d'expérience
CLÔTURE DE SESSION
- Revue des concepts clés et bilan
- Echange autour des questions et réponses additionnelles