AWS : MLOps Engineering Mixte : présentiel / à distance
Dernière mise à jour : 23/09/2025
M'inscrire à la formation
Type : Stage pratique
Description
Ce cours étend les pratiques DevOps répandues dans le développement de logiciels au domaine de la Data Science.
Ainsi, vous pourrez entraîner et déployer des modèles d'apprentissage automatique (Machine Learning) tout en suivant leur performance dans le temps, et ainsi obtenir un système de Data Science en production.
Cette formation met l'accent sur l'importance des données, du modèle et du code pour la réussite des modèles de ML en production. Vous découvrirez les différents outils et processus d'automatisation ainsi que de la méthodologie et de l'organisation d'équipe pour gérer tout le cycle de vie d'un projet de Data Science.
Objectifs de la formation
- S'approprier les notions d'Ops, de DevOps et de MLOps
- Créer un pipeline automatisé pour entraîner et déployer en production un modèle de ML
- Interagir avec son modèle de ML déployé
- Découvrir les différentes stratégies de déploiement et de scaling
- Détecter les drifts de son modèle de ML
- Mesurer la performance de son modèle de ML
Public visé
- Data Scientist
- Data Engineer
- Machine Learning Engineer
- Ingénieur Devops
Prérequis
- Avoir suivi la formation "AWS : Notions techniques Amazon Web Services de base" (AWS00) ou posséder un niveau d'expérience équivalent.
- Avoir suivi la formation "Fondamentaux de la Data Science" (DSFDX)" ou savoir modéliser et développer un problème de Data Science simple.
Modalités pédagogiques
Profil du / des Formateur(s)
Cette formation est dispensée par un·e ou plusieurs consultant·es d'OCTO Technology ou de son réseau de partenaires, expert·es reconnus des sujets traités.
Le processus de sélection de nos formateurs et formatrices est exigeant et repose sur une évaluation rigoureuse leurs capacités techniques, de leur expérience professionnelle et de leurs compétences pédagogiques.
Par ailleurs, pour animer cette formation, nos intervenant·es doivent répondre aux critères imposés par Amazon Web Services
Modalités d'évaluation et de suivi
L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique.
Afin de valider les compétences acquises lors de la formation, un formulaire d'auto-positionnement est envoyé en amont et en aval de celle-ci.
En l'absence de réponse d'un ou plusieurs participants, un temps sera consacré en ouverture de session pour prendre connaissance du positionnement de chaque stagiaire sur les objectifs pédagogiques évalués.
Une évaluation à chaud est également effectuée en fin de session pour mesurer la satisfaction des stagiaires et un certificat de réalisation leur est adressé individuellement.
Programme
Jour 1
Module 1 : Introduction à la notion de MLOps
- Processus
- Les personnes
- Technologie
- Sécurité et gouvernance
- Le modèle de maturité MLOps
Module 2 : MLOps initial : environnements d'expérimentation dans SageMaker Studio
- Expérimenter avec MLOps
- Mettre en marche un environnement d'expérimentation MLOps
- Démonstration : Créer et mettre à jour la configuration du cycle de vie pour SageMaker Studio
- Mise en pratique : Mise en service d'un environnement SageMaker Studio avec le catalogue de Service AWS
- Classeur : MLOps initial
Module 3 : MLOps répétables : référentiels
- Gestion des données avec MLOps
- Contrôle de version des modèles de Machine Learning
- Référentiels de codes dans les Machines Learning
Module 4 : Orchestration des MLOps répétables
- Les pipelines
- Démonstration : Utilisation des pipelines SageMaker pour orchestrer les pipelines de création de modèle
Jour 2
Module 4 (suite)
- Orchestration de bout en bout avec AWS Step Functions
- Mise en pratique : Automatiser un workflow avec Step Functions
- Orchestration de bout en bout avec SageMaker Projects
- Démonstration : Standardisation d'un pipeline ML de bout en bout avec les projets SageMaker
- Utilisation d'outils "third-party" pour la répétition
- Démonstration : Exploration de la participation humaine lors de l'inférence
- Gouvernance et sécurité
- Démonstration : Explorer les meilleures pratiques de sécurité pour SageMaker
- Cahier d'exercices : MLOps répétables
Module 5 : MLOps fiables : mise à l'échelle et tests
- Stratégies de mise à l'échelle et multi-comptes
- Tests et déplacements de trafic
- Démonstration : Utilisation de SageMaker Inference Recommender
- Mise en pratique : Tester les variantes du modèles
Jour 3
Module 5 (suite)
- Mise en pratique : Déplacement du trafic
- Classeur : Stratégies multi-comptes
Module 6 : MLOps fiables : Surveillance
- L'importance de surveiller ses ML
- Mise en pratique : Surveillance d'un modèle pour détecter la dérive des données
- Considérations opérationnelles pour la surveillance des modèles
- Correction des problèmes identifiés par la surveillance des solutions ML
- Classeur : MLOps fiables
- Mise en pratique : Création et dépannage d'un pipeline ML