Dernière mise à jour : 18/11/2024
Les données non structurées issues de l'image sont omniprésentes en industrie et dans notre quotidien (face id, radars, détection d'objets, d'anomalies, caméras des chaînes de production, contrôle de qualité, médecine…).
Pour autant leur exploitation par les organisations s'avère complexe sans une approche réfléchie et structurante pour en tirer le meilleur parti. Les progrès en deep learning ont permis de rendre plus accessible l'exploitation des données images et vidéos.
Cette formation prépare les data scientists à maîtriser les données images et vidéos, au sein d'un contexte technologique innovant et en particulier au cours d'un projet d'Intelligence Artificielle.
A travers des exercices, vous apprendrez à structurer et créer des modèles de machine learning sur ces données. A la fin de la session, vous disposerez d'une compréhension solide du potentiel et de l'état de l'art en Computer Vision. Les mises en pratique vous permettront d'être indépendant pour déployer et créer de la valeur sur ces données, et devenir un expert de la vision.
Cette formation est dispensée par un·e ou plusieurs consultant·es d'OCTO Technology ou de son réseau de partenaires, expert·es reconnus des sujets traités.
Le processus de sélection de nos formateurs et formatrices est exigeant et repose sur une évaluation rigoureuse leurs capacités techniques, de leur expérience professionnelle et de leurs compétences pédagogiques.
L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique.
Afin de valider les compétences acquises lors de la formation, un formulaire d'auto-positionnement est envoyé en amont et en aval de celle-ci.
En l'absence de réponse d'un ou plusieurs participants, un temps sera consacré en ouverture de session pour prendre connaissance du positionnement de chaque stagiaire sur les objectifs pédagogiques évalués.
Une évaluation à chaud est également effectuée en fin de session pour mesurer la satisfaction des stagiaires et un certificat de réalisation leur est adressé individuellement.
Jour 1
INTRODUCTION À LA COMPUTER VISION
Les débuts de la CV, élément déclencheur
Frise chronologique de la CV et évolution du marché dans ce sens
Pourquoi le Deep Learning est-il devenu le standard ?
La révolution AlexNet
LES DÉBUTS DE L'IMAGERIE DANS LE NUMÉRIQUE
Rappel de traitement du signal
Représentation d'une image numérique
Applications historiques
Démonstration des transformations possibles d'une image selon les méthodes présentées
MACHINE LEARNING CLASSIQUE APPLIQUÉ À L'IMAGERIE
Représenter une image pour du Machine Learning
Métriques d'évaluation
Démonstration d'application du descripteur SIFT et mob pour implémenter la méthode
DEEP LEARNING APPLIQUÉ À L'IMAGERIE (PARTIE 1)
Introduction aux CNN (Convolutional Neural Network)
Principe du transfert learning
Vision transformers et MaskFormers (HuggingFace)
Applications et métriques d'évaluation
Démonstration d'application des différents types de segmentation et leur évaluation pour identifier leurs spécificités (ex: Bodypix)
Mise en pratique : “Implémenter, en mob, un modèle de Deep Learning effectuant de la détection et segmentation, en évaluant les performances du modèle - en passant par la méthode de transfer learning”
Mise en pratique : “Visualiser les filtres du modèle implémenté”
Jour 2
DEEP LEARNING APPLIQUÉ À L'IMAGERIE (PARTIE 2)
Présentation de Pytorch et Tensorflow
Applications à la vidéo
Mises en pratique :
MODÈLES COMPARATIFS EN IMAGERIE
Contrastive learning (lien)
Zero-shot learning
One-shot learning
Few-shot learning
Métriques d'évaluation
Démonstration : “Reconnaissance faciale en one-shot learning”
Mise en pratique : “Remplacer son modèle en appliquant un modèle CLIP (zero-shot-learning) et comparer les performances avec un modèle deep classique”
INTERPRÉTABILITÉ
Méthodes spécifiques aux images
Shapley values & LIME
Adversarial Attack
Mises en pratique :
Jour 3
MODÈLES GÉNÉRATIFS
Data augmentation : Synthetic dataset
GAN
Modèles de diffusion
Applications
Evaluation des risques
Démonstrations
Mise en pratique : “Manipuler Stable Diffusion (prévoir des machines avec GPU)”
IMAGERIE EMBARQUÉE
Contraintes
Optimisation de modèle (pour l'inférence)
BILAN ET CLÔTURE DE SESSION
Revue des concepts clés présentés tout au long de la formation
Questions et réponses additionnelles
Evaluation et Clôture