Intelligence Artificielle : Natural Language Processing (NLP) & Speech Recognition Mixte : présentiel / à distance
Dernière mise à jour : 05/07/2025
M'inscrire à la formation
Type : Stage pratique
Description
Les données non structurées issues du langage sont omniprésentes en entreprise (mails, appels téléphoniques, visio, réunions, avis, commentaires, etc.) mais ne sont que rarement utilisées. Les progrès en deep learning ont permis de rendre plus accessible l'exploitation des données voix et texte. A travers la construction de modèles de langage conversationnel (ChatGPT), considérés comme révolutionnaires, de nombreux secteurs sont amenés à repenser et intensifier l'usage des modèles de langage.
Cette formation prépare les data scientists à maîtriser les données texte et voix, au sein d'un contexte technologique innovant et en particulier au cours d'un projet d'Intelligence Artificielle.
A travers des exercices, vous apprendrez à structurer et créer des modèles de machine learning sur ces données du langage. A la fin de la session, vous disposerez d'une compréhension solide du potentiel et de l'état de l'art en Natural Language Processing (NLP) et en Speech Processing. Vous comprendrez également les architectures "Transformers" à la base de nombreux progrès récents et notamment des modèles de type ChatGPT. Les mises en pratique vous permettront d'être indépendant pour déployer et créer de la valeur sur ces données, et devenir un expert du traitement automatique du langage écrit et parlé.
Objectifs de la formation
- Savoir structurer les données texte et voix
- Savoir analyser un volume conséquent de données texte et/ou voix et appliquer des modèles de machine learning
- Savoir traiter de la voix et/ou du texte en temps réel
- Savoir mettre en place une recherche intelligente dans des documents et/ou enregistrements audio
- Savoir créer des modèles de détection d'intention, d'entités
- Comprendre la méthodologie des modèles de langage de type ChatGPT, Bert
Public visé
- Analyste
- Statisticien
- Architecte
- Développeur
- Data scientist
- Machine Learning Engineer
Prérequis
- Connaissances générales sur le Machine Learning ainsi qu'en statistiques
- Notions de base en Python.
- Avoir suivi la formation “Fondamentaux de la Data Science” (DSFDX)
Modalités pédagogiques
Profil du / des Formateur(s)
Cette formation est dispensée par un·e ou plusieurs consultant·es d'OCTO Technology ou de son réseau de partenaires, expert·es reconnus des sujets traités.
Le processus de sélection de nos formateurs et formatrices est exigeant et repose sur une évaluation rigoureuse leurs capacités techniques, de leur expérience professionnelle et de leurs compétences pédagogiques.
Modalités d'évaluation et de suivi
L'évaluation des acquis se fait tout au long de la session au travers des ateliers et des mises en pratique.
Afin de valider les compétences acquises lors de la formation, un formulaire d'auto-positionnement est envoyé en amont et en aval de celle-ci.
En l'absence de réponse d'un ou plusieurs participants, un temps sera consacré en ouverture de session pour prendre connaissance du positionnement de chaque stagiaire sur les objectifs pédagogiques évalués.
Une évaluation à chaud est également effectuée en fin de session pour mesurer la satisfaction des stagiaires et un certificat de réalisation leur est adressé individuellement.
Programme
Jour 1
INTRODUCTION AU DOMAINE DE L'ANALYSE DU TEXTE ET DE LA VOIX
NLP, NLU, Speech processing et understanding
Appréhender les enjeux de la révolution des modèles de langage conversationnel de type ChatGPT
NATURAL LANGUAGE PROCESSING (NLP)
Les bases du NLP : encoding, regex, tokenisation(n-grams) bag of words
NLP : la réduction de dimensions
- Nettoyer le texte : stemming, lemmatisation
- Topic modeling : SVD, NMF, LDA
- Word embedding : Word2vec, FastText, etc.
INFORMATION RETRIEVAL (IR) : CRÉER UN MOTEUR DE RECHERCHE
Indexation de contenu, moteur recherche simple
Réaliser un moteur de recherche intelligent : utilisation de modèles de langage (GPT, Bert, etc.)
Jour 2
LES MÉTHODOLOGIES DE DEEP LEARNING POUR LE TRAITEMENT DU LANGAGE
Les bases des réseaux de neurones
Modèles séquentiels : RNN
Comprendre la révolution "Transformers" : maîtriser le "multi-head attention"
COMPRENDRE LA RÉVOLUTION DES MODÈLES DE LANGAGE POUR LA CONVERSATION : CHATGPT
Introduction aux grands modèles de langage (Large Language Models - LLM) : famille Bert et famille GPT
Introduction au "Reinforcement Learning from Human Feedback" (RLHF)
Apprendre à utiliser ces modèles pour des tâches de NLP : résumé, analyse de sentiment, génération de contenu, etc.
Jour 3
AUDIO PROCESSING
Introduction à la donnée audio : signal numérique, encodage
Structurer la donnée audio : transformée de Fourier, spectogramme mel MFCC, Librosa, PyAudio
Entraîner un modèle de machine learning sur de la donnée audio
SPEECH RECOGNITION
Appliquer un modèle de transcription (Speech to Text)
- Via l'utilisation d'un modèle Open Source : exemple de Whsiper (OpenAi)
- Via l'utilisation d'une API externe
Transcrire en temps réel : enjeux, méthodologie Open Source ou via API externe
Transcrire en prenant en compte un contexte : méthodologie pour "fine-tuner" un modèle Speech to Text
Dissocier les locuteurs : méthodologie de "Speaker Diarization"
Aller plus loin : gestion de l'information temporelle, gestion de la confidence de la transcription
BILAN ET CLÔTURE DE SESSION
Revue et synthèse des concepts abordés
Moment de partage sur la formation
Questions et réponses additionnelles
Pour aller plus loin
- Article blog OCTO “Comment l'IA peut-elle changer le recrutement ? (partie 1)”
- Article blog OCTO “Comment l'IA peut-elle changer le recrutement ? (partie 2)”
- Article blog OCTO “NLP : une classification multilabels simple, efficace et interprétable”
- Article blog OCTO “Les réseaux de neurones récurrents : des RNN simples aux LSTM”
- Ouvrage “Deep Learning for NLP and Speech Recognition” par Uday Kamath, John Liu, James Whitaker