IA générative : exploiter les grands modèles de langages (LLMs)
Dernière mise à jour : 13/09/2025
M'inscrire à la formation
Type : Stage pratique
Description
La révolution portée par les modèles d'IA générative, incarnée notamment par l'essor de ChatGPT, transforme en profondeur les entreprises et leurs métiers. De nouvelles applications et solutions innovantes voient le jour à un rythme soutenu, ouvrant des perspectives inédites. Comme toute avancée technologique majeure, cette transformation s'accompagne de défis importants et d'une complexité technique croissante.
Cette formation a pour objectif de préparer les Data Scientists et AI Engineers à concevoir, développer et maîtriser des projets reposant sur l'utilisation de grands modèles de langage (LLM). Elle leur permettra d'évoluer efficacement dans un environnement technologique en constante mutation et de mener à bien des initiatives d'Intelligence Artificielle Générative à forte valeur ajoutée.
À l'issue de la session, vous aurez acquis une compréhension claire du potentiel et de l'état de l'art en IA générative. Vous saurez concevoir les principaux cas d'usage, notamment les projets de Retrieval Augmented Generation (RAG) et la création d'agents IA. Vous maîtriserez le fonctionnement des LLMs, tant pour les optimiser (fine-tuning) que pour les exploiter efficacement (LLM as a Service). Grâce aux mises en pratique, vous serez capable de déployer ces modèles de manière autonome, de générer de la valeur et de vous positionner en véritable LLM Engineer expert.
Objectifs de la formation
- S'approprier les nouveaux usages d'IA générative
- Construire un projet “Retrieval Augmented Generation” (RAG)
- Identifier et maîtriser les implémentations possibles des projets RAG dans son organisation
- Comprendre la méthodologie des grands modèles de langages (LLM) tels que ChatGPT : principes de conception, pré-entraînement et fine-tuning
- S'approprier le concept d'agents basés sur des LLMs
Public visé
- Data Scientist
- Machine Learning Engineer
- LLM Engineer
- Statisticien
- Architecte
- Développeur
Prérequis
Modalités pédagogiques
Profil du / des Formateur(s)
Cette formation est dispensée par un·e ou plusieurs consultant·es d'OCTO Technology ou de son réseau de partenaires, expert·es reconnus des sujets traités.
Le processus de sélection de nos formateurs et formatrices est exigeant et repose sur une évaluation rigoureuse leurs capacités techniques, de leur expérience professionnelle et de leurs compétences pédagogiques.
Modalités d'évaluation et de suivi
Programme
Jour 1
OUVERTURE DE SESSION
- Accueil des participants et tour de table des attentes
- Présentation du programme et déroulé de la formation
COMPRÉHENSION GÉNÉRALE DE LA RÉVOLUTION IA GÉNÉRATIVE
- Historique et évolution de l'IA générative
- Concepts clés de l'IA générative : Transformers, Alignement
- Perspectives : agents autonomes, connectés, et plus
FINE-TUNING ET MÉTHODE D’ALIGNEMENT
- Au-delà du modèle qui prédit le prochain mot
- Identifier l’alignement : RLHF, self instruct, RLAIF, DPO
- Savoir réaliser un fine-tuning sur un modèle de fondation
LES NOUVEAUX OUTILS DU LLM ENGINEER
- Langchain
- LLamaIndex
- Smolagents
- vLLM, etc.
AGENT CONNECTÉ À DE LA DONNÉE
- L’exemple Retrieval Augmented Generation (RAG)
- Fonctionnement d’une solution RAG
- Évaluation d’un modèle RAG et de sa composante IA générative (Performance, Sécurité, Responsabilité, Infrastructure, etc.)
- Exposer son patrimoine informationnel à un modèle
- Construire une recherche sémantique efficace et constituer sa base vectorielle
- Moteur hybride : full-text / sémantique
- Mise en pratique : “Implémenter et évaluer un RAG”
Jour 2
AGENT BASÉ SUR DES LLM CONNECTÉ À DES SERVICES
- Connecter un agent à des API ou des fonctions
- Construction des "Tools" pour augmenter les Agents
- Model Context Protocol (MCP) : architecture standardisée pour connecter les LLM aux sources de données et outils
- Fonctionnement et composants du MCP : serveurs, clients, transport
- Implémentation de serveurs MCP pour exposer des ressources
- Intégration MCP dans les applications d'agents IA
- Mise en pratique : “Implémenter un Agent”
CONSTRUCTION D’UN SYSTÈME MULTI AGENTS BASÉ SUR DES LLMS : REACT, METAGPT, CREWAI, AUTOGEN
Choisir le bon modèle et l’environnement approprié
- Solutions externes : OpenAI, Aws Bedrock , Azure OpenAI, Google Vertex et le “model garden”
- Environnements souverains : Cloud souverain ou infrastructures locales (on-premise)
ALLER PLUS LOIN
- Modèle multimodal : Donut, SeamlessM4T, LLava, Idefics 2
- LLMOps
CLÔTURE DE SESSION
- Revue et bilan des principaux concepts évoqués durant la formation
- Temps d’échange autour des questions et réponses additionnelles