Description
Cette formation LLM avancé vous permettra de maîtriser le fine-tuning moderne, de concevoir des agents IA autonomes et d’orchestrer des systèmes IA complexes prêts pour la production.
Vous apprendrez à passer d’un modèle générique à un système intelligent, spécialisé et intégré à votre environnement métier.
Pendant 3 jours, vous apprendrez à :
- Transformer un LLM générique en assistant métier performant, adapté à vos données et enjeux
- Construire des agents IA capables d’agir, interagir avec vos outils et automatiser des tâches
- Concevoir des systèmes IA fiables et scalables, orchestrant plusieurs agents et workflows complexes
- Maîtriser la mise en production, en optimisant qualité, coûts, performances et sécurité
Public
Elle s’adresse aux développeur·se·s souhaitant aller au-delà des usages basiques des LLM et construire des systèmes robustes combinant fine-tuning, agents et orchestration.
Les objectifs
- Implémenter un fine-tuning efficace avec LoRA, PEFT et TRL
- Construire un agent IA capable d’utiliser des outils et APIs
- Structurer un système multi-agent avec gestion du contexte
- Orchestrer des workflows IA avec LangGraph
- Optimiser les performances, coûts et latence d’un système IA
- Mettre en place des mécanismes de sécurité et de gouvernance
Pré-requis
- Maîtriser un langage de programmation (Python recommandé)
- Avoir une réelle expérience avec des frameworks de machine learning et des modèles LLM
- Connaître les concepts d’API et d’architecture logicielle
- Ordinateur portable à apporter
Le programme de la formation LLM avancé
Jour 1 — Fine-tuning de LLM : adapter un modèle à un besoin métier
-
Introduction aux techniques récentes de fine-tuning en 2026
- Limites des méthodes classiques de fine-tuning (coûts, surapprentissage, difficulté de mise à jour)
- Présentation des approches Low-Rank Adaptation (LoRA), Parameter-Efficient Fine-Tuning (PEFT)
- Choisir la bonne stratégie selon le cas d’usage (adaptation métier, personnalisation, spécialisation)
-
Démonstration et configuration de SFTTrainer pour fine-tuning supervisé
- Prise en main de l’environnement (modèle, tokenizer, dataset)
- Configuration des hyperparamètres clés (batch size, learning rate, epochs)
-
Utilisation de TRL (Transformer Reinforcement Learning) pour fine-tuning par renforcement
- Comprendre les principes de RLHF et ses variantes modernes (RLAIF, reward modeling simplifié)
- Définir un signal de récompense adapté à un besoin métier (qualité, ton, conformité)
- Expérimenter une optimisation de génération via TRL sur des cas concrets
-
Gestion des données de fine-tuning et évaluation des performances
- Métriques d'évaluation : Perplexité, BLEU, ROUGE, F1-score
-
Optimisation des coûts et ressources lors du fine-tuning
- Réduction des coûts GPU via LoRA / quantization / batch optimization
- Arbitrage entre qualité, temps d’entraînement et budget
- Bonnes pratiques pour itérer rapidement (expérimentations courtes, versioning des modèles)
Mises en pratique : Créer un assistant spécialisé sur un domaine métier
- Préparer un environnement de fine-tuning et adapter un LLM open source à un cas métier avec LoRA
-
Constituer et exploiter un dataset métier (FAQ, tickets, documents) pour entraîner un modèle avec SFTTrainer
- Améliorer la qualité des réponses via TRL en optimisant un critère métier (pertinence, ton, conformité)
Jour 2 — Agents IA : connecter un LLM à des outils et données métier
-
Présentation du Model Context Protocol (MCP) : architecture et cas d’usage
- Comprendre le rôle de MCP comme standard d’interconnexion entre agents et outils (API, DB, services internes)
- Architecture d’un système agentique connecté à un SI (sources de données, outils, orchestrateur)
- Cas d’usage concrets : assistant métier, automatisation de tâches, augmentation d’outils existants
-
Introduction au développement d’agents IA avec le SDK OpenAI Agents
- Création d’un agent capable de raisonner et d’appeler des outils (tool calling)
- Structuration des instructions (rôle, objectifs, contraintes métier)
- Gestion des flux d’exécution : requêtes utilisateur → décision → action → réponse
-
Gestion de la mémoire contextuelle et interaction multi-agent
- Mise en place de mémoire court terme (contexte conversationnel) et long terme (stockage persistant)
- Coordination entre plusieurs agents spécialisés (ex : recherche, action, validation)
- Gestion du contexte et des états pour éviter dérives, répétitions et incohérences
-
Sécurisation et contrôle d’accès des agents IA
- Identification des risques : prompt injection, accès aux données sensibles, actions non contrôlées
- Mise en place de garde-fous (validation des entrées, sandboxing, restrictions d’outils)
- Gestion des droits et accès aux ressources (API, bases de données, services internes)
-
Déploiement scalable des agents sur cloud et intégration API
- Exposition d’un agent via API (REST / event-driven) pour intégration dans un système existant
- Déploiement sur une infrastructure cloud (conteneurisation, serverless ou services managés)
- Monitoring initial : logs, erreurs, latence et comportement des agents en conditions réelles
Mises en pratique : Donner des capacités d’actions à l’assistant
-
Transformer le modèle en agent capable d’interagir avec des outils externes (API, base de données) via MCP
- Mettre en place une architecture multi-agent avec gestion du contexte et coordination des tâches
- Déployer un agent connecté sur un environnement cloud et observer ses premiers comportements en conditions réelles
Jour 3 — Orchestration de systèmes IA : fiabilité, performance et mise en production
-
Introduction à LangGraph : conception et orchestration de workflows agentiques
- Comprendre les principes d’orchestration : enchaînement, branching, parallélisation
- Modéliser un workflow agentique (étapes, décisions, états intermédiaires)
- Identifier les cas d’usage où une orchestration devient nécessaire (multi-étapes, dépendances, complexité métier)
-
Intégration des agents MCP dans des pipelines LangGraph
- Connecter des agents spécialisés dans un workflow cohérent (recherche, décision, action)
- Gérer les flux de données entre agents (contextes, résultats intermédiaires)
- Construire un pipeline complet : requête utilisateur → orchestration → réponse finalisée
-
Optimisation des performances et gestion des erreurs dans les workflows
- Mise en place de stratégies de fallback (retry, dégradation fonctionnelle, human-in-the-loop)
- Optimisation des latences et des coûts (réduction des appels, caching, choix de modèles)
- Détection et gestion des comportements inattendus (hallucinations, erreurs d’outils, incohérences)
-
Gouvernance des systèmes IA : sécurité, conformité, dette technique et TCO
- Définir des règles de gouvernance pour les agents (usage des données, auditabilité, traçabilité)
- Anticiper la dette technique liée aux systèmes IA (prompt, pipelines, dépendances modèles)
- Évaluer le coût total d’un système IA (infrastructure, API, maintenance, évolution)
-
Cas d’usage industriels : retours d’expérience et tendances 2026
- Analyse de systèmes agentiques déployés en production (forces, limites, échecs)
- Identification des patterns émergents (multi-agent, orchestration dynamique, outils spécialisés)
- Bonnes pratiques pour passer d’un prototype à un système fiable et maintenable
Mises en pratique : Rendre le système fiable et scalable
- Construire un workflow orchestré avec LangGraph pour gérer plusieurs agents sur un cas métier complet
- Implémenter des mécanismes de contrôle, de fallback et de gestion des erreurs dans les interactions agentiques
- Analyser les performances (coûts, latence, qualité), optimiser le système et documenter l’architecture mise en place
Télécharger le programme
Formateur
Daouda est docteur-ingénieur en optique et vision par ordinateur. Il a forgé son expertise dans la fibre optique, l'astronomie aérospatiale et le développement d'algorithmes de computer vision pour véhicules autonomes.
Sa maîtrise de C++, Matlab, Python et des technologies comme Hadoop, Spark, SQL et Power BI, acquise notamment lors de sa thèse dont une partie concerne le synchrotron, fait de lui un formateur d’exception.
Que ce soit à l'université ou en milieu professionnel, Daouda forme des data engineers et des data analysts, adaptant ses cours à son public avec des projets concrets. Il sait capter l’attention en mêlant théorie et pratique, permettant aux stagiaires d’appliquer Spark sur des cas réels, comme l’analyse de données événementielles sur un datalake Azure.
Suivez une formation avec Daouda pour transformer vos compétences en data !
FAQ
Nos formations sont éligibles à plusieurs dispositifs de financement, selon votre situation. Human Coders est certifié
Qualiopi, ce qui permet la prise en charge par des organismes comme
Pôle emploi, votre OPCO ou encore le
CPF (Compte Personnel de Formation) pour certaines formations.
Pour en savoir plus, veuillez consulter notre page : Comment financer votre formation ?
Oui, la formation peut être proposée en présentiel ou en distanciel. Pour les inter-entreprises, les modalités (présentiel ou à distance) sont fonction de la session.
Nous pouvons organiser des sessions à d'autres dates ou dans d'autres villes (Bordeaux, Lille, Lyon, Marseille, Montpellier, Nantes, Nice, Paris, Strasbourg, Toulouse...)
Les formations se déroulent toujours en petit groupe de 3 à 6 stagiaires. Nous souhaitons que les formateurs et formatrices puissent passer un maximum de temps avec chacun·e.
Voici une journée type :
- 9h : vous êtes accueillis par votre formateur·rice autour d'un petit déjeuner (croissants, pains au chocolat, jus de fruit, thé ou café...)
- 9h30 : la formation commence
- 12h30 : pause de midi. Le·a formateur·rice mangera avec vous. C'est l'occasion d'avoir des discussions plus informelles.
- 14h : reprise de la formation
- 18h : fin de la journée
8 raisons de participer à une formation Human Coders
- Satisfaction client élevée : Un taux de statisfaction de 4,6/5 depuis 2012 (sur 1828 sessions réalisées). 99% des participants se disent satisfaits de nos formations
- Approche pédagogique unique : Des formations en petit groupe, des formateurs passionnés et expérimentés, de véritables workshops... (Plus d'infos sur notre manifeste)
- Catalogue de formations complet : 230 formations au catalogue, de quoi vous accompagner sur tout vos projets
- Écosystème dynamique : Nous accompagnons les dev depuis 14 ans avec des initiatives comme Human Coders News, les Human Talks, le podcast ou encore notre serveur Discord
- Financement facilité : Organisme certifié Qualiopi, indispensable pour que vous puissiez obtenir des aides au financement via votre OPCO
- Références clients prestigieuses : De nombreux clients qui nous font confiance depuis des années
- Accompagnement sur mesure : Nous vous proposons un accompagnement personnalisé par nos consultants pour vous aider dans vos projets au-delà de la formation
- Valorisation professionnelle : Remise d'un diplôme, d'une attestation et d'une certification, suivant les formations effectuées, que vous pourrez afficher sur vos CV et réseaux sociaux