Formation Ollama

Maîtrisez Ollama en 3 jours ! Déployez, personnalisez et sécurisez des modèles IA locaux pour des projets performants et confidentiels.

Formation Ollama

Description

Cette formation Ollama vous permettra de déployer et d’optimiser des modèles d’intelligence artificielle locaux, garantissant confidentialité et performance.

Pendant 3 jours, vous apprendrez à :

  • Comprendre les avantages de l’IA locale (confidentialité, coûts, latence)
  • Installer et configurer Ollama sur macOS, Windows ou Linux
  • Personnaliser des LLMs pour des cas d’usage spécifiques via Modelfiles
  • Intégrer Ollama dans des applications via API REST
  • Optimiser les performances avec quantization, batching et caching
  • Sécuriser les déploiements avec isolation et chiffrement

À l’issue, vous serez autonome pour intégrer des LLMs open-source dans vos projets, sans dépendre du cloud.

Public

Cette formation s'adresse aux développeur·se·s, data scientists et passionné·e·s d’IA souhaitant maîtriser le déploiement et l’optimisation de modèles d’intelligence artificielle locaux avec Ollama.

Les objectifs

  • Comprendre les avantages de l’IA locale et comparer avec les solutions cloud
  • Configurer Ollama sur différents systèmes avec gestion des dépendances
  • Adapter des LLMs open-source à des besoins spécifiques via Modelfiles
  • Connecter Ollama à des applications comme des chatbots ou des outils d’analyse
  • Réduire l’utilisation des ressources avec des techniques avancées
  • Garantir la confidentialité via isolation et chiffrement

Pré-requis

  • Connaissances de base en IA (familiarité avec les concepts des modèles de langage)
  • Connaissance minimale des interfaces CLI (Terminal, PowerShell)
  • Connaissances de base en Python ou autre langage pour interagir avec les API
  • Ordinateur avec 16 Go de RAM minimum (GPU recommandé pour modèles lourds)
  • Ordinateur portable à apporter

Le programme de la formation Ollama

Jour 1 : Fondamentaux et Installation d'Ollama

  • Avantages de l'IA locale
    • Confidentialité
    • Réduction des coûts
    • Performances sans latence
  • Panorama des LLM open-source
    • Llama, Mistral, Gemma
    • Exigences matérielles (RAM, GPU)
    • Comparaison avec les solutions cloud
  • Introduction à Ollama
    • Architecture
    • Cas d'usage
  • Installation et configuration d'Ollama
    • Installation et configuration multiplateforme (macOS, Windows et Linux)
    • Dépendances critiques (Docker, CUDA pour GPU)
    • Bonnes pratiques

Mises en pratique :

  • Installation basique de Ollama sur votre machine et lancement d'un premier modèle lightweight en vérifiant la compatibilité hardware
  • Comparaison de performances d'un prompt simple sur Ollama vs. un service cloud gratuit, en notant les gains en privacy et vitesse
  • Débugage d'une erreur d'installation (e.g., manque de GPU drivers) et résolution en consultant la documentation officielle

Jour 2 : Exécution et Personnalisation des Modèles

  • Gestion des LLMs via CLI et WebUI
    • Interface CLI
    • WebUI
  • Adaptation à des cas spécifiques
    • Création de Modelfiles
    • Fine-tuning basique
  • Intégration de Ollama via API
    • Endpoints disponibles
  • Frameworks de création d'agents IA
    • Introduction à LangChain/LangGraph
    • Intégration avec Ollama

Mises en pratique :

  • Lancement de modèles en testant des prompts variés via l'interface WebUI pour observer les outputs
  • Personnalisation simple pour adapter un LLM à un domaine spécifique (e.g., génération de code Python), et comparaison les résultats avant/après
  • Création d’un chatbot simple en intégrant l’API d’Ollama dans une application console

Jour 3 : Optimisation, Sécurité et Applications Avancées

  • Gestion de la mémoire
    • Réduction de la taille des modèles (Quantization)
    • Traitement par lots (Batching)
    • Mise en cache des résultats (Caching)
  • Sécurisation des déploiements
    • Isolation via Docker
    • Chiffrement des données
    • Gestion des accès
  • Monitoring et scaling local
    • Suivi des performances
    • Scaling local
  • Étude de cas dans des environnements sensibles (santé, finance)

Mises en pratique :

  • Application de la quantization sur un modèle lourd (ex. : Llama 13B) et mesure de l’impact sur la mémoire/vitesse
  • Sécurisation d’un déploiement Ollama via Docker et simulation d’une attaque pour valider la confidentialité
  • Développement d’un agent IA pour l’analyse de texte privé, avec optimisation et présentation des résultats

Télécharger le programme

Formations associées

FAQ

Nos formations sont éligibles à plusieurs dispositifs de financement, selon votre situation. Human Coders est certifié Qualiopi, ce qui permet la prise en charge par des organismes comme Pôle emploi, votre OPCO ou encore le CPF (Compte Personnel de Formation) pour certaines formations.

Pour en savoir plus, veuillez consulter notre page : Comment financer votre formation ?

Oui, la formation peut être proposée en présentiel ou en distanciel. Pour les inter-entreprises, les modalités (présentiel ou à distance) sont fonction de la session.

Nous pouvons organiser des sessions à d'autres dates ou dans d'autres villes (Bordeaux, Lille, Lyon, Marseille, Montpellier, Nantes, Nice, Paris, Strasbourg, Toulouse...)

Les formations se déroulent toujours en petit groupe de 3 à 6 stagiaires. Nous souhaitons que les formateurs et formatrices puissent passer un maximum de temps avec chacun·e.

Voici une journée type :

  • 9h : vous êtes accueillis par votre formateur·rice autour d'un petit déjeuner (croissants, pains au chocolat, jus de fruit, thé ou café...)
  • 9h30 : la formation commence
  • 12h30 : pause de midi. Le·a formateur·rice mangera avec vous. C'est l'occasion d'avoir des discussions plus informelles.
  • 14h : reprise de la formation
  • 18h : fin de la journée

8 raisons de participer à une formation Human Coders

  • Satisfaction client élevée : Un taux de statisfaction de 4,6/5 depuis 2012 (sur 1713 sessions réalisées). 99% des participants se disent satisfaits de nos formations
  • Approche pédagogique unique : Des formations en petit groupe, des formateurs passionnés et expérimentés, de véritables workshops... (Plus d'infos sur notre manifeste)
  • Catalogue de formations complet : 183 formations au catalogue, de quoi vous accompagner sur tout vos projets
  • Écosystème dynamique : Nous accompagnons les dev depuis 13 ans avec des initiatives comme Human Coders News, les Human Talks, le podcast ou encore notre serveur Discord
  • Financement facilité : Organisme certifié Qualiopi, indispensable pour que vous puissiez obtenir des aides au financement via votre OPCO
  • Références clients prestigieuses : De nombreux clients qui nous font confiance depuis des années
  • Accompagnement sur mesure : Nous vous proposons un accompagnement personnalisé par nos consultants pour vous aider dans vos projets au-delà de la formation
  • Valorisation professionnelle : Remise d'un diplôme, d'une attestation et d'une certification, suivant les formations effectuées, que vous pourrez afficher sur vos CV et réseaux sociaux

* Nombre de personnes ayant répondu au questionnaire de satisfaction sur cette formation depuis 2012