Formation Deep Learning

Notée : (38)

Apprenez à intégrer le Deep Learning dans vos applications grâce aux outils open source et aux plateformes cloud.

Prix (Formation inter-entreprise)

1800€ HT / personne

Durée

2 jours

Dates

Nous pouvons organiser des sessions à d'autres dates ou dans d'autres villes (Bordeaux, Lille, Lyon, Marseille, Montpellier, Nantes, Nice, Paris, Strasbourg, Toulouse...)

Cette formation vous permettra d’acquérir les bases du Deep Learning, au coeur de nombreuses avancées récentes de l'intelligence artificielle. A la fin des 2 jours, vous saurez créer des réseaux de neurones profonds et les optimiser. Vous acquerrez une connaissance pratique de leurs possibilités et limites, en les mettant en oeuvre sur des données structurées ainsi que sur des problèmes de reconnaissance d’images. Tout au long de la formation, vous mettrez en pratique la théorie sur des problématiques de difficulté croissante, en utilisant les librairies Python open source TensorFlow et Keras sur des serveurs dotés de GPUs (Graphical Processing Units) mis à votre disposition.

La formation est principalement destinée aux développeurs et ingénieurs informaticiens débutants en Deep Learning. Elle sera d’intérêt pour ceux qui traitent de très gros volumes de données, ou souhaitent développer des applications perceptives (qui “comprennent” l’image ou le son, par exemple). (Si vous n’êtes pas sûr que cela soit votre cas, mais souhaitez développer des applications intelligentes qui apprennent à partir des données, nous vous recommandons également notre formation Machine Learning. Les deux formations se complètent et peuvent être suivies dans l’ordre que vous préférez.)

Enfin, elle sera également d’intérêt aux managers techniques souhaitant comprendre les enjeux, possibilités et limites du Deep Learning, et aux data scientists souhaitant le mettre en oeuvre avec les outils Python, pour rendre leurs ensembles de modèles prédictifs puis puissants.

Les objectifs

  • Comprendre le fonctionnement de l’apprentissage de réseaux de neurones à une puis plusieurs couches
  • Comprendre les avantages et limites de l’apprentissage de réseaux de neurones profonds (“Deep Learning”)
  • Créer et optimiser des réseaux de neurones sur données structurées, avec la librairie Keras
  • Traiter les problèmes de reconnaissance d'images, grâce aux structures convolutives
  • Savoir réutiliser un réseau profond déjà appris, pour cibler de nouveaux problèmes via ré-apprentissage peu profond ("Transfer Learning").

Pré-requis

  • Connaissances en programmation et de la syntaxe basique du langage Python. Des exemples de code sont fournis tout au long de la formation; les exercices peuvent être réalisés en combinant et en adaptant les briques de code fournies. Consulter Learn Python de Codeacademy et Introduction to Python programming de Robert Johansson (en particulier les sections Python program files, Modules, Assignment, Fundamental types, Control Flow et Functions) pour apprendre ou réviser les bases de Python.
  • Bonne compréhension de l'anglais écrit (la formation est en français mais les slides, notebooks, code et autres ressources sont en anglais).
  • [Optionnel] Des connaissances basiques d’algèbre, de statistiques, et de calcul scientifique (niveau Bac) peuvent être appréciables pour une meilleure compréhension de certaines parties théoriques.
  • [Optionnel] Une connaissance préalable du Machine Learning n’est pas nécessaire, mais peut être appréciable.
  • Ordinateur portable à apporter.

Le programme de la formation Deep Learning

Jour 1

  • Présentation du Deep Learning et de ses possibilités
    • Concepts de base
    • Formalisation des problèmes d’apprentissage supervisé: classification et régression
    • Exemples d’utilisation
  • Régressions linéaire et logistique
    • Révision des bases de Python; configuration et utilisation de notebooks Jupyter
    • Modèles linéaires et mesures de performance: MSE (régression) et log-loss (classification)
    • Apprentissage des paramètres d’un modèle via la méthode de descente de gradient stochastique
    • Formulation en termes de réseau neuronal à une couche, et implémentation
    • Préparation des données
    • Visualisations et interprétation
  • Réseaux de neurones multi-couches:
    • Fonctionnement des réseaux à plusieurs couches entièrement connectées (“Multi-Layered Perceptron”), et apprentissage via rétro-propagation (“back-propagation”)
    • Illustration avec TensorFlow Playground
    • Implémentation avec Keras; suivi de l'apprentissage avec TensorBoard
    • Deep Learning (DL) automatisé avec la librairie Auto-Keras et l'outil BigML
    • Export des modèles en vue de leur déploiement.

Jour 2

  • Evaluation, optimisation et comparaisons des modèles:
    • Procédure d’évaluation
    • Inspection des courbes d’apprentissage
    • Phénomène de sur-apprentissage (“overfitting”): détection et solutions
    • Optimisation des “hyper-paramètres” (taux d’apprentissage, nombre de neurones, stratégie d’initialisation, etc.) via la procédure de grid-search
    • Comparaison de réseaux profonds à d'autres approches état de l'art (ex: XGBoost) sur divers datasets de classification et régression
    • Réduction du temps d’apprentissage via utilisation efficace de GPU.
  • Réseaux convolutifs et application à l'imagerie:
    • Fonctionnement des Convolutional Neural Networks: couches de convolution, de pooling, et régularisation par “dropout”
    • Mise en pratique et visualisation sur MNIST (reconnaissance de chiffres manuscrits).
  • Introduction au Transfer Learning:
    • Principe de réutilisation de modèles existants, pour extraire des représentations haut-niveau et créer de nouveaux modèles sur de nouveaux problèmes plus rapidement
    • Mise en pratique sur un challenge Kaggle de classification d'images.
  • Aller plus loin avec le Deep Learning:
    • Récapitulatif
    • Limites du Deep Learning
    • Conseils pratiques pour la mise en place du DL dans vos applications
    • Autres structures de réseaux de neurones
    • Ressources pour aller plus loin.

Télécharger le programme

Besoin d'aide ?

Vous souhaitez discuter avec nous à propos de votre projet de formation ?
Vous voulez plus d'information sur une formation ou notre fonctionnement ?


Rappel Email

Nos forces

  • Des formations à taille humaine
  • Des formateurs passionnés
  • Des véritables workshop
Accéder au Manifeste

Nos clients

BNP Paribas
Leboncoin.fr
CNRS
Voyage SNCF
Orange
Moody's Analytics

Nos formations en images

Sass et Compass
CasperJS
Ruby on Rails
Ruby

Formation Deep Learning

Notée : (38)

Apprenez à intégrer le Deep Learning dans vos applications grâce aux outils open source et aux plateformes cloud.

Cette formation vous permettra d’acquérir les bases du Deep Learning, au coeur de nombreuses avancées récentes de l'intelligence artificielle. A la fin des 2 jours, vous saurez créer des réseaux de neurones profonds et les optimiser. Vous acquerrez une connaissance pratique de leurs possibilités et limites, en les mettant en oeuvre sur des données structurées ainsi que sur des problèmes de reconnaissance d’images. Tout au long de la formation, vous mettrez en pratique la théorie sur des problématiques de difficulté croissante, en utilisant les librairies Python open source TensorFlow et Keras sur des serveurs dotés de GPUs (Graphical Processing Units) mis à votre disposition.

La formation est principalement destinée aux développeurs et ingénieurs informaticiens débutants en Deep Learning. Elle sera d’intérêt pour ceux qui traitent de très gros volumes de données, ou souhaitent développer des applications perceptives (qui “comprennent” l’image ou le son, par exemple). (Si vous n’êtes pas sûr que cela soit votre cas, mais souhaitez développer des applications intelligentes qui apprennent à partir des données, nous vous recommandons également notre formation Machine Learning. Les deux formations se complètent et peuvent être suivies dans l’ordre que vous préférez.)

Enfin, elle sera également d’intérêt aux managers techniques souhaitant comprendre les enjeux, possibilités et limites du Deep Learning, et aux data scientists souhaitant le mettre en oeuvre avec les outils Python, pour rendre leurs ensembles de modèles prédictifs puis puissants.

Les objectifs

  • Comprendre le fonctionnement de l’apprentissage de réseaux de neurones à une puis plusieurs couches
  • Comprendre les avantages et limites de l’apprentissage de réseaux de neurones profonds (“Deep Learning”)
  • Créer et optimiser des réseaux de neurones sur données structurées, avec la librairie Keras
  • Traiter les problèmes de reconnaissance d'images, grâce aux structures convolutives
  • Savoir réutiliser un réseau profond déjà appris, pour cibler de nouveaux problèmes via ré-apprentissage peu profond ("Transfer Learning").

Pré-requis

  • Connaissances en programmation et de la syntaxe basique du langage Python. Des exemples de code sont fournis tout au long de la formation; les exercices peuvent être réalisés en combinant et en adaptant les briques de code fournies. Consulter Learn Python de Codeacademy et Introduction to Python programming de Robert Johansson (en particulier les sections Python program files, Modules, Assignment, Fundamental types, Control Flow et Functions) pour apprendre ou réviser les bases de Python.
  • Bonne compréhension de l'anglais écrit (la formation est en français mais les slides, notebooks, code et autres ressources sont en anglais).
  • [Optionnel] Des connaissances basiques d’algèbre, de statistiques, et de calcul scientifique (niveau Bac) peuvent être appréciables pour une meilleure compréhension de certaines parties théoriques.
  • [Optionnel] Une connaissance préalable du Machine Learning n’est pas nécessaire, mais peut être appréciable.
  • Ordinateur portable à apporter.

Le programme de la formation Deep Learning

Jour 1

  • Présentation du Deep Learning et de ses possibilités
    • Concepts de base
    • Formalisation des problèmes d’apprentissage supervisé: classification et régression
    • Exemples d’utilisation
  • Régressions linéaire et logistique
    • Révision des bases de Python; configuration et utilisation de notebooks Jupyter
    • Modèles linéaires et mesures de performance: MSE (régression) et log-loss (classification)
    • Apprentissage des paramètres d’un modèle via la méthode de descente de gradient stochastique
    • Formulation en termes de réseau neuronal à une couche, et implémentation
    • Préparation des données
    • Visualisations et interprétation
  • Réseaux de neurones multi-couches:
    • Fonctionnement des réseaux à plusieurs couches entièrement connectées (“Multi-Layered Perceptron”), et apprentissage via rétro-propagation (“back-propagation”)
    • Illustration avec TensorFlow Playground
    • Implémentation avec Keras; suivi de l'apprentissage avec TensorBoard
    • Deep Learning (DL) automatisé avec la librairie Auto-Keras et l'outil BigML
    • Export des modèles en vue de leur déploiement.

Jour 2

  • Evaluation, optimisation et comparaisons des modèles:
    • Procédure d’évaluation
    • Inspection des courbes d’apprentissage
    • Phénomène de sur-apprentissage (“overfitting”): détection et solutions
    • Optimisation des “hyper-paramètres” (taux d’apprentissage, nombre de neurones, stratégie d’initialisation, etc.) via la procédure de grid-search
    • Comparaison de réseaux profonds à d'autres approches état de l'art (ex: XGBoost) sur divers datasets de classification et régression
    • Réduction du temps d’apprentissage via utilisation efficace de GPU.
  • Réseaux convolutifs et application à l'imagerie:
    • Fonctionnement des Convolutional Neural Networks: couches de convolution, de pooling, et régularisation par “dropout”
    • Mise en pratique et visualisation sur MNIST (reconnaissance de chiffres manuscrits).
  • Introduction au Transfer Learning:
    • Principe de réutilisation de modèles existants, pour extraire des représentations haut-niveau et créer de nouveaux modèles sur de nouveaux problèmes plus rapidement
    • Mise en pratique sur un challenge Kaggle de classification d'images.
  • Aller plus loin avec le Deep Learning:
    • Récapitulatif
    • Limites du Deep Learning
    • Conseils pratiques pour la mise en place du DL dans vos applications
    • Autres structures de réseaux de neurones
    • Ressources pour aller plus loin.

Télécharger le programme

Le(s) formateur(s)

Sébastien Treguer

Sébastien Treguer

Sébastien est passionné par le Machine Learning (ML), que ce soit en explorant de nouvelles architectures de réseaux de neurones, ou en exploitant des approches plus classiques antérieures à l'ère du Deep Learning (DL). Il a très tôt exploré ces approches, notamment pour le traitement du signal et des images dès le début des années 2000. Passionné autant par la recherche que par les cas d'usage métier, il accompagne aujourd'hui startups et grands groupes à transposer les récentes avancées de la recherche en ML/DL à leurs problématiques métier. Ses expériences l'ont conduit à explorer une diversité de domaines dont la santé, la finance, l’énergie, l'automobile... Par ailleurs il collabore à des projets de recherche et est impliqué dans l'organisation de challenges et workshops lors de conférences internationales telles que NIPS, ICML, ICLR ou PAPIs. En termes de framework pour le Deep Learning il affectionne particulièrement PyTorch pour sa flexibilité et la diversité de sa communauté, après avoir affûté ses algorithmes avec TensorFlow et Theano.

Voir son profil détaillé

Louis Dorard

Louis Dorard

Louis Dorard est l’auteur du livre Bootstrapping Machine Learning, du Machine Learning Canvas, General Chair des conférences internationales PAPIs.io, et Adjunct Teaching Fellow à UCL School of Management où il enseigne Predictive Analytics. Dans le cadre de son activité de consultant indépendant, il accompagne grandes entreprises et startups dans l’intégration du ML dans leurs produits. Par le passé, il a “bootstrappé” plusieurs technologies innovantes en tant que Directeur R&D chez Concept Immo Global. Louis est titulaire d’un PhD en Machine Learning de University College London, domaine dans lequel il travaille depuis plus de 10 ans.

Voir son profil détaillé

Suivi de formation en option

A l'issue de la formation, nos formateurs peuvent aussi intervenir pour vous accompagner dans la mise en application des compétences acquises :

  • en répondant à vos questions lors de rendez-vous téléphoniques réguliers
  • en étant présents physiquement à l'amorce du projet
  • en réalisant un audit de vos pratiques quelques semaines/mois après la formation
Cette idée vous intéresse ? Faîtes-le nous savoir pour que nous trouvions la formule adaptée à votre situation.