Vous souhaitez discuter avec nous à propos de votre projet de formation ?
Vous voulez plus d'information sur une formation ou notre fonctionnement ?
Rappel Email
Améliorez vos prédictions dans vos algorithmes de Machine Learning grâce à des optimisations, au réglage des hyperparamètres et à des régularisations !
Nous pouvons organiser des sessions à d'autres dates ou dans d'autres villes (Bordeaux, Lille, Lyon, Marseille, Montpellier, Nantes, Nice, Paris, Strasbourg, Toulouse...)
Le but principal de cette formation est de mieux comprendre les algorithmes de Machine Learning afin de ne plus les utiliser comme des "boites noires". Nous verrons que bien les connaître et les manipuler permet d'améliorer drastiquement les scores de prédiction.
La majorité des problèmes de Machine Learning se formulent comme des problèmes d'optimisation. Dès lors, il devient nécessaire d'être familier avec l'ensemble des méthodes d'optimisation si l'on veut maîtriser finement les différents algorithmes prédictifs.
Dans cette formation Machine Learning : Optimisez vos algorithmes, nous présenterons en détail plusieurs méthodes d'optimisation. Nous nous focaliseront principalement sur l'algorithme de descente de gradient ainsi que ses dérivées (e.g. le gradient stochastique) qui permettent de résoudre efficacement des problèmes de régression ou de classification.
Cette formation s'adresse aux Data Scientists :
1. Voulant maîtriser les algorithmes d'optimisation en ML afin de mieux ajuster les hyper-paramètres de leurs méthodes et ainsi améliorer leurs prédictions,
2. Voulant aller au delà de ce que propose des librairies comme scikit-learn pour s'adapter/mieux répondre à une problématique spécifique.
Par exemple, en modifiant la pénalisation de la fonction objectif, en changeant la fonction de coût ou en traitant de manière automatique les valeurs aberrantes ou manquantes.
À la fin de cette formation, le code source et les slides seront mis à la disposition des stagiaires.
Jour introductif aux fondamentaux en optimisation et Machine Learning.
Le but de cette journée est tout d'abord de maîtriser l'ensemble des outils mathématiques nécessaire à l'optimisation en Machine Learning.
Elle est également consacrée à une vue d'ensemble de différentes méthodes d'optimisation ainsi qu'à l'importance du coût et des hyper-paramètres dans un modèle de Machine Learning.
Mises en pratique :
- Produit matriciel, calcul de norme, manipulation de vecteur
- Reconnaître si une fonction est convexe
- Visualisation de différentes fonctions de coût
Cette journée nous permettra d'introduire les algorithmes d'optimisation les plus important en Machine Learning.
Ces algorithmes sont à la base de l'apprentissage et doivent être maîtrisé pour mieux les calibrer (learning rate, early stopping, ...).
On verra également comment adapter la fonction de coût et les régularisations à une tâche spécifique. On utilisera les fondamentaux du jour 1 pour résoudre ces nouveaux problèmes d'optimisation.
Mises en pratique :
- Coder l'ensemble des algorithmes pour la régression linéaire simple, ridge et lasso
- Faire varier le nombre et la taille des données, le pas de la descente, etc
- Faire une comparaison des vitesses de convergence des trois algorithmes
Cette troisième et dernière journée sera consacrée à la mise en pratique de nos connaissances sur des cas réels.
Elle nous permettra de consolider nos connaissances et de gagner en intuition. Ce sera également l'occasion de découvrir des notions plus avancées comme la dérivation automatique, qui simplifieront le code.
Sur une application adaptée à vos problèmes ou une régression et classification sur des problèmes nécessitant des modifications du coût et des pénalisations (ex: données manquantes, aberrantes ou déséquilibrées, dictionary learning, inpainting, segmentation, ...).
Après une thèse en mathématiques, Pierre est aujourd’hui chercheur à l'INRIA en Machine Learning.
En parallèle de son activité de recherche, il contribue à des projets plus appliqués notamment grâce à plusieurs partenariats dans le domaine médical.
C'est son envie de transmettre qui l'a naturellement poussé à devenir formateur en Machine Learning.
Human Coders c'est un centre de formation pour développeurs avec :
Améliorez vos prédictions dans vos algorithmes de Machine Learning grâce à des optimisations, au réglage des hyperparamètres et à des régularisations !
Le but principal de cette formation est de mieux comprendre les algorithmes de Machine Learning afin de ne plus les utiliser comme des "boites noires". Nous verrons que bien les connaître et les manipuler permet d'améliorer drastiquement les scores de prédiction.
La majorité des problèmes de Machine Learning se formulent comme des problèmes d'optimisation. Dès lors, il devient nécessaire d'être familier avec l'ensemble des méthodes d'optimisation si l'on veut maîtriser finement les différents algorithmes prédictifs.
Dans cette formation Machine Learning : Optimisez vos algorithmes, nous présenterons en détail plusieurs méthodes d'optimisation. Nous nous focaliseront principalement sur l'algorithme de descente de gradient ainsi que ses dérivées (e.g. le gradient stochastique) qui permettent de résoudre efficacement des problèmes de régression ou de classification.
Cette formation s'adresse aux Data Scientists :
1. Voulant maîtriser les algorithmes d'optimisation en ML afin de mieux ajuster les hyper-paramètres de leurs méthodes et ainsi améliorer leurs prédictions,
2. Voulant aller au delà de ce que propose des librairies comme scikit-learn pour s'adapter/mieux répondre à une problématique spécifique.
Par exemple, en modifiant la pénalisation de la fonction objectif, en changeant la fonction de coût ou en traitant de manière automatique les valeurs aberrantes ou manquantes.
À la fin de cette formation, le code source et les slides seront mis à la disposition des stagiaires.
Jour introductif aux fondamentaux en optimisation et Machine Learning.
Le but de cette journée est tout d'abord de maîtriser l'ensemble des outils mathématiques nécessaire à l'optimisation en Machine Learning.
Elle est également consacrée à une vue d'ensemble de différentes méthodes d'optimisation ainsi qu'à l'importance du coût et des hyper-paramètres dans un modèle de Machine Learning.
Mises en pratique :
- Produit matriciel, calcul de norme, manipulation de vecteur
- Reconnaître si une fonction est convexe
- Visualisation de différentes fonctions de coût
Cette journée nous permettra d'introduire les algorithmes d'optimisation les plus important en Machine Learning.
Ces algorithmes sont à la base de l'apprentissage et doivent être maîtrisé pour mieux les calibrer (learning rate, early stopping, ...).
On verra également comment adapter la fonction de coût et les régularisations à une tâche spécifique. On utilisera les fondamentaux du jour 1 pour résoudre ces nouveaux problèmes d'optimisation.
Mises en pratique :
- Coder l'ensemble des algorithmes pour la régression linéaire simple, ridge et lasso
- Faire varier le nombre et la taille des données, le pas de la descente, etc
- Faire une comparaison des vitesses de convergence des trois algorithmes
Cette troisième et dernière journée sera consacrée à la mise en pratique de nos connaissances sur des cas réels.
Elle nous permettra de consolider nos connaissances et de gagner en intuition. Ce sera également l'occasion de découvrir des notions plus avancées comme la dérivation automatique, qui simplifieront le code.
Sur une application adaptée à vos problèmes ou une régression et classification sur des problèmes nécessitant des modifications du coût et des pénalisations (ex: données manquantes, aberrantes ou déséquilibrées, dictionary learning, inpainting, segmentation, ...).
Après une thèse en mathématiques, Pierre est aujourd’hui chercheur à l'INRIA en Machine Learning.
En parallèle de son activité de recherche, il contribue à des projets plus appliqués notamment grâce à plusieurs partenariats dans le domaine médical.
C'est son envie de transmettre qui l'a naturellement poussé à devenir formateur en Machine Learning.
Human Coders c'est un centre de formation pour développeurs avec :
* Nombre de personnes ayant répondu au questionnaire de satisfaction sur cette formation depuis 2012