S'inscrire

Fondements du machine learning et du deep learning

Environnement scientifique et technique de la formation

Laboratoire d'informatique et systèmes - UMR 7020

RESPONSABLES

Cécile CAPPONI

Maîtresse de conférences

UMR 7020

Rémi EYRAUD

Maître de conférences

UMR 7020

LIEU

MARSEILLE (13)

ORGANISATION

4 jours
De 6 à 16 stagiaires
TP encadrés par un intervenant pour 8 stagiaires maximum

COÛT PÉDAGOGIQUE

2200 Euros

A L'ISSUE DE LA FORMATION

Evaluation de la formation par les stagiaires
Envoi d'une attestation de formation

DATE DU STAGE

20309 : du lundi 11/05/2020 au jeudi 14/05/2020

Janvier Février Mars Avril
Mai
20309
Juin Juillet Août
Sept. Oct. Nov. Déc.

OBJECTIFS

- Savoir identifier la nature d'un problème d'apprentissage automatique : supervisé / non-supervisé, classification / régression
- Savoir mettre en œuvre les méthodes répandues de l'apprentissage automatique (kppv, SVM, arbres de décision, forêts aléatoires, Boosting, régression)
- Savoir comment évaluer les performances de ces méthodes à travers plusieurs métriques
- Savoir comparer des modèles appris
- Savoir réduire le nombre de dimensions des données
- Savoir mettre en œuvre une architecture simple de réseaux de neurones
- Savoir mettre en œuvre un réseau de neurones profond et connaître le drop-out
- Savoir utiliser les outils Sklearn, Keras / Tensor Flow

PUBLICS

Ingénieurs ou techniciens supérieurs en informatique (développeurs, chefs de projets informatiques), en analyse ou traitement de données, personnels de R&D
Prérequis : langage de programmation Python, bases de l'algorithmique, bases de l'algèbre linéaire (espace euclidien, produit scalaire, notion de norme), dérivées, probabilités et statistiques élémentaires (distribution, probabilités conditionnelles)

PROGRAMME

L'apprentissage automatique est au cœur des avancées actuellement constatées en intelligence artificielle pour le traitement des données numériques. Au coeur, nous retrouvons l'apprentissage profond ; beaucoup d'autres approches peuvent s'avérer parfois plus performantes selon les problématiques réelles à traiter. Cette formation propose un panorama des méthodes disponibles "sur l'étagère" avec un focus sur l'utilisation pratique de ces méthodes avec la bibiothèque scikit-learn.
- Introduction, aspects fondamentaux de l'apprentissage statistique. Premiers algorithmes : arbres de décision, k plus proches voisins, classifieur naïf de Bayes. Estimation basique de l'erreur réelle. Prise en main de scikit-learn, mise en oeuvre des algorithmes du matin et de leurs hyper-paramètres, illustration de la malédiction de la dimensionnalité
- Discriminants linéaires (perceptron, SVM marges dures et douces). Régression linéaire. Mesures d'évaluation des performances. Mise en oeuvre sous scikit-learn, réglage des hyper-paramètres, impact du bruit dans les données (études sur données benchmarks). Découverte du multi-classes par la pratique
- Non-séparabilité linéaire : fonctions noyaux et SVM, perceptron à noyau. Méthodes ensemblistes (boosting, bagging, forêts aléatoires). Introduction à la régularisation (ridge, lasso, elastic net). Méthodes de réduction de dimensions. Sélection de modèles. Observation pratique avec scikit-learn et données benchmarks de l'impact de la régularisation, des temps d'apprentissage et d'entraînement. Mise en oeuvre de la sélection de modèles
- Le perceptron multi-couches & rétro-propagation du gradient, drop-out. Approches de type "deep" : présentation des architectures essentielles (auto-encodeur, convultion, GAN, LSTM). Pratique sous Keras : mise en oeuvre d'un GAN et d'un réseau de convolution. Illustration de l'extraction de caractéristiques avec des réseaux pré-entraînés
Chaque jour : 3 h de cours interactifs et 4 h d'ateliers pratiques

EQUIPEMENTS

Il est demandé aux stagiaires de venir avec leur propre ordinateur sur lequel les logiciels et outils (libres) nécessaires à la formation (communiqués avant le début du stage) seront préalablement installés.
Formation organisée dans le cadre de l'Institut Archimède

Choisir une formation

Choisir un autre domaine

+ d'infos