Deep Learning
- Type de matière
- STATISTIQUE
- Correspondant
- François PORTIER
- Module
-
UE-MSD01 : Machine Learning
- Nombre d'ECTS
- 1.5
- Code matière
- MSD 01-2
- Répartition des enseignements
-
Heures de cours : 15
- Langue d'enseignement
- Anglais
Objectifs
Ce cours est consacré aux architectures de réseaux neuronaux (RN) et à leur extension connue sous le nom d’apprentissage profond. Au préalable, l’algorithme de descente de gradient stochastique et la rétropropagation – son application aux réseaux neuronaux feedforward – sont introduits pour être ensuite utilisés comme base d’apprentissage. Vient ensuite l’étude des architectures de réseaux neuronaux les plus répandues pour la régression et la classification. Parmi celles-ci, les réseaux neuronaux convolutifs (CNN) sont étudiés en détail, ainsi que d’autres structures telles que les machines de Boltzmann restreintes (RBM) et l’algorithme de divergence contrastive (CD-k). D’autres aspects pratiques seront abordés concernant l’utilisation de l’apprentissage profond pour résoudre des problèmes typiques tels que la reconnaissance de formes ou la détection/le suivi d’objets. Le matériel présenté sera motivé par le contexte théorique avec des illustrations de données réelles. Il y aura des laboratoires spécifiques pour chaque sujet en R et Python.
Plan
– Introduction à l’apprentissage profond.
– Architectures de réseaux neuronaux.
– Descente de gradient stochastique et algorithme de rétropropagation.
– Réseaux neuronaux pour la régression et la classification.
– Réseaux neuronaux convolutifs, machines de Boltzman restreintes.
– Applications : Reconnaissance des formes, détection d’objets
Prérequis
Analyse de régression, descente de gradient, algèbre (matricielle), R, Python (bases).