Libellé du cours : | Models for Machine Learning |
---|---|
Département d'enseignement : | EEA / Electronique Electrotechnique Automatique |
Responsable d'enseignement : | Monsieur PIERRE-ANTOINE THOUVENIN |
Langue d'enseignement : | |
Ects potentiels : | 0 |
Grille des résultats : | |
Code et libellé (hp) : | MR_DS_S2_MML - Models for Machine Learning |
Equipe pédagogique
Enseignants : Monsieur PIERRE-ANTOINE THOUVENIN
Intervenants extérieurs (entreprise, recherche, enseignement secondaire) : divers enseignants vacataires
Résumé
Introduction à l'analyse statistique bayésienne. Les notions et méthodes suivantes seront abordées : - définitions élémentaires (vraisemblance, distribution a priori, distribution a posteriori, distribution prédictive, ...); - distribution a priori conjuguée, non-informative, famille exponentielle; - modèles hiérarchiques; - représentation graphique à l'aide d'un graphe acyclique orienté; - algorithme de Monte Carlo par chaînes de Markov (MCMC) (algorithme de Metropolis-Hastings, échantillonneur de Gibbs, effective sample size (ESS)).
Objectifs pédagogiques
Après validation du cours, les étudiants seront capables de : - identifier un modèle pertinent en fonction des données disponibles; - formuler un problème d'apprentissage sous forme d'un problème d'optimisation; - identifier la nature des distributions impliquées dans un problème d'appprentissage (distribution a posteriori, prédictive, marginales, ...); - comprendre les connexions entre modélisation déterministe et probabiliste; - comprendre les implications du choix d'un modèle sur les résultats; - implanter une approche simple pour résoudre le problème (MCMC).
Objectifs de développement durable
Modalités de contrôle de connaissance
Contrôle Continu
Commentaires: Évaluation continue, basée sur
- compte-rendu de TP, 50 % de la note finale : (min) 0 – 20 (max)
- examen, 50 % de la note finale : (min) 0 – 20 (max)
Examen de rattrapage (session 2):
- épreuve d'examen notée sur 20 points
- note final du cours : 50% session 1 (note de l'évaluation continue), 50% session 2
Ressources en ligne
Livres et articles de référence, à disposition sur Moodle. Robert, C. P. (2007). The Bayesian choice: from decision-theoretic foundations to computational implementation (Vol. 2). New York: Springer. Bishop, C. M., & Nasrabadi, N. M. (2006). Pattern recognition and machine learning (Vol. 4, No. 4, p. 738). New York: springer. Murphy, K. P. (2012). Machine learning: a probabilistic perspective. MIT press. Jones, Galin L and Qin, Qian (2022). Markov Chain Monte Carlo in Practice, Annual Review of Statistics and Its Application (Vol. 9, pp. 557-578) Robert, C. P., Casella, G., & Casella, G. (1999). Monte Carlo statistical methods (Vol. 2). New York: Springer.
Pédagogie
TP (6h) and TD (2 x 2h). Examen final (2h). Cours enseigné intégralement en anglais.
Séquencement / modalités d'apprentissage
Nombre d'heures en CM (Cours Magistraux) : | 12 |
---|---|
Nombre d'heures en TD (Travaux Dirigés) : | 12 |
Nombre d'heures en TP (Travaux Pratiques) : | 0 |
Nombre d'heures en Séminaire : | 0 |
Nombre d'heures en Demi-séminaire : | 0 |
Nombre d'heures élèves en TEA (Travail En Autonomie) : | 0 |
Nombre d'heures élèves en TNE (Travail Non Encadré) : | 0 |
Nombre d'heures en CB (Contrôle Bloqué) : | 0 |
Nombre d'heures élèves en PER (Travail PERsonnel) : | 0 |
Nombre d'heures en Heures Projets : | 0 |
Pré-requis
Cours du 1 semestre du master 1 Data science : Python and tools for research, Machine learning 1, Probability 1 & 2, Statistics 1. Notions en optimisation.