Syllabus des cursus de Centrale Lille

Models for Machine Learning

Libellé du cours : Models for Machine Learning
Département d'enseignement : EEA / Electronique Electrotechnique Automatique
Responsable d'enseignement :
Langue d'enseignement :
Ects potentiels : 0
Grille des résultats :
Code et libellé (hp) : MR_DS_S2_MML - Models for Machine Learning

Equipe pédagogique

Enseignants :
Intervenants extérieurs (entreprise, recherche, enseignement secondaire) : divers enseignants vacataires

Résumé

Introduction à l'analyse statistique bayésienne. Les notions et méthodes suivantes seront abordées : - définitions élémentaires (vraisemblance, distribution a priori, distribution a posteriori, distribution prédictive, ...); - distribution a priori conjuguée, non-informative, famille exponentielle; - modèles hiérarchiques; - représentation graphique à l'aide d'un graphe acyclique orienté; - algorithme de Monte Carlo par chaînes de Markov (MCMC) (algorithme de Metropolis-Hastings, échantillonneur de Gibbs); - inférence bayésienne approchée (méthodes variationnelles : algorithem CAVI, EM).

Objectifs pédagogiques

Après validation du cours, les étudiants seront capables de : - identifier un modèle pertinent en fonction des données disponibles; - formuler un problème d'apprentissage sous forme d'un problème d'optimisation; - identifier la nature des distributions impliquées dans un problème d'appprentissage (distribution a posteriori, prédictive, marginales, ...); - comprendre les connexions entre modélisation déterministe et probabiliste; - comprendre les implications du choix d'un modèle sur les résultats; - implanter une approche simple pour résoudre le problème (MCMC ou approche variationnelle).

Objectifs de développement durable

Modalités de contrôle de connaissance

Contrôle Continu
Commentaires:

Ressources en ligne

Livres et articles de référence, à disposition sur Moodle. Robert, C. P. (2007). The Bayesian choice: from decision-theoretic foundations to computational implementation (Vol. 2). New York: Springer. Bishop, C. M., & Nasrabadi, N. M. (2006). Pattern recognition and machine learning (Vol. 4, No. 4, p. 738). New York: springer. Murphy, K. P. (2012). Machine learning: a probabilistic perspective. MIT press. Robert, C. P., Casella, G., & Casella, G. (1999). Monte Carlo statistical methods (Vol. 2). New York: Springer. Blei, D. M., Kucukelbir, A., & McAuliffe, J. D. (2017). Variational inference: A review for statisticians. Journal of the American statistical Association, 112(518), 859-877.

Pédagogie

TP (6h) and TD (2 x 2h). Examen final (2h). Cours enseigné intégralement en anglais.

Séquencement / modalités d'apprentissage

Nombre d'heures en CM (Cours Magistraux) : 12
Nombre d'heures en TD (Travaux Dirigés) : 12
Nombre d'heures en TP (Travaux Pratiques) : 0
Nombre d'heures en Séminaire : 0
Nombre d'heures en Demi-séminaire : 0
Nombre d'heures élèves en TEA (Travail En Autonomie) : 0
Nombre d'heures élèves en TNE (Travail Non Encadré) : 0
Nombre d'heures en CB (Contrôle Bloqué) : 0
Nombre d'heures élèves en PER (Travail PERsonnel) : 0
Nombre d'heures en Heures Projets : 0

Pré-requis

Cours du 1 semestre du master 1 Data science : Python and tools for research, Machine learning 1, Probability 1 & 2, Statistics 1. Notions en optimisation.

Nombre maximum d'inscrits

Remarques