Descriptif
L'objectif du cours est d'exposer les principaux modèles markoviens avec applications en traitements bayésiens (segmentation, filtrage, lissage, prédiction, ...) des données. On traitera en particulier certains développements récents des modèles de Markov cachés et traitements généraux, de type de traitement particulaires, correspondants. L'accent sera mis sur les méthodes classiques d'estimation des paramètres aboutissant à des traitements non supervisés. On présentera différents exemples d'applications dans les domaines de traitement d'images, de poursuite, finances, ou encore codage et communications numériques.
Objectifs pédagogiques
- Utiliser les modèles graphiques probabilistes en classification et estimation ;
- Savoir modéliser les problèmes de classification bayésienne ;
- Utiliser les modèles de Markov cachés en classifications non supervisées ;
- Maîtriser les rudiments de la théorie de l’évidence de Dempster-Shafer ;
- Mettre en place des filtrages particulaires dans les modèles markoviens généraux.
effectifs minimal / maximal:
10/30Diplôme(s) concerné(s)
Format des notes
Numérique sur 20Littérale/grade européenPour les étudiants du diplôme Diplôme d'Ingénieur de l'Ecole Nationale Supérieure de Techniques Avancées
Vos modalités d'acquisition :
examen écrit de 2 heures
Le rattrapage est autorisé (Max entre les deux notes écrêté à une note seuil)- le rattrapage est obligatoire si :
- Note initiale < 6
- le rattrapage peut être demandé par l'étudiant si :
- 6 ≤ note initiale < 10
- Crédits ECTS acquis : 2 ECTS
Le coefficient de l'UE est : 1
La note obtenue rentre dans le calcul de votre GPA.
L'UE est évaluée par les étudiants.
Programme détaillé
Séance 1 : Restaurations bayésiennes ; 28 septembre (WP)
Rappels de probabilités (modèle probabiliste, conditionnement, théorème de transfert), risque et perte moyens, restaurations optimales, restaurations contextuelles.
Séance 2 : Markov cachés et extensions ; 5 octobre (WP)
Chaînes, champs, arbres de Markov cachés, modèles de Markov couples et triplets ; théorie de l’évidence ; restaurations bayésiennes correspondantes.
Séance 3 : Réseaux bayésiens et modèles graphiques ; 12 octobre (FL)
Définition d’un réseau probabiliste ; réseaux bayésiens ; modélisations markoviens ; règles de conditionnement et de marginalisation.
Séance 4 : Propagation des croyances; 19 octobre (FL)
Propagation de Pearl, liens avec l’inférence bayésienne, exemples d’applications en ingénierie.
Séance 5 : Estimation des paramètres ; 26 octobre (WP)
Méthodes Espérance-Maximisation (EM), EM stochastique (SEM), Gradient Stochastique (GS), estimation conditionnelle itérative (ICE), traitements non supervisés fondés sur Markov cachés et extensions.
Séance 6 : Traitements markoviens non supervisés ; 2 novembre (WP)
Estimation des paramètres dans les champs et chaînes de Markov triplets, exemples d’application à la segmentation non supervisée d’images.
Séance 7 : MCMC et méthodes particulaires ; 9 novembre (YP)
Méthodes générales par chaînes de Markov Monte Carlo, échantillonnage d’importance, filtrage particulaire, modèles de Markov cachés généraux.
Séance 8 : Examen ;