Descriptif
Les modèles markoviens sont parmi les plus simples permettant de prendre en compte la dépendance entre variables aléatoires. Parmi eux, les chaînes de Markov permettent, grâce aux possibilités de calcul récursif, les traitements rapides de grandes masses de données. En particulier, les Markov cachés permettent de mettre en place des méthodes de restauration bayésienne, optimales pour des fonctions de perte arbitraires. Par ailleurs, les simulations des chaînes de Markov peuvent également être utilisées comme moyen de calcul approché de quantités complexes.
Le cours expose les notions de base des chaînes de Markov finies, des chaînes de Markov cachées (CMC), ainsi que des méthodes de Monte Carlo par chaînes de Markov (MCMC). Des exemples d’applications des CMC en segmentation statistique d'images et en étiquetage morphosyntaxique sont traités en séances de TP.
Objectifs pédagogiques
Au terme de ce cours, l'étudiant doit être capable de :
- manipuler les propriétés de base des chaînes de Markov finies ;
- expliquer les concepts fondamentaux liés aux chaînes de Markov cachées (CMC) ;
- appliquer les CMC à des traitements bayésiens non supervisés simples ;
- mettre en oeuvre les bases des méthodes de Monte Carlo par chaînes de Markov (MCMC).
Diplôme(s) concerné(s)
Parcours de rattachement
Format des notes
Numérique sur 20Littérale/grade européenPour les étudiants du diplôme Diplôme d'Ingénieur de l'Ecole Nationale Supérieure de Techniques Avancées
Vos modalités d'acquisition :
- examen écrit, avec documents (poids : 3/4)
- compte rendus de TD en salle info (poids : 1/4)
Le rattrapage est autorisé (Max entre les deux notes écrêté à une note seuil)- le rattrapage est obligatoire si :
- Note initiale < 6
- le rattrapage peut être demandé par l'étudiant si :
- 6 ≤ note initiale < 10
- Crédits ECTS acquis : 1.25 ECTS
- Scientifique acquis : 1.25
Le coefficient de l'UE est : 1
La note obtenue rentre dans le calcul de votre GPA.
L'UE est évaluée par les étudiants.
Programme détaillé
(CC = Contrôle de Connaissances - CM = Cours Magistral - PC = Petite Classe - TD = Travaux Dirigés sur ordinateur)
1.CM (1h30) : Chaînes de Markov finies
1.PC (1h30) : Ergodicité
2.CM (1h30) : Classification avec les chaînes de Markov cachées (CMC)
2.PC (1h30) : Algorithme de Viterbi
3.CM (1h30) : Identification des chaînes de Markov cachées
3.PC (1h30) : Algorithmes EM, SEM
4.CM (1h30) : Approximations Stochastiques
4.PC (1h30) : Méthodes de Monte Carlo par Chaînes de Markov (MCMC)
5.TD (3h) : CMC en segmentation statistique d'images (sous numpy et opencv-python)
6.TD (3h) : CMC en étiquetage morphosyntaxique (sous notebook jupiter)
7.CC (1h30) : Examen écrit
7.CM (1h30) : Corrigé de l'examen et/ou perspective