Descriptif
Ce cours est réparti entre un volet estimation statistique et un volet probabilité consacré aux chaines de Markov. Dans la partie estimation statistique, l'objectif est de fournir aux étudiants les méthodes de base pour estimer les paramètres d'un modèle, ainsi que leurs cas d'utilisation et leurs limites. Les méthodes d'estimation sont présentés dans le cas de l'approche bayésienne (MAP, LMMSE), et dans le cas de l'approche classique (LSE, ML, BLUE). Ensuite, les chaines de Markov, outil incontournable pour modéliser des phénomènes chronologiques ou séquentiels, sont introduites dans le cas d'un espace fini, avec leurs différentes propriétés et les théorèmes fondamentaux associés. Le cours s'achève par la présentation des modèles de Markov cachés, et les tâches fondamentales associées (calcul de vraisemblance, estimation des états cachés par Viterbi, apprentissage des paramètres).
Les outils enseignés dans les cours magistraux seront mis en oeuvre sur plusieurs jeux de données réelles de nature différentes (audio, images, textes, etc.)
Objectifs pédagogiques
A l'issue du cours, l'étudiant sera capable de
- Définir la borne inférieure de la variance d'un estimateur sans biais
- Choisir et mettre en oeuvre une méthode d'estimation d'un modèle pour des jeux de données et en tenant compte des particularités de celui-ci
- Modéliser des jeux de données chronologiques ou séquentiels par un modèle de chaine de Markov
- Déterminer les propriétés fondamentales d'une chaine de Markov (irréductible, apériodique, homogène, etc.)
- Calculer les mesures invariantes d'une chaine de Markov
- Inférer les états d'une chaine de Markov par l'algorithme de Viterbi
effectifs minimal / maximal:
10/60Diplôme(s) concerné(s)
Parcours de rattachement
Format des notes
Numérique sur 20Littérale/grade européenPour les étudiants du diplôme Diplôme d'Ingénieur de l'Ecole Nationale Supérieure de Techniques Avancées
Vos modalités d'acquisition :
La note obtenue sera le maximum entre la note d'examen écrit et la note obtenue par 1/3 de la note de projet facultatif et 2/3 de la note d'examen écrit.
Le rattrapage est autorisé (Max entre les deux notes écrêté à une note seuil)- le rattrapage est obligatoire si :
- Note initiale < 6
- le rattrapage peut être demandé par l'étudiant si :
- 6 ≤ note initiale < 10
- Crédits ECTS acquis : 2 ECTS
- Scientifique acquis : 2
Le coefficient de l'UE est : 1
La note obtenue rentre dans le calcul de votre GPA.
L'UE est évaluée par les étudiants.
Programme détaillé
Séance 1: distinction approche classique vs bayésien. Critère de minimisation de la variance de l'estimateur dans le cas classique. Borne de Cramer-Rao pour les estimateurs sans biais
Séance 2: Méthodes fondamentales de l'estimation classique: Estimateurs du maximum de vraisemblance et des moindres carrés. Best Linear Unbiased Estimator (BLUE)
Séance 3: Estimation bayésiennes. Estimateur bayésien des moindres carrés. Maximum a posteriori. Filtrage de Wiener
Séance 4: Chaines de Markov finies. Définition, homogénéité, mesure invariante. Classes de récurrence
Séance 5: Suite des chaines de Markov finies: périodicité. Convergence vers la mesure invariante dans le cas apériodique. Applications des chaines de Markov dans le cas apériodique.
Séance 6: Chaines de Markov cachées. Cas d'application. Algorithme Forward-Backward, algorithme de Viterbi. Apprentissage des paramètres d'une chaine de Markov caché.
Séance 7: examen écrit