v2.3.2 (2860)

Cours scientifique - IA304 : Connaissance et raisonnement probabiliste

Descriptif

L'objectif du cours est d'exposer les principaux modèles markoviens avec applications en traitements bayésiens (segmentation, filtrage, lissage, prédiction, ...) des données. On traitera en particulier certains développements récents des modèles de Markov cachés et traitements généraux, de type de traitement particulaires, correspondants. L'accent sera mis sur  les méthodes classiques d'estimation des paramètres aboutissant à des traitements non supervisés. On présentera différents exemples d'applications dans les domaines de traitement d'images, de poursuite, finances, ou encore codage et communications numériques.

Objectifs pédagogiques

-       Utiliser les modèles graphiques probabilistes en classification et estimation ;

-       Savoir modéliser les problèmes de classification bayésienne ;

-       Utiliser les modèles de Markov cachés en classifications non supervisées ;

-       Maîtriser les rudiments de la théorie de l’évidence de Dempster-Shafer ;

-       Mettre en place des filtrages particulaires dans les modèles markoviens généraux.

nombre d'heure en présentiel

24

nombre de blocs

8

effectifs minimal / maximal

10/30

Diplôme(s) concerné(s)

Format des notes

Numérique sur 20

Littérale/grade européen

Pour les étudiants du diplôme Diplôme d'Ingénieur de l'Ecole Nationale Supérieure de Techniques Avancées

Vos modalités d'acquisition :

examen écrit de 2 heures    

Le rattrapage est autorisé (Max entre les deux notes écrêté à une note seuil)
  • le rattrapage est obligatoire si :
    Note initiale < 6
  • le rattrapage peut être demandé par l'étudiant si :
    6 ≤ note initiale < 10
L'UE est acquise si Note finale >= 10
  • Crédits ECTS acquis : 1.7 ECTS

Le coefficient de l'UE est : 1.7

La note obtenue rentre dans le calcul de votre GPA.

L'UE est évaluée par les étudiants.

Programme détaillé

Séance 1 : Restaurations bayésiennes ; 28 septembre (WP)

 

Rappels de probabilités (modèle probabiliste, conditionnement, théorème de transfert), risque et perte moyens, restaurations optimales, restaurations contextuelles.

 

Séance 2 : Markov cachés et extensions ; 5 octobre (WP)

 

Chaînes, champs, arbres de Markov cachés, modèles de Markov couples et triplets ; théorie de l’évidence ; restaurations bayésiennes correspondantes.

 

Séance 3 : Réseaux bayésiens et modèles graphiques ; 12 octobre (FL)

 

Définition d’un réseau probabiliste ; réseaux bayésiens ; modélisations markoviens ; règles de conditionnement et de marginalisation.

 

Séance 4 : Propagation des croyances; 19 octobre (FL)

 

Propagation de Pearl, liens avec l’inférence bayésienne, exemples d’applications en ingénierie.

 

Séance 5 : Estimation des paramètres ; 26 octobre (WP)

 

Méthodes Espérance-Maximisation (EM), EM stochastique (SEM), Gradient Stochastique (GS), estimation conditionnelle itérative (ICE), traitements non supervisés fondés sur Markov cachés et extensions.  

 

Séance 6 : Traitements markoviens non supervisés ; 2 novembre (WP)

 

Estimation des paramètres dans les champs et chaînes de Markov triplets, exemples d’application à la segmentation non supervisée d’images.

 

Séance 7 : MCMC et méthodes particulaires ; 9 novembre (YP)

 

Méthodes générales par chaînes de Markov Monte Carlo, échantillonnage d’importance, filtrage particulaire, modèles de Markov cachés généraux.

 

Séance 8 : Examen ;

Mots clés

Réseaux bayésiens, fonction croyance, chaine de Markov
Veuillez patienter