Descriptif
Les problèmes d'optimisation se rencontrent dans de nombreux domaines de l'ingénierie où les fonctions à optimiser peuvent être de différents types: boîte noire ou explicite, à variables continues ou discrètes, coûteuses à évaluer ou non, etc.. Dans la plupart des cas, le gradient de ces fonctions n'est pas facilement calculable. D'autre part, elles possèdent en général un grand nombre de minima locaux imposant de définir de nouvelles stratégies d’optimisation. Ce cours présente les principales méthodes d'optimisation sans gradient développées ces dernières années, de type locales ou globales, déterministes ou stochastiques, ainsi que les modèles approchés permettant de réduire le coût de calcul. Le cours sera illustré par plusieurs applications industrielles ou en sciences du vivant et comprendra la réalisation d'un projet dans un de ces thèmes.
Diplôme(s) concerné(s)
Parcours de rattachement
Pour les étudiants du diplôme M2 AMS - Analyse, Modélisation, SImulation
Fonctions de plusieurs variables, probabilités (cours niveau L3 ou M1)
Format des notes
Numérique sur 20Littérale/grade européenPour les étudiants du diplôme M2 AMS - Analyse, Modélisation, SImulation
Pour les étudiants du diplôme Master 2 OPTIM
Programme détaillé
- Partie 1: Méthodes de type stochastiques
- Algorithmes génétiques
- Stratégies d'évolution (dont la méthode CMA-ES)
- Partie 2: Méthodes de type détermnistes
- Méthodes locales directes (Nelder Mead, MDS)
- Méthodes locales de type régions de confiance (NEWUOA)
- Méthodes globales déterministes (DIRECT)
- Méthodes globales de type surfaces de réponse (RBF, Krigeage)