Méthodes de descente pour l’optimisation sous incertitudes

Auteurs: 

F. Poirion, Q. Mercier (ONERA)

Cet article traite des problèmes d'optimisation sous incertitudes, ces incertitudes étant modélisées par des variables aléatoires. L'optimisation robuste,   utilisée dans les applications industrielles, permet de se ramener à une formulation classique du problème,  introduisant le domaine d'incertitude et permettant l'utilisation d'algorithmes standards.  Ici nous présentons des approches dites stochastiques  qui utilisent la connaissance de la distribution des variables aléatoires et qui  introduisent l'espérance des fonctions objectifs  qui sont alors des quantités aléatoires. Pour les problèmes mono-objectif de telles approches sont basées sur l'algorithme de Robbins-Monro, on peut citer par exemple l'algorithme du gradient stochastique. Pour les problèmes d'optimisation multi-objectifs les quelques approches apparaissant dans la littérature sont basées sur l'emploi d'algorithmes génétiques couplés à des approches de type Monte-Carlo pour l'estimation des espérances. Elles sont très couteuses numériquement. Nous proposons ici un nouvel algorithme qui  ne nécessite pas la construction d'estimateurs pour les fonctions objectifs et qui est basé sur l'existence et la construction d'une direction commune de descente. Quelques exemples sont données en guise d'illustration.

Fichier attachéTaille
AL14-05.pdf1.6 Mo
Tags: