Cours de l'ENSAE "Optimisation Différentiable"

Cette page décrit le cours enseigné à l'ENSAE en première année, durant l'année académique 2014-2015, intitulé "Optimisation Différentiable". On y trouvera:

Présentation

L'optimisation est la discipline qui étudie les problèmes dans lesquels on cherche à déterminer «au mieux» des variables, qui sont contraintes d'appartenir à un ensemble donné. Déterminer «au mieux» signifie que l'on cherche à minimiser ou maximiser un critère fonctionnel dépendant de ces variables.

Ce cours présente les concepts, résultats et algorithmes principaux de l'optimisation différentiable (par opposition à l'optimisation combinatoire ou discrète, qui ne sera pas abordée) en dimension finie (on ne parlera pas de commande optimale ou de problèmes de forme optimale). On s'intéresse donc à la fois aux aspects théoriques (existence et unicité de solution, conditions d'optimalité, technique de pénalisation, dualité) et aux aspects algorithmiques (algorithmes à directions de descente et à régions de confiance, algorithmes du gradient, du gradient conjugué, de Newton, de quasi-Newton, pénalisation, lagrangien augmenté, optimisation quadratique successive, algorithmes de dualité, algorithmes du simplexe et de points intérieurs en optimisation linéaire). Ce cours construit ainsi les bases sur lesquelles peuvent s'appuyer des disciplines plus avancées, telles que l'optimisation stochastique, l'optimisation robuste, l'optimisation conique (SDP, copositive, ...), l'optimisation non lisse, la commande optimale, l'optimisation de forme, l'apprentissage, etc.

Cette branche de l'optimisation repose pour une bonne part sur l'analyse convexe, si bien que le cours introduit quelques notions et démontre quelques résultats de cette discipline importante des mathématiques, située entre l'algèbre linéaire et l'analyse non linéaire, qui jouent un rôle majeur en optimisation: projection, séparation, cône dual, conjugaison, sous-différentiabilité. On peut aussi voir l'analyse convexe, comme une voie d'accès à l'analyse non lisse, qui décrit des situations où sont utilisées des notions de différentiabilité plus faibles que la différentiabilité de Fréchet et qui est précieuse dans l'étude des inéquations variationnelles, en mécanique du contact, etc.

Il est sans doute opportun de mentionner ici des économistes ou des contributeurs à l'économie qui se sont singularisés (de notre point de vue) par des apports importants en optimisation et/ou ont eu des travaux fortement inspirés par cette discipline. Citons quelques précurseurs qui sont entrés dans l'histoire: Kenneth Arrow (1921, américain), Gérard Debreu (1921-2004, franco-américain), Ragnar Frisch (1895-1973, norvégien), Leonid Hurwicz (1917-2008, russo-américain), Hirofumi Uzawa (1928-2014, japonais), John von Neumann (1903-1957, américano-hongrois), ... On notera au passage que l'optimisation est une discipline « relativement jeune », qui n'a réellement commencé qu'après la seconde guerre mondiale, avec la prise en compte des contraintes d'inégalité. L'optimisation non linéaire a pris son essor dans les années 1960, grâce à l'invention des méthodes de quasi-Newton (William C. Davidon).

Enseignants

Anya Désilles
Matina Georgiou
Jean Charles Gilbert (responsable)
Cristopher Hermosilla
Massimiliano Pontil
Michel Sortais

Documents

Syllabus (27 janvier 2015)
Résumé (8 mars 2015)
Notations (31 janvier 2015)

Programme détaillé

Le cours se déroule entre janvier et avril 2015.
Cours magistral: 12 séances de 2h (le lundi matin).
Travaux dirigés: 9 séances de 2h (le vendredi matin).
Les sections du syllabus auxquelles se rapportent les sujets vus au cours magistral sont indiquées entre crochets.


Date
Heures
Type
Programme
Lundi
5 janvier 2015
11:00-13:10 Cours
magistral
1
Introduction à l'optimisation et à l'analyse convexe
- Définition d'un problème d'optimisation [1.1]
- Existence et unicité de solution [1.2]
- Caractérisation de la convexité d'une fonction par ses dérivées [3.3.2]
Lundi
12 janvier 2015
11:00-13:10 Cours
magistral
2
Conditions d'optimalité I et analyse convexe
- Cône tangent [4.1.1]
- Condition de Peano-Kantorovitch [4.1.2 et 4.1.3]
- Projection sur un convexe [2.4.1]
- Séparation des convexes [2.4.2]
- Cône dual et lemme de Farkas [2.4.4]
Vendredi
16 janvier 2015
8:30-10:40 Travaux
dirigés
1
Calcul différentiel
Convexité
Existence et unicité de solution
Lundi
19 janvier 2015
11:00-13:10 Cours
magistral
3
Conditions d'optimalité II (problèmes avec contraintes d'égalité)
- Conditions de Lagrange [4.3.1]
- Conditions du second ordre [4.3.2]
Vendredi
23 janvier 2015
8:30-10:40 Travaux
dirigés
2
Analyse convexe
CO sans contrainte
CO avec contraintes d'égalité
Lundi
26 janvier 2015
11:00-13:10 Cours
magistral
4
Conditions d'optimalité III (problèmes avec contraintes d'inégalité)
- Image linéaire d'un polyèdre convexe [2.3.2]
- Conditions de Karush-Kuhn-Tucker [4.4.1]
- CS de qualification de contraintes [4.4.2 sans démonstration]
Vendredi
30 janvier 2015
8:30-10:40 Travaux
dirigés
3
Analyse convexe
CO avec contraintes d'inégalité
Lundi
2 février 2015
11:00-13:10 Cours
magistral
5
Algorithmes à direction de descente
- Algorithmes à direction de descente [6.1, 6.2, 6.3 Cauchy et Wolfe, prop 6.11]
- Algorithme du gradient conjugué [7.2.1, 7.2.2, 7.2.3]
Vendredi
6 février 2015
8:30-10:40 Travaux
dirigés
4
Consolidation
Lundi
9 février 2015
11:00-13:10 Cours
magistral
6
Algorithmes newtoniens
- Algorithme de Newton [8 en partie]
- Algorithme de quasi-Newton [9.1]
Vendredi
13 février 2015
8:30-10:40 Partiel
Travaux
dirigés
5
(avec documents distribués et notes personnelles)
Moindres-carrés linéaires et non linéaires
Lundi
23 février 2015
11:00-13:10 Cours
magistral
7
Pénalisation
- Vue d'ensemble [11.1]
- Pénalisation extérieure [11.2]
- Lagrangien augmenté [11.3.1, 11.3.2, 11.3.4]
- Pénalisation exacte [11.4 contraintes d'égalité seulement]
Vendredi
27 février 2015
8:30-10:40 Travaux
dirigés
6
Projection
Pénalisation
Lundi
2 mars 2015
11:00-13:10 Cours
magistral
8
Compléments d'analyse convexe
- Enveloppe supérieure [prop 3.18]
Dualité
- Dualité minmax [12.1]
- Dualisation de contraintes fonctionnelles [12.2 en partie]
- Relaxation lagrangienne et méthode des multiplicateurs [12.3 en partie]
Lundi
9 mars 2015
11:00-13:10 Cours
magistral
9
Optmisation quadratique successive
- Algorithme local
- Globalisation
Vendredi
13 mars 2015
8:30-10:40 Travaux
dirigés
7
Dualité
Lundi
23 mars 2015
11:00-13:10 Cours
magistral
10
Optimisation linéaire
- Théorie: définition du problème [15.1], existence de solution [theor 15.4], condition d'optimalité [prop 15.6], dualité [15.3.1]
- Algorithmique: description succincte du simplexe et des points intérieurs
Compléments d'analyse convexe
- Enveloppe convexe fermée [2.4.4]
- Intérieur relatif d'un convexe
Lundi
30 mars 2015
11:00-13:10 Cours
magistral
11
Complément d'analyse convexe
- Propriétés de la projection [prop 2.16]
- Cône normal [prop 2.19]
- Minorante affine [prop 3.5]
Conjugaison
- Motivation, définition, propriétés [3.4.4-Conjuguée, prop 3.21]
- Biconjuguée [prop 3.23, 3.24, 3.25]
Vendredi
3 avril 2015
11:00-13:10 Travaux
dirigés
8
Conjugaison
Lundi
13 avril 2015
11:00-13:10 Cours
magistral
12
Sous-différentiabilité
- Motivation, définition du sous-diéferenitel
- Différentiabilité directionnelle des fonctions convexes [prop 3.6, 3.7]
- Autres définitions du sous-différentiel [prop 3.27] et sous-différentiabilité [prop 3.33]
- Propriétés du sous-différentiel [prop 3.29, 3.31(2), 3.34(2), 3.35, 3.38, 3.39, 3.40, 3.43]
Applications
- Sous-différentiel de la fonction valeur (interprétation marginaliste des multiplicateurs en optimisation convexe) [prop 4.40]
Jeudi
23 avril 2015
11:00-13:10 Travaux
dirigés
9
Sous-différentiabilité
Lundi
1 juin 2015
16:30-18:30 Examen (avec documents distribués et notes personnelles)
Mercredi
15 juillet 2015
11:00-13:00 Rattrapage (avec documents distribués et notes personnelles)