Ce cours présente les concepts, résultats et algorithmes principaux de l'optimisation différentiable (par opposition à l'optimisation combinatoire ou discrète, qui ne sera pas abordée) en dimension finie (on ne parlera pas de commande optimale ou de problèmes de forme optimale). On s'intéresse donc à la fois aux aspects théoriques (existence et unicité de solution, conditions d'optimalité, technique de pénalisation, dualité) et aux aspects algorithmiques (algorithmes à directions de descente et à régions de confiance, algorithmes du gradient, du gradient conjugué, de Newton, de quasi-Newton, pénalisation, lagrangien augmenté, optimisation quadratique successive, algorithmes de dualité, algorithmes du simplexe et de points intérieurs en optimisation linéaire). Ce cours construit ainsi les bases sur lesquelles peuvent s'appuyer des disciplines plus avancées, telles que l'optimisation stochastique, l'optimisation robuste, l'optimisation conique (SDP, copositive, ...), l'optimisation non lisse, la commande optimale, l'optimisation de forme, l'apprentissage, etc.
Cette branche de l'optimisation repose pour une bonne part sur l'analyse convexe, si bien que le cours introduit quelques notions et démontre quelques résultats de cette discipline importante des mathématiques, située entre l'algèbre linéaire et l'analyse non linéaire, qui jouent un rôle majeur en optimisation: projection, séparation, cône dual, conjugaison, sous-différentiabilité. On peut aussi voir l'analyse convexe, comme une voie d'accès à l'analyse non lisse, qui décrit des situations où sont utilisées des notions de différentiabilité plus faibles que la différentiabilité de Fréchet et qui est précieuse dans l'étude des inéquations variationnelles, en mécanique du contact, etc.
Il est sans doute opportun de mentionner ici des économistes ou des contributeurs à l'économie qui se sont singularisés (de
notre point de vue) par des apports importants en optimisation et/ou ont eu des travaux fortement inspirés par cette discipline.
Citons quelques précurseurs qui sont entrés dans l'histoire:
Kenneth Arrow (1921, américain),
Gérard Debreu (1921-2004, franco-américain),
Ragnar Frisch (1895-1973, norvégien),
Leonid Hurwicz (1917-2008, russo-américain),
Hirofumi Uzawa (1928-2014, japonais),
John von Neumann (1903-1957, américano-hongrois),
...
On notera au passage que l'optimisation est une discipline « relativement jeune », qui n'a réellement commencé
qu'après la seconde guerre mondiale, avec la prise en compte des contraintes d'inégalité. L'optimisation non linéaire a
pris son essor dans les années 1960, grâce à l'invention des méthodes de quasi-Newton (William C. Davidon).
Enseignants
Anya Désilles
Matina Georgiou
Jean Charles Gilbert (responsable)
Cristopher Hermosilla
Massimiliano Pontil
Michel Sortais
Documents
Syllabus (27 janvier 2015)
Résumé (8 mars 2015)
Notations (31 janvier 2015)
Programme détaillé
Le cours se déroule entre janvier et avril 2015.
Cours magistral: 12 séances de 2h (le lundi matin).
Travaux dirigés: 9 séances de 2h (le vendredi matin).
Les sections du syllabus auxquelles se rapportent les sujets vus au cours magistral sont indiquées entre crochets.
Lundi 5 janvier 2015 |
11:00-13:10 | Cours magistral 1 |
Introduction à l'optimisation et à l'analyse convexe
- Définition d'un problème d'optimisation [1.1] - Existence et unicité de solution [1.2] - Caractérisation de la convexité d'une fonction par ses dérivées [3.3.2] |
Lundi 12 janvier 2015 |
11:00-13:10 | Cours magistral 2 |
Conditions d'optimalité I et analyse convexe
- Cône tangent [4.1.1] - Condition de Peano-Kantorovitch [4.1.2 et 4.1.3] - Projection sur un convexe [2.4.1] - Séparation des convexes [2.4.2] - Cône dual et lemme de Farkas [2.4.4] |
Vendredi 16 janvier 2015 |
8:30-10:40 | Travaux dirigés 1 |
Calcul différentiel
Convexité Existence et unicité de solution |
Lundi 19 janvier 2015 |
11:00-13:10 | Cours magistral 3 |
Conditions d'optimalité II (problèmes avec contraintes d'égalité)
- Conditions de Lagrange [4.3.1] - Conditions du second ordre [4.3.2] |
Vendredi 23 janvier 2015 |
8:30-10:40 | Travaux dirigés 2 |
Analyse convexe
CO sans contrainte CO avec contraintes d'égalité |
Lundi 26 janvier 2015 |
11:00-13:10 | Cours magistral 4 |
Conditions d'optimalité III (problèmes avec contraintes d'inégalité)
- Image linéaire d'un polyèdre convexe [2.3.2] - Conditions de Karush-Kuhn-Tucker [4.4.1] - CS de qualification de contraintes [4.4.2 sans démonstration] |
Vendredi 30 janvier 2015 |
8:30-10:40 | Travaux dirigés 3 |
Analyse convexe
CO avec contraintes d'inégalité |
Lundi 2 février 2015 |
11:00-13:10 | Cours magistral 5 |
Algorithmes à direction de descente
- Algorithmes à direction de descente [6.1, 6.2, 6.3 Cauchy et Wolfe, prop 6.11] - Algorithme du gradient conjugué [7.2.1, 7.2.2, 7.2.3] |
Vendredi 6 février 2015 |
8:30-10:40 | Travaux dirigés 4 |
Consolidation |
Lundi 9 février 2015 |
11:00-13:10 | Cours magistral 6 |
Algorithmes newtoniens
- Algorithme de Newton [8 en partie] - Algorithme de quasi-Newton [9.1] |
Vendredi 13 février 2015 |
8:30-10:40 | Partiel Travaux dirigés 5 |
(avec documents distribués et notes personnelles)
Moindres-carrés linéaires et non linéaires |
Lundi 23 février 2015 |
11:00-13:10 | Cours magistral 7 |
Pénalisation
- Vue d'ensemble [11.1] - Pénalisation extérieure [11.2] - Lagrangien augmenté [11.3.1, 11.3.2, 11.3.4] - Pénalisation exacte [11.4 contraintes d'égalité seulement] |
Vendredi 27 février 2015 |
8:30-10:40 | Travaux dirigés 6 |
Projection
Pénalisation |
Lundi 2 mars 2015 |
11:00-13:10 | Cours magistral 8 |
Compléments d'analyse convexe
- Enveloppe supérieure [prop 3.18] Dualité - Dualité minmax [12.1] - Dualisation de contraintes fonctionnelles [12.2 en partie] - Relaxation lagrangienne et méthode des multiplicateurs [12.3 en partie] |
Lundi 9 mars 2015 |
11:00-13:10 | Cours magistral 9 |
Optmisation quadratique successive
- Algorithme local - Globalisation |
Vendredi 13 mars 2015 |
8:30-10:40 | Travaux dirigés 7 |
Dualité |
Lundi 23 mars 2015 |
11:00-13:10 | Cours magistral 10 |
Optimisation linéaire
- Théorie: définition du problème [15.1], existence de solution [theor 15.4], condition d'optimalité [prop 15.6], dualité [15.3.1] - Algorithmique: description succincte du simplexe et des points intérieurs Compléments d'analyse convexe - Enveloppe convexe fermée [2.4.4] - Intérieur relatif d'un convexe |
Lundi 30 mars 2015 |
11:00-13:10 | Cours magistral 11 |
Complément d'analyse convexe
- Propriétés de la projection [prop 2.16] - Cône normal [prop 2.19] - Minorante affine [prop 3.5] Conjugaison - Motivation, définition, propriétés [3.4.4-Conjuguée, prop 3.21] - Biconjuguée [prop 3.23, 3.24, 3.25] |
Vendredi 3 avril 2015 |
11:00-13:10 | Travaux dirigés 8 |
Conjugaison |
Lundi 13 avril 2015 |
11:00-13:10 | Cours magistral 12 |
Sous-différentiabilité
- Motivation, définition du sous-diéferenitel - Différentiabilité directionnelle des fonctions convexes [prop 3.6, 3.7] - Autres définitions du sous-différentiel [prop 3.27] et sous-différentiabilité [prop 3.33] - Propriétés du sous-différentiel [prop 3.29, 3.31(2), 3.34(2), 3.35, 3.38, 3.39, 3.40, 3.43] Applications - Sous-différentiel de la fonction valeur (interprétation marginaliste des multiplicateurs en optimisation convexe) [prop 4.40] |
Jeudi 23 avril 2015 |
11:00-13:10 | Travaux dirigés 9 |
Sous-différentiabilité |
Lundi 1 juin 2015 |
16:30-18:30 | Examen | (avec documents distribués et notes personnelles) |
Mercredi 15 juillet 2015 |
11:00-13:00 | Rattrapage | (avec documents distribués et notes personnelles) |