OPTIMISATION NUMERIQUE, année 2025-2026

Université Versailles Saint Quentin en Yvelines
Master AMS et Math&AS


Laurent Dumas (cours et TD) 

Several problems in industry, in physics and in economics consist to minimize or to maximize an objective function. The objective of this course is to provide a number of theorical and practical methods for handling these issues. The focus is made on numerical deterministic and stochastic optimization methods. The course could combine conceptual presentations with practical hands-on computer sessions. 


Archives

cours 2015-16, cours 2016-17, cours 2017-18, cours 2018-2019, cours 2019-2020, cours 2020-2021, cours 2021-2022, cours 2022-2023, cours 2023-2024, cours 2024-2025


Cours

1 Introduction et rappels

2 Algorithmes d'optimisation locale sans contraintes

3 Algorithmes d'optimisation locale avec contraintes

4 Algorithmes d'optimisation sans gradient


Planning des cours (edt Celcat):

Lundi 15 septembre 8h00-11h10 : cours/TD

Vendredi 19 septembre 13h50-17h00 : cours/TD

Lundi 22 septembre 8h00-10h00 : cours/TD

Vendredi 26 septembre 13h50-17h00 : cours/TD

Lundi 29 septembre 8h00-10h00 : cours/TD

Lundi 6 octobre 8h00-10h00: cours/TD

Lundi 13 octobre 8h00-11h10: cours/TD

Lundi 20 octobre 8h00-11h10 : cours/TD

Vendredi 24 octobre 13h50-17h00 : cours/TD+CC1

Vendredi 7 novembre 13h50-17h00 : cours/TD               

Lundi 10 novembre 8h00-11h10: TP

Vendredi 28 novembre 13h50-17h00 cours/TD

Vendredi 5 décembre 13h50-17h00 : cours/TD (+CC2 )

Vendredi 12 décembre 13h50-17h00 : cours/TD

Vendredi 19 décembre 15h30-18h40 : cours/TD

Vendredi 9 janvier13h50-17h00 (salle G107) : TP

Vendredi 16 janvier13h50-17h00 : rendu CC1 et CC2 + CC3

 

Contrôles continus:

CC1 : (énoncé, corrigé)

Travaux dirigés:

TD1 :  introduction et rappels (énoncé)

TD2 :  introduction et rappels (énoncé)

TD3 :  algorithmes d’optimisation locale sans contrainte (énoncé)

TD4 :  algorithmes d’optimisation locale avec contraintes (énoncé)

TD5 :  algorithmes d’optimisation sans gradient partie 1(énoncé)

Travaux pratiques:

TP1 : énoncé (correction exercice1, exercice 2)

Scripts Python:

Méthodes de descente : gradient, Newton et BFGS (script)

Diapos de cours (issus du livre de Max Cerf):

Chapitre 1 : partie 1  partie 2

Chapitre 2 : partie 3  partie 4

Chapitre 3: partie 5

Ouvrages :

·       J. F. Bonnans, Optimisation continue : cours et exercices, Dunod, 2006.

·       J. B. Hiriart-Urruty and C. Lemaréchal, Convex analysis and minimization algorithms, Vol. I, II, Springer-Verlag, 199

·       A. Conn, K. Scheinberg and L. Vincente, Introduction to Derivative Free Optimization, SIAM, 2009.

·       Max Cerf, Techniques d'optimisation, tome1 : optimisation continue, EDP Sciences, 2022.

Documents en ligne :

·       N. Gould, S. Leyffer, An introdution to algorithms for non linear optimization, online.

·       Un article de review Journal of Global Optimization 2013

·       Un article sur la non convergence de Nelder Mead : SIAM J. Opt.1998

·       Un article sur la convergence  de la méthode MDS (variante de N.M):  PhD1989

·       Un article sur la convergence des méthodes à région de confiance: SIAM Journal of Optimization, 2010

·       Description de la méthode DIRECT : DIRECT.pdf (Journal of Optimization theory and application, 1993)

·       Document sur les méthodes Response Surface Methods (RBF  and kriging)

·       Document  review article on response surface methods (RBF and kriging)