OPTIMISATION NUMERIQUE, année 2025-2026
Université Versailles Saint
Quentin en Yvelines
Master AMS et Math&AS
Laurent Dumas (cours et TD)
Several
problems in industry, in physics and in economics consist
to minimize or to maximize an objective function. The objective of this course
is to provide a number of theorical and practical
methods for handling these issues. The focus is made on numerical deterministic
and stochastic optimization methods. The course could combine conceptual
presentations with practical hands-on computer sessions.
cours 2015-16, cours 2016-17, cours 2017-18, cours 2018-2019, cours 2019-2020, cours 2020-2021, cours 2021-2022, cours 2022-2023, cours 2023-2024, cours 2024-2025
1 Introduction et rappels
2 Algorithmes d'optimisation locale sans contraintes
3 Algorithmes d'optimisation locale avec contraintes
4 Algorithmes d'optimisation sans gradient
Planning des cours (edt
Celcat):
Lundi 15 septembre 8h00-11h10 : cours/TD
Vendredi 19 septembre 13h50-17h00 : cours/TD
Lundi 22 septembre 8h00-10h00 : cours/TD
Vendredi 26 septembre 13h50-17h00 : cours/TD
Lundi 29 septembre 8h00-10h00 : cours/TD
Lundi 6 octobre 8h00-10h00: cours/TD
Lundi 13 octobre 8h00-11h10: cours/TD
Lundi 20 octobre 8h00-11h10 : cours/TD
Vendredi 24 octobre 13h50-17h00 : cours/TD+CC1
Vendredi 7 novembre 13h50-17h00 : cours/TD
Lundi 10 novembre 8h00-11h10: TP
Vendredi 28 novembre 13h50-17h00 cours/TD
Vendredi 5 décembre 13h50-17h00 : cours/TD (+CC2 )
Vendredi 12 décembre 13h50-17h00 : cours/TD
Vendredi 19 décembre 15h30-18h40 : cours/TD
Vendredi 9 janvier13h50-17h00 (salle G107) : TP
Vendredi 16 janvier13h50-17h00 : rendu CC1 et CC2 + CC3
Contrôles continus:
Travaux dirigés:
TD1 :
introduction et rappels (énoncé)
TD2 :
introduction et rappels (énoncé)
TD3 :
algorithmes d’optimisation locale sans contrainte (énoncé)
TD4 :
algorithmes d’optimisation locale avec contraintes (énoncé)
TD5 :
algorithmes d’optimisation sans gradient partie 1(énoncé)
Travaux pratiques:
TP1 : énoncé (correction exercice1, exercice 2)
Scripts Python:
Méthodes de
descente : gradient, Newton et BFGS (script)
Diapos de cours (issus du livre de Max Cerf):
Chapitre 1 : partie 1 partie 2
Chapitre 2 : partie 3 partie 4
Chapitre 3: partie 5
Ouvrages :
·
J. F. Bonnans, Optimisation continue : cours et exercices, Dunod,
2006.
·
J. B. Hiriart-Urruty and C. Lemaréchal, Convex analysis and minimization algorithms,
Vol. I, II, Springer-Verlag, 199
·
A.
Conn, K. Scheinberg and L. Vincente, Introduction to Derivative Free Optimization,
SIAM, 2009.
·
Max
Cerf, Techniques d'optimisation, tome1 : optimisation continue, EDP
Sciences, 2022.
·
N. Gould, S. Leyffer, An
introdution to algorithms for non
linear optimization, online.
·
Un
article de review : Journal of Global Optimization 2013
·
Un article sur
la non convergence de Nelder
Mead : SIAM
J. Opt.1998
·
Un article sur
la convergence de la méthode MDS (variante de N.M): PhD1989
·
Un article sur
la convergence des méthodes à région de confiance: SIAM
Journal of Optimization, 2010
·
Description de
la méthode DIRECT : DIRECT.pdf (Journal
of Optimization theory and
application, 1993)
·
Document sur les
méthodes Response Surface Methods (RBF
and kriging)
·
Document review article on response
surface methods (RBF and kriging)