ALGORITHMES D'OPTIMISATION NON LINÉAIRE: DESCENTE DE GRADIENT, LM, BFGS, SIMPLEX

Signaler
Messages postés
329
Date d'inscription
samedi 18 décembre 2004
Statut
Membre
Dernière intervention
26 juillet 2021
-
Messages postés
229
Date d'inscription
dimanche 14 septembre 2003
Statut
Membre
Dernière intervention
20 août 2014
-
Cette discussion concerne un article du site. Pour la consulter dans son contexte d'origine, cliquez sur le lien ci-dessous.

https://codes-sources.commentcamarche.net/source/50236-algorithmes-d-optimisation-non-lineaire-descente-de-gradient-lm-bfgs-simplexe

Messages postés
229
Date d'inscription
dimanche 14 septembre 2003
Statut
Membre
Dernière intervention
20 août 2014

Merci à vous tous pour ces explications détaillées des cas pratiques ;-)
Messages postés
329
Date d'inscription
samedi 18 décembre 2004
Statut
Membre
Dernière intervention
26 juillet 2021
2
=> SHENRON666 : pour continuer encore un peu sur les utilisations de toutes ces méthodes on peut citer en géométrie 3d l'ajustement automatique d'une surface au meilleur voisinage d'un nuage de points. Qu'il s'agisse soit d'une surface implicite, exemple une sphère définie par son centre et son rayon, soit d'une surface paramétrique, exemple une surface de Bézier définie par un tableau de points de contrôle, dans tous les cas la fonction à minimiser est la somme des distances, ou de leurs carrés, des points du nuage à la surface provisoire et les variables sont les valeurs qui définissent cette surface. On en déduit la surface optimum.
=> PISTOL_PETE : merci d'avoir mis côte à côte ces diverses méthodes ayant des caractéristiques différentes et qui peuvent convenir plus ou moins à certains types de problèmes ou à certains cas particuliers. ( je n'ai pas 10 parce que cela ne se compile pas sur mon vieux VC6 !! )
Messages postés
1054
Date d'inscription
samedi 2 octobre 2004
Statut
Membre
Dernière intervention
9 juillet 2013
7
>PGL10 Effectivement au niveau de la stabilité la méthode Fletcher-Reeves avec relance périodique est très bonne.
Pour Shenron666, ces fonctions sont largement utilisé en chimie, en mécanique, en mathématique... en fait, presque toutes les disciplines.

Pour être concret, voici ma problématique; On sait que des particules d'un matériaux sont des parallélogrammes 3D. La problématique est de trouver la largeur, la longueur et l'épaisseur de ces particules: (L, l et e).
Ce sont donc mes trois paramètres que je vais optimiser par ces méthodes en minimisant une fonction "résidu" bien déterminé. Une fois la convergence atteinte, je connaitrais les paramètres optimaux (L*, l* et e*) de mes particules.
Messages postés
329
Date d'inscription
samedi 18 décembre 2004
Statut
Membre
Dernière intervention
26 juillet 2021
2
Les méthodes de calcul dont on parle ici ont pour but de trouver le minimum d'une fonction à plusieurs variables en principe sans contraintes, c'est à dire sans limites du domaine à explorer, mais avec un nombre d'appel à la fonction et/ou son gradient le plus faible possible. Cela sert en économie pour optimiser un gain en fonction de paramètres, cela sert pour résoudre des équations non linéaires, ainsi que de nombreux autres problèmes.
Afficher les 9 commentaires