L'algorithme du gradient désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire. Cette description montre que l'algorithme fait partie de la famille des algorithmes à directions de descente.

Property Value
dbo:abstract
  • L'algorithme du gradient désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire. Cette description montre que l'algorithme fait partie de la famille des algorithmes à directions de descente. Les algorithmes d'optimisation sont généralement écrits pour minimiser une fonction. Si l'on désire maximiser une fonction, il suffira de minimiser son opposée. Il est important de garder à l'esprit le fait que le gradient, et donc la direction de déplacement, dépend du produit scalaire qui équipe l'espace hilbertien ; l'efficacité de l'algorithme dépend donc de ce produit scalaire. L'algorithme du gradient est également connu sous le nom d'algorithme de la plus forte pente ou de la plus profonde descente (steepest descent, en anglais) parce que le gradient est la pente de la fonction linéarisée au point courant et est donc, localement, sa plus forte pente (notion qui dépend du produit scalaire). Dans sa version la plus simple, l'algorithme ne permet de trouver ou d'approcher qu'un point stationnaire (i.e., un point en lequel le gradient de la fonction à minimiser est nul) d'un problème d'optimisation sans contrainte. De tels points sont des minima globaux, si la fonction est convexe. Des extensions sont connues pour les problèmes avec contraintes simples, par exemple des . Malgré des résultats de convergence théoriques satisfaisants, cet algorithme est généralement lent si le produit scalaire définissant le gradient ne varie pas avec le point courant de manière convenable, c'est-à-dire si l'espace vectoriel n'est pas muni d'une structure riemannienne appropriée, d'ailleurs difficilement spécifiable a priori. Il est donc franchement à déconseiller, même pour minimiser une fonction quadratique strictement convexe de deux variables[réf. nécessaire]. Toutefois, ses qualités théoriques font que l'algorithme sert de modèle à la famille des algorithmes à directions de descente ou de sauvegarde dans les algorithmes à régions de confiance. Le principe de cet algorithme remonte au moins à Cauchy (1847). (fr)
  • L'algorithme du gradient désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire. Cette description montre que l'algorithme fait partie de la famille des algorithmes à directions de descente. Les algorithmes d'optimisation sont généralement écrits pour minimiser une fonction. Si l'on désire maximiser une fonction, il suffira de minimiser son opposée. Il est important de garder à l'esprit le fait que le gradient, et donc la direction de déplacement, dépend du produit scalaire qui équipe l'espace hilbertien ; l'efficacité de l'algorithme dépend donc de ce produit scalaire. L'algorithme du gradient est également connu sous le nom d'algorithme de la plus forte pente ou de la plus profonde descente (steepest descent, en anglais) parce que le gradient est la pente de la fonction linéarisée au point courant et est donc, localement, sa plus forte pente (notion qui dépend du produit scalaire). Dans sa version la plus simple, l'algorithme ne permet de trouver ou d'approcher qu'un point stationnaire (i.e., un point en lequel le gradient de la fonction à minimiser est nul) d'un problème d'optimisation sans contrainte. De tels points sont des minima globaux, si la fonction est convexe. Des extensions sont connues pour les problèmes avec contraintes simples, par exemple des . Malgré des résultats de convergence théoriques satisfaisants, cet algorithme est généralement lent si le produit scalaire définissant le gradient ne varie pas avec le point courant de manière convenable, c'est-à-dire si l'espace vectoriel n'est pas muni d'une structure riemannienne appropriée, d'ailleurs difficilement spécifiable a priori. Il est donc franchement à déconseiller, même pour minimiser une fonction quadratique strictement convexe de deux variables[réf. nécessaire]. Toutefois, ses qualités théoriques font que l'algorithme sert de modèle à la famille des algorithmes à directions de descente ou de sauvegarde dans les algorithmes à régions de confiance. Le principe de cet algorithme remonte au moins à Cauchy (1847). (fr)
dbo:thumbnail
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 1112873 (xsd:integer)
dbo:wikiPageLength
  • 21321 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 187953865 (xsd:integer)
dbo:wikiPageWikiLink
prop-fr:année
  • 1995 (xsd:integer)
  • 2000 (xsd:integer)
  • 2003 (xsd:integer)
  • 2005 (xsd:integer)
  • 2006 (xsd:integer)
  • 2017 (xsd:integer)
  • 2018 (xsd:integer)
prop-fr:auteur
  • C. Lemaréchal (fr)
  • C. Sagastizábal (fr)
  • D. P. Bertsekas (fr)
  • J. Ch. Gilbert (fr)
  • J. F. Bonnans (fr)
  • Jacques Rappaz (fr)
  • Jan A. Snyman (fr)
  • Marco Picasso (fr)
  • Marie-Hélène Meurisse (fr)
  • Michel Bierlaire (fr)
  • Mordecai Avriel (fr)
  • Patrick Lascaux (fr)
  • Raymond Théodor (fr)
  • C. Lemaréchal (fr)
  • C. Sagastizábal (fr)
  • D. P. Bertsekas (fr)
  • J. Ch. Gilbert (fr)
  • J. F. Bonnans (fr)
  • Jacques Rappaz (fr)
  • Jan A. Snyman (fr)
  • Marco Picasso (fr)
  • Marie-Hélène Meurisse (fr)
  • Michel Bierlaire (fr)
  • Mordecai Avriel (fr)
  • Patrick Lascaux (fr)
  • Raymond Théodor (fr)
prop-fr:isbn
  • 0 (xsd:integer)
  • 1 (xsd:integer)
  • 978 (xsd:integer)
  • 9782340 (xsd:integer)
prop-fr:lang
  • en (fr)
  • en (fr)
prop-fr:titre
  • Practical Mathematical Optimization: An Introduction to Basic Optimization Theory and Classical and New Gradient-Based Algorithms (fr)
  • Numerical Optimization - Theoretical and Numerical Aspects (fr)
  • Introduction à l'analyse numérique (fr)
  • Introduction à l'optimisation différentiable (fr)
  • Nonlinear Programming (fr)
  • Nonlinear Programming: Analysis and Methods (fr)
  • Analyse numérique matricielle appliquée à l'art de l'ingénieur 2. Méthodes itératives (fr)
  • Algorithme numériques, Fondement théoriques et analyse pratique, Cours, exercices et applications avec MATLAB (fr)
  • Practical Mathematical Optimization: An Introduction to Basic Optimization Theory and Classical and New Gradient-Based Algorithms (fr)
  • Numerical Optimization - Theoretical and Numerical Aspects (fr)
  • Introduction à l'analyse numérique (fr)
  • Introduction à l'optimisation différentiable (fr)
  • Nonlinear Programming (fr)
  • Nonlinear Programming: Analysis and Methods (fr)
  • Analyse numérique matricielle appliquée à l'art de l'ingénieur 2. Méthodes itératives (fr)
  • Algorithme numériques, Fondement théoriques et analyse pratique, Cours, exercices et applications avec MATLAB (fr)
prop-fr:wikiPageUsesTemplate
prop-fr:éditeur
  • Springer Publishing (fr)
  • Athena Scientific (fr)
  • Dover Publishing (fr)
  • Springer Publishing (fr)
  • Athena Scientific (fr)
  • Dover Publishing (fr)
dct:subject
rdfs:comment
  • L'algorithme du gradient désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire. Cette description montre que l'algorithme fait partie de la famille des algorithmes à directions de descente. (fr)
  • L'algorithme du gradient désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction. Le déplacement le long de cette direction est déterminé par la technique numérique connue sous le nom de recherche linéaire. Cette description montre que l'algorithme fait partie de la famille des algorithmes à directions de descente. (fr)
rdfs:label
  • Algorithme du gradient (fr)
  • Gradient descent (en)
  • Suy giảm độ dốc (vi)
  • Градиентный спуск (ru)
  • Градієнтний спуск (uk)
  • 最急降下法 (ja)
rdfs:seeAlso
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is oa:hasTarget of
is foaf:primaryTopic of