En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire). Toutefois, son grand intérêt pratique du point de vue du temps de calcul vient de ce qu’une initialisation astucieuse (dite « préconditionnement ») permet d'aboutir en seulement quelques passages à une estimation très proche de la solution exacte : c'est pourquoi, en pratique, on se borne à un nombre d'itérations bien inférieur au nombre d'inconnues.

Property Value
dbo:abstract
  • En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire). Toutefois, son grand intérêt pratique du point de vue du temps de calcul vient de ce qu’une initialisation astucieuse (dite « préconditionnement ») permet d'aboutir en seulement quelques passages à une estimation très proche de la solution exacte : c'est pourquoi, en pratique, on se borne à un nombre d'itérations bien inférieur au nombre d'inconnues. La méthode du gradient biconjugué fournit une généralisation pour les matrices non symétriques. (fr)
  • En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire). Toutefois, son grand intérêt pratique du point de vue du temps de calcul vient de ce qu’une initialisation astucieuse (dite « préconditionnement ») permet d'aboutir en seulement quelques passages à une estimation très proche de la solution exacte : c'est pourquoi, en pratique, on se borne à un nombre d'itérations bien inférieur au nombre d'inconnues. La méthode du gradient biconjugué fournit une généralisation pour les matrices non symétriques. (fr)
dbo:discoverer
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 834173 (xsd:integer)
dbo:wikiPageLength
  • 13398 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 187731362 (xsd:integer)
dbo:wikiPageWikiLink
prop-fr:année
  • 1985 (xsd:integer)
  • 1996 (xsd:integer)
prop-fr:auteur
prop-fr:chap
  • Conjugate gradient and related KMP algorithms : the Beginnings (fr)
  • Conjugate gradient and related KMP algorithms : the Beginnings (fr)
prop-fr:collection
  • Math. Appl. pour la Maîtrise (fr)
  • Math. Appl. pour la Maîtrise (fr)
prop-fr:directeur
  • Loyce Adams (fr)
  • Loyce Adams (fr)
prop-fr:isbn
  • 2 (xsd:integer)
prop-fr:lang
  • en (fr)
  • en (fr)
prop-fr:lienAuteur
  • Philippe Ciarlet (fr)
  • Philippe Ciarlet (fr)
prop-fr:nom
  • Ciarlet (fr)
  • Ciarlet (fr)
prop-fr:prénom
  • Philippe (fr)
  • Philippe (fr)
prop-fr:publi
  • 2001 (xsd:integer)
prop-fr:texte
  • ℓ-BFGS (fr)
  • ℓ-BFGS (fr)
prop-fr:titre
  • Linear and nonlinear Conjugate gradient-related Methods (fr)
  • Introduction à l’analyse numérique matricielle et à l’optimisation (fr)
  • Linear and nonlinear Conjugate gradient-related Methods (fr)
  • Introduction à l’analyse numérique matricielle et à l’optimisation (fr)
prop-fr:trad
  • L-BFGS (fr)
  • L-BFGS (fr)
prop-fr:wikiPageUsesTemplate
prop-fr:éditeur
  • Masson (fr)
  • AMS-SIAM (fr)
  • Masson (fr)
  • AMS-SIAM (fr)
dct:subject
rdfs:comment
  • En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire). Toutefois, son grand intérêt pratique du point de vue du temps de calcul vient de ce qu’une initialisation astucieuse (dite « préconditionnement ») permet d'aboutir en seulement quelques passages à une estimation très proche de la solution exacte : c'est pourquoi, en pratique, on se borne à un nombre d'itérations bien inférieur au nombre d'inconnues. (fr)
  • En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire). Toutefois, son grand intérêt pratique du point de vue du temps de calcul vient de ce qu’une initialisation astucieuse (dite « préconditionnement ») permet d'aboutir en seulement quelques passages à une estimation très proche de la solution exacte : c'est pourquoi, en pratique, on se borne à un nombre d'itérations bien inférieur au nombre d'inconnues. (fr)
rdfs:label
  • CG-Verfahren (de)
  • Méthode du gradient conjugué (fr)
  • Método do gradiente conjugado (pt)
  • Метод спряженого градієнта (uk)
  • 共轭梯度法 (zh)
  • CG-Verfahren (de)
  • Méthode du gradient conjugué (fr)
  • Método do gradiente conjugado (pt)
  • Метод спряженого градієнта (uk)
  • 共轭梯度法 (zh)
rdfs:seeAlso
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:knownFor of
is dbo:wikiPageDisambiguates of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is prop-fr:renomméPour of
is oa:hasTarget of
is foaf:primaryTopic of