En mathématiques, et plus particulièrement en analyse, la méthode des multiplicateurs de Lagrange permet de trouver les points stationnaires (maximum, minimum…) d'une fonction dérivable d'une ou plusieurs variables, sous contraintes.↑ Joseph-Louis Lagrange, « Manière plus simple et plus générale de faire usage de la formule de l'équilibre donnée dans la section deuxième », dans Mécanique analytique. Tome premier. pages = 77-112 (lire en ligne)

PropertyValue
dbpedia-owl:abstract
  • En mathématiques, et plus particulièrement en analyse, la méthode des multiplicateurs de Lagrange permet de trouver les points stationnaires (maximum, minimum…) d'une fonction dérivable d'une ou plusieurs variables, sous contraintes.
  • En problemes d'optimització matemàtica, el mètode dels multiplicadors de Lagrange, anomenat així per Joseph Louis Lagrange, és un mètode per trobar l'extrem d'una funció de diverses variables subjecte a una o més restriccions; és l'eina bàsica en l'optimització no lineal amb restriccions.Simplificant, aquesta tècnica permet determinar a quin lloc d'un conjunt particular de punts (com una esfera, un cercle o un pla) es troba l'extrem d'una funció donada. La tècnica aplica una generalització i formalització del fet que el conjunt de tots els punts a alçada h sobre la superfície de la terra és un conjunt tangent al cim d'una muntanya d'alçada h.Més formalment, els multiplicadors de Lagrange calculen els punts estacionaris de la funció restringida. En virtut del teorema de Fermat, els extrems es troben en aquests punts, o bé en els límits, o bé en punts on la funció no és diferenciable.Redueix el trobar els punts estacionaris d'una funció restringida d' n variables amb k restriccions a trobar els punts estacionaris d'una funció no restringida d' n+k variables. El mètode introdueix una variable escalar desconeguda nova (anomenada multiplicador de Lagrange) per a cada restricció, i defineix una funció nova (anomenada Lagrangià) en termes de la funció original, les restriccions, i els multiplicadors Lagrange.
  • ラグランジュの未定乗数法(ラグランジュのみていじょうすうほう、英: method of Lagrange multiplier)とは、束縛条件のもとで最適化を行うための数学(解析学)的な方法である。いくつかの変数に対して、いくつかの関数の値を固定するという束縛条件のもとで、別のある1つの関数の極値を求めるという問題を考える。各束縛条件に対して定数(未定乗数、Lagrange multiplier)を用意し、これらを係数とする線形結合を新しい関数(未定乗数も新たな変数とする)として考えることで、束縛問題を普通の極値問題として解くことができる方法である。
  • En los problemas de optimización, el método de losmultiplicadores de Lagrange, llamados así en honor a Joseph Louis Lagrange, es un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente. Estas nuevas variables escalares desconocidas, una para cada restricción, son llamadas multiplicadores de Lagrange. El método dice que los puntos donde la función tiene un extremo condicionado con k restricciones, están entre los puntos estacionarios de una nueva función sin restricciones construida como una combinación lineal de la función y las funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores.La demostración usa derivadas parciales y la regla de la cadena para funciones de varias variables. Se trata de extraer una función implícita de las restricciones, y encontrar las condiciones para que las derivadas parciales con respecto a las variables independientes de la función sean iguales a cero.
  • Mnożnik Lagrange’a – metoda obliczania ekstremum warunkowego funkcji różniczkowalnej wykorzystywana w teorii optymalizacji. Nazwa metody pochodzi od nazwiska francuskiego matematyka Josepha Louisa Lagrange’a.
  • 라그랑주 승수법(Lagrange乘數法, 영어: Lagrange multiplier method)은 제약이 있는 최적화 문제를 푸는 방법이다. 최적화하려 하는 값에 형식적인 라그랑주 승수(Lagrange乘數, 영어: Lagrange multiplier) 항을 더하여, 제약된 문제를 제약이 없는 문제로 바꾼다. 조제프루이 라그랑주가 도입하였다. 수학, 라그랑주 역학, 경제학, 운용 과학 등에 쓰인다.
  • In mathematical optimization, the method of Lagrange multipliers (named after Joseph Louis Lagrange) is a strategy for finding the local maxima and minima of a function subject to equality constraints.For instance (see Figure 1), consider the optimization problemmaximize f(x, y)subject to g(x, y) = c.We need both f and g to have continuous first partial derivatives. We introduce a new variable (λ) called a Lagrange multiplier and study the Lagrange function (or Lagrangian) defined bywhere the λ term may be either added or subtracted. If f(x0, y0) is a maximum of f(x, y) for the original constrained problem, then there exists λ0 such that (x0, y0, λ0) is a stationary point for the Lagrange function (stationary points are those points where the partial derivatives of Λ are zero, i.e., ∇Λ = 0). However, not all stationary points yield a solution of the original problem. Thus, the method of Lagrange multipliers yields a necessary condition for optimality in constrained problems. Sufficient conditions for a minimum or maximum also exist.
  • De term Lagrange-multiplicator is een begrip en techniek uit de wiskunde (en de studie van wiskundige optimalisatie) genoemd naar de wiskundige Joseph Louis Lagrange. De naam verwijst naar een bepaald soort hulpvariabele die bij deze techniek wordt ingevoerd, waarmee zowel de formulering als de oplossing van het optimalisatieprobleem sterk vereenvoudigt.
dbpedia-owl:thumbnail
dbpedia-owl:wikiPageExternalLink
dbpedia-owl:wikiPageID
  • 222152 (xsd:integer)
dbpedia-owl:wikiPageLength
  • 66448 (xsd:integer)
dbpedia-owl:wikiPageOutDegree
  • 72 (xsd:integer)
dbpedia-owl:wikiPageRevisionID
  • 100458855 (xsd:integer)
dbpedia-owl:wikiPageWikiLink
prop-fr:contenu
  • Il existe deux méthodes célèbres pour démontrer les résultats de Lagrange. La première est souvent appelée méthode des pénalités, elle consiste à considérer une suite définie de la manière suivante : La suite des minima de ces fonctions tend vers x0. L'autre méthode utilise le théorème des fonctions implicites. C'est un dérivé de cette méthode qui est utilisé ici. Le théorème n'est pas utilisé, mais les inégalités à la base de la démonstration sont présentes dans la preuve. :* Cas où ψ est une fonction affine : La démonstration de ce cas particulier n'est pas nécessaire pour le cas général, en revanche, elle permet de comprendre la logique utilisée et fixe les notations. Soit x1 un point de E tel que la différentielle de ψ possède un noyau qui n'est pas dans l'orthogonal du gradient de φ. On montre que x1 n'est pas un extremum. La contraposée de ce résultat permet de conclure. Par hypothèse il existe un vecteur k1 élément du noyau de la différentielle de ψ au point x1 et qui n'est pas orthogonal au gradient. On choisit k1 de norme 1 et de sens tel que le produit scalaire de ce vecteur avec le gradient soit strictement positif. On note α ce produit scalaire. Si s est un réel positif, l'égalité définissant le gradient, appliquée au vecteur s.k1 est : si s est choisi suffisamment petit, alors o peut être choisi plus petit, en valeur absolue, que n'importe quelle constante strictement positive que multiplie s, par exemple : s.α/2. De manière formelle : Le fait que l'image par ψ de x1 + s.k1 soit un élément de G ainsi que la majoration précédente, montrent que x1 ne peut être un maximum local. En choisissant s négatif, on montre que x1 ne peut pas non plus être un minimum local. :* Cas général : right|200px Dans le cas général, on ne peut supposer que x1 + s.k1 soit élément de G. La situation est illustrée sur la figure de droite. L'ensemble G est représenté en bleu, le gradient de φ en rouge et la droite dirigée par k1 en vert. Pour une valeur de s suffisamment petite, on construit un vecteur k, égal à s.k1 et proche de G. Une technique analogue à celle du théorème des fonctions implicites permet de trouver un point x2, suffisamment proche de x1 + k pour que le raisonnement précédent puisse s'appliquer avec peu de modifications. La technique consiste à établir quatre inégalités qui montrent le résultat recherchée. :: Première inégalité : :Elle consiste à utiliser la définition du gradient au point x1, mais cette fois ci, valable pour tout vecteur de norme suffisamment petite : Par rapport au cas particulier affine, la constante est choisie un peu différemment, elle est maintenant égale à α/8. La zone sur laquelle la majoration est vérifiée est un peu modifiée, elle correspond maintenant aux vecteurs de normes plus petites que 2μ1. Les raisons techniques qui poussent à ces modifications apparaissent à la conclusion de cette démonstration. :: Deuxième inégalité : :La deuxième inégalité permet de borner la norme du vecteur, illustré en bleu ciel et qu'il faut ajouter à x1 + s.k1 pour retrouver le point de G qui montre que x1 n'est pas un maximum local. L'objectif est de montrer qu'il existe un réel strictement positif m tel que : :Ici le symbole Bx1 désigne la boule de centre x1 et de rayon 1. Pour établir ce résultat, on utilise deux propriétés des compacts. Une fonction continue l'est uniformément sur un compact, ensuite elle atteint sa borne inférieure. La différentielle de ψ en un point quelconque est continue, comme d'ailleurs toute application linéaire en dimension finie. Composée avec la norme, aussi continue, elle atteint sa borne inférieure sur l'intersection de l'orthogonal de son noyau et de la sphère unité. Cette intersection est en effet compacte. On appelle f la fonction qui à une application linéaire de E dans F associe cette borne inférieure. Par construction elle ne peut prendre de valeur nulle. On considère ensuite la fonction g, qui à x élément de E associe l'image par f de la différentielle de ψ au point x. Une fois sa continuité sur la boule fermée de centre x1 et de rayon 1 démontrée, on sait que cette fonction atteint son minimum m. La majoration définit ce minimum. :Pour établir l'inégalité ' il suffit donc démontrer la continuité de g. L'application qui à x associe la différentielle de ψ au point x est continue par hypothèse. Elle est donc uniformément continue sur la boule de centre x1 et de rayon 1 : :Soit v1 un vecteur de norme 1, tel que : :L'espace des applications linéaires de E dans F est muni de la norme qui associe à une application la borne supérieure des normes de son image de la boule unité. Comme les points y1 et y2 sont choisis à une distance inférieure à l'un de l'autre. On dispose de la majoration : :Cette majoration, ainsi que la même appliquée à y2, démontre la continuité recherchée pour conclure la preuve de la majoration ' : :: Troisième inégalité : : On dispose d'une majoration comparable à ', mais cette fois appliquée à ψ et utilisant la continuité uniforme. Il existe un réel strictement positif μ2 tel que, si θ désigne l'angle entre le gradient de φ au point x1 et k : :: Quatrième inégalité : :La fonction Dψ, qui au point x associe la différentielle de ψ au point x est continue, en particulier au point x1, ce qui montre que : Une fois les quatre inégalités établies, il devient possible de définir les vecteurs h et k et de conclure. Soient s un réel strictement strictement positif et plus petit que μ1, μ2, μ3 et que 1/2, on définit le vecteur k de la figure comme étant égal à s.k1. Soit x2 le vecteur le plus proche de x + k et élément de G et h le vecteur x2 - x1. Enfin l1 désigne le vecteur colinéaire à h - k de même sens et de norme 1, c'est le vecteur illustré en bleu ciel de la figure. Le réel positif t est tel que t.l1 soit égal à h - k. Le choix du vecteur k est tel que t est suffisamment petit pour conclure. :: Conclusion : : Le point t.l1 est le plus petit vecteur de E tel que x1 + s.k1 + t.l1 est un élément de G. Autrement dit : :La majoration ', appliquée au point x2, se traduit par : :De plus, par définition de k1 la différentielle de ψ est nulle sur k1 en x1, on en déduit d'après la majoration ' : :Le point t.l1 est le plus petit vecteur de E tel que x1 + s.k1 + t.l1 est un élément de G. On remarque que x1 est un élément de G. En conséquence, x1 + s.k1 - s.k1 est aussi un élément de G et t.l1 est de norme plus petite que s.k1, ce qui revient à dire que t est plus petit que s, donc : :Le vecteur l1 est orthogonal au noyau de Dψ au point x2. En effet, le point x2 est le plus proche de x2 - t.l1 dans G. Si p est un vecteur du noyau, x2 + u.p est plus loin de x2 - t.l1 que ne l'est x2, ici u désigne un nombre réel : :Ce qui montre que : :Le produit scalaire de l1 et p est nul, ce qui montre bien que l1 est orthogonal au noyau de Dψ au point x2. Le point x2 est élément de la boule de rayon 1 et centre x1. La majoration ' montre que : :On peut maintenant appliquer la majoration ' : :et Le point x2 est un élément de G ayant une image par φ strictement plus grande que x1, ce qui montre que x1 n'est pas un maximum local. On montre de même que x1 n'est pas non plus un minimum local, ce qui termine la démonstration. :* Il existe un vecteur λ0 de F tel que la somme de l'image de λ0 par la transposée de la différentielle de ψ au point x0 et du gradient de φ en ce point soit nulle : C'est une conséquence directe du résultat précédent et des propriétés de la transposition. Remarquons tout d'abord que l'image de la transposée d'une application linéaire est un sous-espace vectoriel inclus dans l'orthogonal du noyau. Pour s'en convaincre, montrons qu'un élément v de l'image de la transposée de la différentielle de ψ au point x0, d' antécédent de λ, possède un produit scalaire avec un élément w du noyau de la différentielle, nul : Montrons maintenant que l'orthogonal du noyau de la différentielle possède la même dimension que l'image de la transposée. L'application différentielle est surjective, son image est de dimension m, la transposée ne modifie pas le rang d'une application linéaire, l'image de sa transposée est donc aussi de dimension m. La somme des dimensions de l'image et du noyau est égale à celle de l'espace vectoriel de départ, ici E de dimension n. Comme l'image est de dimension m, le noyau est de dimension n - m. L'orthogonal du noyau est donc de dimension m. Pour résumer, l'orthogonal du noyau de la différentielle contient l'image de sa transposée et est de même dimension, ce qui montre l'égalité des deux sous-espaces vectoriels. Le gradient de φ au point x0 est dans l'orthogonal au noyau de la différentielle, il est donc dans l'image de sa transposée, ce qui montre l'existence du vecteur λ0. :* Il existe un vecteur λ0 de F tel que la fonction L de ExF dans R admet un gradient nul en :' Pour cela calculons l'image de , un point de ExF par la différentielle de L au point , λ0 étant le vecteur de F'' défini lors de la démonstration précédente La définition de λ0 montre que : Le gradient recherché est bien nul au point étudié.
prop-fr:titre
  • Démonstrations
prop-fr:wikiPageUsesTemplate
dcterms:subject
rdfs:comment
  • En mathématiques, et plus particulièrement en analyse, la méthode des multiplicateurs de Lagrange permet de trouver les points stationnaires (maximum, minimum…) d'une fonction dérivable d'une ou plusieurs variables, sous contraintes.↑ Joseph-Louis Lagrange, « Manière plus simple et plus générale de faire usage de la formule de l'équilibre donnée dans la section deuxième », dans Mécanique analytique. Tome premier. pages = 77-112 (lire en ligne)
  • ラグランジュの未定乗数法(ラグランジュのみていじょうすうほう、英: method of Lagrange multiplier)とは、束縛条件のもとで最適化を行うための数学(解析学)的な方法である。いくつかの変数に対して、いくつかの関数の値を固定するという束縛条件のもとで、別のある1つの関数の極値を求めるという問題を考える。各束縛条件に対して定数(未定乗数、Lagrange multiplier)を用意し、これらを係数とする線形結合を新しい関数(未定乗数も新たな変数とする)として考えることで、束縛問題を普通の極値問題として解くことができる方法である。
  • Mnożnik Lagrange’a – metoda obliczania ekstremum warunkowego funkcji różniczkowalnej wykorzystywana w teorii optymalizacji. Nazwa metody pochodzi od nazwiska francuskiego matematyka Josepha Louisa Lagrange’a.
  • 라그랑주 승수법(Lagrange乘數法, 영어: Lagrange multiplier method)은 제약이 있는 최적화 문제를 푸는 방법이다. 최적화하려 하는 값에 형식적인 라그랑주 승수(Lagrange乘數, 영어: Lagrange multiplier) 항을 더하여, 제약된 문제를 제약이 없는 문제로 바꾼다. 조제프루이 라그랑주가 도입하였다. 수학, 라그랑주 역학, 경제학, 운용 과학 등에 쓰인다.
  • De term Lagrange-multiplicator is een begrip en techniek uit de wiskunde (en de studie van wiskundige optimalisatie) genoemd naar de wiskundige Joseph Louis Lagrange. De naam verwijst naar een bepaald soort hulpvariabele die bij deze techniek wordt ingevoerd, waarmee zowel de formulering als de oplossing van het optimalisatieprobleem sterk vereenvoudigt.
  • En los problemas de optimización, el método de losmultiplicadores de Lagrange, llamados así en honor a Joseph Louis Lagrange, es un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente.
  • En problemes d'optimització matemàtica, el mètode dels multiplicadors de Lagrange, anomenat així per Joseph Louis Lagrange, és un mètode per trobar l'extrem d'una funció de diverses variables subjecte a una o més restriccions; és l'eina bàsica en l'optimització no lineal amb restriccions.Simplificant, aquesta tècnica permet determinar a quin lloc d'un conjunt particular de punts (com una esfera, un cercle o un pla) es troba l'extrem d'una funció donada.
  • In mathematical optimization, the method of Lagrange multipliers (named after Joseph Louis Lagrange) is a strategy for finding the local maxima and minima of a function subject to equality constraints.For instance (see Figure 1), consider the optimization problemmaximize f(x, y)subject to g(x, y) = c.We need both f and g to have continuous first partial derivatives.
rdfs:label
  • Multiplicateur de Lagrange
  • Lagrange multiplier
  • Lagrange-Multiplikator
  • Lagrange-multiplicator
  • Lagrangeren biderkatzaile
  • Metodo dei moltiplicatori di Lagrange
  • Mnożniki Lagrange’a
  • Multiplicadores de Lagrange
  • Multiplicadores de Lagrange
  • Multiplicadors de Lagrange
  • Метод множителей Лагранжа
  • ラグランジュの未定乗数法
  • 라그랑주 승수법
owl:sameAs
http://www.w3.org/ns/prov#wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbpedia-owl:wikiPageDisambiguates of
is dbpedia-owl:wikiPageRedirects of
is dbpedia-owl:wikiPageWikiLink of
is foaf:primaryTopic of