En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.

Property Value
dbo:abstract
  • En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona. (fr)
  • En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona. (fr)
dbo:namedAfter
dbo:thumbnail
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 758678 (xsd:integer)
dbo:wikiPageLength
  • 10163 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 186324512 (xsd:integer)
dbo:wikiPageWikiLink
prop-fr:année
  • 1951 (xsd:integer)
  • 1959 (xsd:integer)
  • 1967 (xsd:integer)
  • 2000 (xsd:integer)
  • 2010 (xsd:integer)
prop-fr:auteur
  • D. Silvey (fr)
  • I. Csiszár (fr)
  • L. Bregman (fr)
  • R. Leibler (fr)
  • S. Kullback (fr)
  • Sunichi Amari (fr)
  • D. Silvey (fr)
  • I. Csiszár (fr)
  • L. Bregman (fr)
  • R. Leibler (fr)
  • S. Kullback (fr)
  • Sunichi Amari (fr)
prop-fr:contenu
  • : Or le logarithme est strictement concave, d'où, en utilisant l' Inégalité de Jensen: : Avec égalité ssi est constant presque partout. Dans ce cas-là, la constante ne peut qu'être égale à 1 puisque les deux fonctions P et Q sont des probabilités. D'où les propriétés. (fr)
  • : Or le logarithme est strictement concave, d'où, en utilisant l' Inégalité de Jensen: : Avec égalité ssi est constant presque partout. Dans ce cas-là, la constante ne peut qu'être égale à 1 puisque les deux fonctions P et Q sont des probabilités. D'où les propriétés. (fr)
prop-fr:doi
  • 10.100700 (xsd:double)
  • 10.101600 (xsd:double)
prop-fr:déroulante
  • oui (fr)
  • oui (fr)
prop-fr:langue
  • en (fr)
  • en (fr)
prop-fr:libellé
  • Csiszár (fr)
  • Ali et Silvey 1967 (fr)
  • Amari 2010 (fr)
  • Amari et Nagaoka 2000 (fr)
  • Bregman 1967 (fr)
  • Kullback 1959 (fr)
  • Kullback et Leibler 1951 (fr)
  • Csiszár (fr)
  • Ali et Silvey 1967 (fr)
  • Amari 2010 (fr)
  • Amari et Nagaoka 2000 (fr)
  • Bregman 1967 (fr)
  • Kullback 1959 (fr)
  • Kullback et Leibler 1951 (fr)
prop-fr:lieu
  • New York (fr)
  • New York (fr)
prop-fr:mois
  • septembre (fr)
  • septembre (fr)
prop-fr:nom
  • Ali (fr)
  • Amari (fr)
  • Nagaoka (fr)
  • Ali (fr)
  • Amari (fr)
  • Nagaoka (fr)
prop-fr:numéro
  • 3 (xsd:integer)
prop-fr:pages
  • 79 (xsd:integer)
  • 131 (xsd:integer)
  • 200 (xsd:integer)
  • 229 (xsd:integer)
  • 241 (xsd:integer)
prop-fr:prénom
  • Hiroshi (fr)
  • M. S. (fr)
  • Sunichi (fr)
  • Hiroshi (fr)
  • M. S. (fr)
  • Sunichi (fr)
prop-fr:périodique
  • dbpedia-fr:The_Annals_of_Mathematical_Statistics
  • Frontiers of Electrical and Electronic Engineering in China (fr)
  • Journal of the Royal Statistical Society, Ser. B (fr)
  • Studia Sci. Math. Hungar. (fr)
  • USSR Computational Mathematics and Mathematical Physics (fr)
prop-fr:titre
  • Démonstration (fr)
  • The relaxation method of finding the common point of convex sets and its application to the solution of problems in convex programming (fr)
  • Information theory and statistics (fr)
  • Methods of information geometry (fr)
  • On information and sufficiency (fr)
  • Information-type measures of difference of probability distributions and indirect observation (fr)
  • Information geometry in optimization, machine learning and statistical inference (fr)
  • A general class of coefficients of divergence of one distribution from another (fr)
  • Démonstration (fr)
  • The relaxation method of finding the common point of convex sets and its application to the solution of problems in convex programming (fr)
  • Information theory and statistics (fr)
  • Methods of information geometry (fr)
  • On information and sufficiency (fr)
  • Information-type measures of difference of probability distributions and indirect observation (fr)
  • Information geometry in optimization, machine learning and statistical inference (fr)
  • A general class of coefficients of divergence of one distribution from another (fr)
prop-fr:volume
  • 2 (xsd:integer)
  • 5 (xsd:integer)
  • 7 (xsd:integer)
  • 22 (xsd:integer)
  • 28 (xsd:integer)
  • 191 (xsd:integer)
prop-fr:wikiPageUsesTemplate
prop-fr:éditeur
  • American Mathematical Society (fr)
  • John Wiley and Sons (fr)
  • SP Higher Education Press (fr)
  • American Mathematical Society (fr)
  • John Wiley and Sons (fr)
  • SP Higher Education Press (fr)
dct:subject
rdfs:comment
  • En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona. (fr)
  • En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona. (fr)
rdfs:label
  • Divergence de Kullback-Leibler (fr)
  • Divergencia de Kullback-Leibler (es)
  • Divergenza di Kullback-Leibler (it)
  • Divergência de Kullback-leibler (pt)
  • Dywergencja Kullbacka-Leiblera (pl)
  • Kullback-Leibler-Divergenz (de)
  • Kullback–Leibler divergence (en)
  • Phân kỳ Kullback–Leibler (vi)
  • カルバック・ライブラー情報量 (ja)
  • 相对熵 (zh)
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:wikiPageDisambiguates of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is oa:hasTarget of
is foaf:primaryTopic of