Property |
Value |
dbo:abstract
|
- En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona. (fr)
- En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona. (fr)
|
dbo:namedAfter
| |
dbo:thumbnail
| |
dbo:wikiPageExternalLink
| |
dbo:wikiPageID
| |
dbo:wikiPageLength
|
- 10163 (xsd:nonNegativeInteger)
|
dbo:wikiPageRevisionID
| |
dbo:wikiPageWikiLink
| |
prop-fr:année
|
- 1951 (xsd:integer)
- 1959 (xsd:integer)
- 1967 (xsd:integer)
- 2000 (xsd:integer)
- 2010 (xsd:integer)
|
prop-fr:auteur
|
- D. Silvey (fr)
- I. Csiszár (fr)
- L. Bregman (fr)
- R. Leibler (fr)
- S. Kullback (fr)
- Sunichi Amari (fr)
- D. Silvey (fr)
- I. Csiszár (fr)
- L. Bregman (fr)
- R. Leibler (fr)
- S. Kullback (fr)
- Sunichi Amari (fr)
|
prop-fr:contenu
|
- :
Or le logarithme est strictement concave, d'où, en utilisant l' Inégalité de Jensen:
:
Avec égalité ssi est constant presque partout. Dans ce cas-là, la constante ne peut qu'être égale à 1 puisque les deux fonctions P et Q sont des probabilités.
D'où les propriétés. (fr)
- :
Or le logarithme est strictement concave, d'où, en utilisant l' Inégalité de Jensen:
:
Avec égalité ssi est constant presque partout. Dans ce cas-là, la constante ne peut qu'être égale à 1 puisque les deux fonctions P et Q sont des probabilités.
D'où les propriétés. (fr)
|
prop-fr:doi
|
- 10.100700 (xsd:double)
- 10.101600 (xsd:double)
|
prop-fr:déroulante
| |
prop-fr:langue
| |
prop-fr:libellé
|
- Csiszár (fr)
- Ali et Silvey 1967 (fr)
- Amari 2010 (fr)
- Amari et Nagaoka 2000 (fr)
- Bregman 1967 (fr)
- Kullback 1959 (fr)
- Kullback et Leibler 1951 (fr)
- Csiszár (fr)
- Ali et Silvey 1967 (fr)
- Amari 2010 (fr)
- Amari et Nagaoka 2000 (fr)
- Bregman 1967 (fr)
- Kullback 1959 (fr)
- Kullback et Leibler 1951 (fr)
|
prop-fr:lieu
|
- New York (fr)
- New York (fr)
|
prop-fr:mois
|
- septembre (fr)
- septembre (fr)
|
prop-fr:nom
|
- Ali (fr)
- Amari (fr)
- Nagaoka (fr)
- Ali (fr)
- Amari (fr)
- Nagaoka (fr)
|
prop-fr:numéro
| |
prop-fr:pages
|
- 79 (xsd:integer)
- 131 (xsd:integer)
- 200 (xsd:integer)
- 229 (xsd:integer)
- 241 (xsd:integer)
|
prop-fr:prénom
|
- Hiroshi (fr)
- M. S. (fr)
- Sunichi (fr)
- Hiroshi (fr)
- M. S. (fr)
- Sunichi (fr)
|
prop-fr:périodique
|
- dbpedia-fr:The_Annals_of_Mathematical_Statistics
- Frontiers of Electrical and Electronic Engineering in China (fr)
- Journal of the Royal Statistical Society, Ser. B (fr)
- Studia Sci. Math. Hungar. (fr)
- USSR Computational Mathematics and Mathematical Physics (fr)
|
prop-fr:titre
|
- Démonstration (fr)
- The relaxation method of finding the common point of convex sets and its application to the solution of problems in convex programming (fr)
- Information theory and statistics (fr)
- Methods of information geometry (fr)
- On information and sufficiency (fr)
- Information-type measures of difference of probability distributions and indirect observation (fr)
- Information geometry in optimization, machine learning and statistical inference (fr)
- A general class of coefficients of divergence of one distribution from another (fr)
- Démonstration (fr)
- The relaxation method of finding the common point of convex sets and its application to the solution of problems in convex programming (fr)
- Information theory and statistics (fr)
- Methods of information geometry (fr)
- On information and sufficiency (fr)
- Information-type measures of difference of probability distributions and indirect observation (fr)
- Information geometry in optimization, machine learning and statistical inference (fr)
- A general class of coefficients of divergence of one distribution from another (fr)
|
prop-fr:volume
|
- 2 (xsd:integer)
- 5 (xsd:integer)
- 7 (xsd:integer)
- 22 (xsd:integer)
- 28 (xsd:integer)
- 191 (xsd:integer)
|
prop-fr:wikiPageUsesTemplate
| |
prop-fr:éditeur
|
- American Mathematical Society (fr)
- John Wiley and Sons (fr)
- SP Higher Education Press (fr)
- American Mathematical Society (fr)
- John Wiley and Sons (fr)
- SP Higher Education Press (fr)
|
dct:subject
| |
rdfs:comment
|
- En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona. (fr)
- En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA[réf. nécessaire], c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona. (fr)
|
rdfs:label
|
- Divergence de Kullback-Leibler (fr)
- Divergencia de Kullback-Leibler (es)
- Divergenza di Kullback-Leibler (it)
- Divergência de Kullback-leibler (pt)
- Dywergencja Kullbacka-Leiblera (pl)
- Kullback-Leibler-Divergenz (de)
- Kullback–Leibler divergence (en)
- Phân kỳ Kullback–Leibler (vi)
- カルバック・ライブラー情報量 (ja)
- 相对熵 (zh)
|
owl:sameAs
| |
prov:wasDerivedFrom
| |
foaf:depiction
| |
foaf:isPrimaryTopicOf
| |
is dbo:wikiPageDisambiguates
of | |
is dbo:wikiPageRedirects
of | |
is dbo:wikiPageWikiLink
of | |
is oa:hasTarget
of | |
is foaf:primaryTopic
of | |