Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : * identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; * choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne. * (en) Edwin Thompson Jaynes, Information Theory and Statistical Mechanics, 1963 (lire en ligne)

Property Value
dbo:abstract
  • Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : * identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; * choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est - par définition de l'entropie - celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne. Le principe d'entropie maximale considère un principe d'équidistribution (principe d'indifférence de Laplace) et d'indépendance entre événements élémentaires ayant donné lieu à la distribution de probabilité. Il s'agit donc d'un a priori extrêmement « neutre », si toutefois l'espace d'hypothèses est bien choisi.Comme la mesure d'entropie de Shannon considère un ensemble d'états équiprobables, il peut être utile d'adapter l'espace d'hypothèses pour rendre les différents états équiprobables ou alors utiliser l'entropie relative pour normaliser l'expression par rapport à leur probabilités respectives a priori. * (en) Edwin Thompson Jaynes, Information Theory and Statistical Mechanics, 1963 (lire en ligne) (fr)
  • Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : * identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; * choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est - par définition de l'entropie - celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne. Le principe d'entropie maximale considère un principe d'équidistribution (principe d'indifférence de Laplace) et d'indépendance entre événements élémentaires ayant donné lieu à la distribution de probabilité. Il s'agit donc d'un a priori extrêmement « neutre », si toutefois l'espace d'hypothèses est bien choisi.Comme la mesure d'entropie de Shannon considère un ensemble d'états équiprobables, il peut être utile d'adapter l'espace d'hypothèses pour rendre les différents états équiprobables ou alors utiliser l'entropie relative pour normaliser l'expression par rapport à leur probabilités respectives a priori. * (en) Edwin Thompson Jaynes, Information Theory and Statistical Mechanics, 1963 (lire en ligne) (fr)
dbo:discoverer
dbo:isPartOf
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 1276504 (xsd:integer)
dbo:wikiPageLength
  • 2191 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 156950088 (xsd:integer)
dbo:wikiPageWikiLink
prop-fr:année
  • 1963 (xsd:integer)
prop-fr:langue
  • anglais (fr)
  • anglais (fr)
prop-fr:lireEnLigne
prop-fr:nom
  • Jaynes (fr)
  • Jaynes (fr)
prop-fr:prénom
  • Edwin Thompson (fr)
  • Edwin Thompson (fr)
prop-fr:titre
  • Information Theory and Statistical Mechanics (fr)
  • Information Theory and Statistical Mechanics (fr)
prop-fr:wikiPageUsesTemplate
dct:subject
rdfs:comment
  • Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : * identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; * choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne. * (en) Edwin Thompson Jaynes, Information Theory and Statistical Mechanics, 1963 (lire en ligne) (fr)
  • Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : * identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; * choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne. * (en) Edwin Thompson Jaynes, Information Theory and Statistical Mechanics, 1963 (lire en ligne) (fr)
rdfs:label
  • Principe d'entropie maximale (fr)
  • Principle of maximum entropy (en)
  • Принцип максимума энтропии (ru)
rdfs:seeAlso
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is oa:hasTarget of
is foaf:primaryTopic of