Attributes | Values |
---|
rdfs:label
| - Cross entropy (en)
- Entropia creuada (ca)
- Entropia cruzada (pt)
- Entropie croisée (fr)
|
rdfs:comment
| - En théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : , où est l'entropie de , et est la divergence de Kullback-Leibler entre et . Pour et discrets, cela signifie (fr)
|
rdfs:seeAlso
| |
sameAs
| |
Wikipage page ID
| |
Wikipage revision ID
| |
dbo:wikiPageWikiLink
| |
page length (characters) of wiki page
| |
dct:subject
| |
prop-fr:wikiPageUsesTemplate
| |
prov:wasDerivedFrom
| |
foaf:isPrimaryTopicOf
| |
has abstract
| - En théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : , où est l'entropie de , et est la divergence de Kullback-Leibler entre et . Pour et discrets, cela signifie La formule est analogue pour des variables aléatoires continues : NB: La notation est parfois utilisées à la fois pour l'entropie croisée et l'entropie conjointe de et . (fr)
|
is dbo:wikiPageWikiLink
of | |
is oa:hasTarget
of | |
is foaf:primaryTopic
of | |