Attributes | Values |
---|
rdfs:label
| - Entropie de Hartley (fr)
- Hartley function (en)
|
rdfs:comment
| - La fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (en) (symbole : hart) en son honneur, ou encore . (fr)
|
sameAs
| |
Wikipage page ID
| |
Wikipage revision ID
| |
dbo:wikiPageWikiLink
| |
page length (characters) of wiki page
| |
dct:subject
| |
prop-fr:wikiPageUsesTemplate
| |
prov:wasDerivedFrom
| |
prop-fr:fr
| |
prop-fr:texte
| |
prop-fr:trad
| |
foaf:isPrimaryTopicOf
| |
named after
| |
has abstract
| - La fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (en) (symbole : hart) en son honneur, ou encore . (fr)
|
is dbo:wikiPageWikiLink
of | |
is Wikipage disambiguates
of | |
is oa:hasTarget
of | |
is foaf:primaryTopic
of | |