This HTML5 document contains 35 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dcthttp://purl.org/dc/terms/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
dbpedia-eshttp://es.dbpedia.org/resource/
n4http://g.co/kg/m/
rdfshttp://www.w3.org/2000/01/rdf-schema#
category-frhttp://fr.dbpedia.org/resource/Catégorie:
dbpedia-cshttp://cs.dbpedia.org/resource/
n17http://fr.dbpedia.org/resource/Modèle:
wikipedia-frhttp://fr.wikipedia.org/wiki/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
n10http://ma-graph.org/entity/
dbpedia-frhttp://fr.dbpedia.org/resource/
provhttp://www.w3.org/ns/prov#
prop-frhttp://fr.dbpedia.org/property/
xsdhhttp://www.w3.org/2001/XMLSchema#
dbrhttp://dbpedia.org/resource/
wikidatahttp://www.wikidata.org/entity/

Statements

Subject Item
dbpedia-fr:Entropie_de_Hartley
rdfs:label
Entropie de Hartley Hartley function
rdfs:comment
La fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (en) (symbole : hart) en son honneur, ou encore .
owl:sameAs
n4:09_n33 n10:67265548 wikidata:Q3055336 dbpedia-es:Función_de_Hartley dbr:Hartley_function dbpedia-cs:Hartleyova_funkce
dbo:wikiPageID
5952377
dbo:wikiPageRevisionID
190987545
dbo:wikiPageWikiLink
dbpedia-fr:Entropie_de_Shannon dbpedia-fr:Entropie_de_Rényi dbpedia-fr:Bit dbpedia-fr:Nat_(information) category-fr:Théorie_de_l'information dbpedia-fr:Ralph_Hartley dbpedia-fr:Produit_cartésien dbpedia-fr:Logarithme dbpedia-fr:Entier_naturel dbpedia-fr:Base dbpedia-fr:Logarithme_naturel dbpedia-fr:Nombre_réel dbpedia-fr:Decit
dbo:wikiPageLength
3687
dct:subject
category-fr:Théorie_de_l'information
prop-fr:wikiPageUsesTemplate
n17:Lien n17:Portail
prov:wasDerivedFrom
wikipedia-fr:Entropie_de_Hartley?oldid=190987545&ns=0
prop-fr:fr
Hartley
prop-fr:texte
hartley
prop-fr:trad
Hartley
foaf:isPrimaryTopicOf
wikipedia-fr:Entropie_de_Hartley
dbo:namedAfter
dbpedia-fr:Ralph_Hartley
dbo:abstract
La fonction de Hartley ou entropie de Hartley est une mesure de l'incertitude, introduite par Ralph Hartley en 1928. Si on choisit un échantillon d'un ensemble fini A de façon aléatoire et uniforme, l'information fournie une fois que la sortie est connue est l'entropie de Hartley. Si la base du logarithme est 2, alors l'incertitude se mesure en bits. S'il s'agit du logarithme naturel, alors l'unité est le nat. Hartley quant à lui utilisait le logarithme en base 10, et cette unité d'information est parfois appelée (en) (symbole : hart) en son honneur, ou encore .