Property |
Value |
dbo:abstract
|
- Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente. (fr)
- Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente. (fr)
|
dbo:thumbnail
| |
dbo:wikiPageID
| |
dbo:wikiPageLength
|
- 15468 (xsd:nonNegativeInteger)
|
dbo:wikiPageRevisionID
| |
dbo:wikiPageWikiLink
| |
prop-fr:wikiPageUsesTemplate
| |
dct:subject
| |
rdfs:comment
|
- Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente. (fr)
- Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente. (fr)
|
rdfs:label
|
- Récurrence et transience d'une chaîne de Markov (fr)
- Récurrence et transience d'une chaîne de Markov (fr)
|
owl:sameAs
| |
prov:wasDerivedFrom
| |
foaf:depiction
| |
foaf:isPrimaryTopicOf
| |
is dbo:wikiPageWikiLink
of | |
is oa:hasTarget
of | |
is foaf:primaryTopic
of | |