Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente.

Property Value
dbo:abstract
  • Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente. (fr)
  • Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente. (fr)
dbo:thumbnail
dbo:wikiPageID
  • 3504602 (xsd:integer)
dbo:wikiPageLength
  • 15468 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 181784644 (xsd:integer)
dbo:wikiPageWikiLink
prop-fr:wikiPageUsesTemplate
dct:subject
rdfs:comment
  • Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente. (fr)
  • Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente. (fr)
rdfs:label
  • Récurrence et transience d'une chaîne de Markov (fr)
  • Récurrence et transience d'une chaîne de Markov (fr)
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:wikiPageWikiLink of
is oa:hasTarget of
is foaf:primaryTopic of