Skip to main content

Mathématiques (thésaurus)

Search from vocabulary

Concept information

Preferred term

processus de Markov  

Definition

  • En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé. Les processus de Markov portent le nom de leur inventeur, Andreï Markov. Un processus de Markov en temps discret est une séquence de variables aléatoires. L'ensemble de leurs valeurs possibles est appelé l’espace d'états, la valeur étant l'état du processus à l'instant Selon les auteurs, le vocable « chaîne de Markov » désigne les processus de Markov à temps discret ou uniquement les processus de Markov à temps discret et à espace d'états discret, c.-à-d. les processus de Markov à temps discret dont l'espace d'états est fini ou dénombrable. Si la loi conditionnelle de sachant le passé, i.e. sachant est une fonction de seul, alors :
    est un état quelconque du processus. L'identité ci-dessus identifie la probabilité markovienne.
    (Wikipedia, L'Encylopédie Libre, https://fr.wikipedia.org/wiki/Processus_de_Markov)

Broader concept

Synonym(s)

  • chaîne de Markov

In other languages

URI

http://data.loterre.fr/ark:/67375/PSR-KQDNC91K-9

Download this concept:

RDF/XML TURTLE JSON-LD Last modified 10/18/24