Concept information
Preferred term
processus de Markov
Definition
-
En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé. Les processus de Markov portent le nom de leur inventeur, Andreï Markov. Un processus de Markov en temps discret est une séquence de variables aléatoires. L'ensemble de leurs valeurs possibles est appelé l’espace d'états, la valeur étant l'état du processus à l'instant Selon les auteurs, le vocable « chaîne de Markov » désigne les processus de Markov à temps discret ou uniquement les processus de Markov à temps discret et à espace d'états discret, c.-à-d. les processus de Markov à temps discret dont l'espace d'états est fini ou dénombrable. Si la loi conditionnelle de sachant le passé, i.e. sachant est une fonction de seul, alors :
(Wikipedia, L'Encylopédie Libre, https://fr.wikipedia.org/wiki/Processus_de_Markov)
Broader concept
Narrower concepts
Synonym(s)
- chaîne de Markov
In other languages
-
English
-
Markov chain
URI
http://data.loterre.fr/ark:/67375/PSR-KQDNC91K-9
{{label}}
{{#each values }} {{! loop through ConceptPropertyValue objects }}
{{#if prefLabel }}
{{/if}}
{{/each}}
{{#if notation }}{{ notation }} {{/if}}{{ prefLabel }}
{{#ifDifferentLabelLang lang }} ({{ lang }}){{/ifDifferentLabelLang}}
{{#if vocabName }}
{{ vocabName }}
{{/if}}