“Un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior.”
Andréi Márkov
La cadena de Márkov o el modelo de Márkov
"Una cadena de Márkov en tiempo discreto (por sencillez) es un proceso estocástico que evoluciona en tiempo discreto o etapas y tiene la propiedad markoviana que dice: “el futuro depende de lo que pasa en el presente, pero no del pasado estricto”."
Andréi Andréyevich Márkov
No hay comentarios:
Publicar un comentario