Cadenas de Markov 51
3 Cadenas de Markov
3.
1 Cadenas de Markov: Introducción
3.
1.
1 Concepto de cadena de Markov
Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de
determinados tipos de procesos estocásticos, esto...
More
Cadenas de Markov 51
3 Cadenas de Markov
3.
1 Cadenas de Markov: Introducción
3.
1.
1 Concepto de cadena de Markov
Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de
determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no
determinista a lo largo del tiempo en torno a un conjunto de estados.
Una cadena de Markov, por tanto, representa un sistema que varía su estado a lo largo del tiempo,
siendo cada cambio una transición del sistema.
Dichos cambios no están predeterminados, aunque sí lo
está la probabilidad del próximo estado en función de los estados anteriores, probabilidad que es
constante a lo largo del tiempo (sistema homogéneo en el tiempo).
Eventualmente, en una transición,
el nuevo estado puede ser el mismo que el anterior y es posible que exista la posibilidad de influir en
las probabilidades de transición actuando adecuadamente sobre el sistema (decisión).
En este módulo nos ocuparemos de las llamad
Less