Académique Documents
Professionnel Documents
Culture Documents
Una cadena de Markov, por tanto, representa un sistema que varía su estado a lo
largo del tiempo, siendo cada cambio una transición del sistema. Dichos cambios
no están predeterminados, aunque sí lo está la probabilidad del próximo estado en
función de los estados anteriores, probabilidad que es constante a lo largo del
tiempo (sistema homogéneo en el tiempo).
Eventualmente, en una transición el nuevo estado puede ser el mismo que el
anterior y es posible que exista la posibilidad de influir en las probabilidades de
transición actuando adecuadamente sobre el sistema.
Definición 1.- Un estado absorbente es aquel que tiene una probabilidad de ser
abandonado igual a cero, o sea que, una vez comenzado es imposible dejarlo igual a
cero y el proceso o se detiene completamente o se detiene para luego comenzar a
partir de algún otro estado.
Definición 2.- Una cadena de Markov es absorbente si: (1) tiene por lo menos un
estado absorbente y (2) es posible ir desde cada estado no absorbente hasta por lo
menos un estado absorbente. No es necesario tener la posibilidad de alcanzar cada
estado absorbente a partir de cualquier estado no absorbente.
En el caso de uso general se puede apreciar la interacción del usuario con las
funciones que dispone el prototipo y la forma como el como el prototipo
soluciona y responde internamente lasolicitud requerida.