Vous êtes sur la page 1sur 3

Modelos Deterministicos y Estocasticos

Cadenas de Markov Wilson Martnez Montaa


RESUMEN El presente artculo es el resumen que se hizo con base al estudio de las cadenas de Markov para entender su significado y aplicacin en el campo de la electrnica. Palabras ClaveCadenas de aleatorias, procesos estocsticos. Markov, variables Las Cadenas de Markov sirven para hacer predicciones del comportamiento futuro. En ella se llama estado a cada una de estas posibilidades de que se pueden presentar en un experimento o situacin especfica, de esa manera convierten en una herramienta que permite conocer a corto y largo plazo los estados en que se encontraran en un periodo o tiempo futuro y tomar decisiones al respecto.

Propiedad de la Cadena de Markov I. INTRODUCCIN Las cadenas de Markov presentan la propiedad de que una sucesin de variables aleatorias dadas, E1, E2, E3, tal que el valor de Ek es el estado del proceso en el tiempo k. Si la distribucin de la probabilidad condicional de E k+1 en estados pasados es una funcin de E k por s sola, entonces se presenta la siguiente identidad conocida como Propiedad de Markov: ( ( ) )

n un proceso o una sucesin de eventos que se desarrollan en un tiempo dado, en el cual el resultado en cualquiera de sus etapas posee algn elemento dependiente del azar se denomina proceso aleatorio o proceso estocstico. Ejemplo de un proceso estocstico puede ser un proceso o sucesin de eventos o ensayos de Bernoulli para el lanzamiento de una moneda. El resultado en una de sus etapas a azar ser independiente de cualquiera de los resultados obtenidos previamente. Es importante acotar que para la mayora de los procesos estocsticos o aleatorios, cada uno de sus resultados depende de lo sucedido en etapas anteriores del proceso. Entonces el caso de un proceso aleatorio o estocstico en el que el resultado depende de otros, se presenta cuando el resultado en cada etapa del proceso solo depende del resultado de la etapa anterior nicamente, sin depender de ninguno de los dems resultados previos. A este proceso se le llama Cadena de Markov. Presenta una cadena de eventos, donde cada evento est ligado al evento que le preceda.

Donde ei es el estado del proceso en un instante i. El estado en k+1 solo depende del estado en k y no de la evaluacin anterior del sistema.

Matriz de transicin Cuando se utilizan cadenas de Markov es til pensar en sucesin de ensayos como experimentos que se efectan en cierto sistema fsico y cada resultado dejando al sistema en un estado determinado. Considerando una Cadena de Markov en la que el sistema posee e estados posibles (1, 2, 3, ... , e). Se denota pij a la probabilidad de que el sistema pase al estado j despus de cualquier ensayo en donde su estado anterior era i. Todos los pij son denominados probabilidades de transicin y la matiz e*e ( )se llama Matriz de Transicin del sistema. (Resultado futuro) P = (Ultimo resultado)[ ]

II. CADENAS DE MARKOV Una cadena de Markov presenta una sucesin de ensayos similares u observaciones, en ella cada ensayo tiene el mismo nmero finito de resultados posibles y la probabilidad de cada resultado para un ensayo dado depende slo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo.
Artculo entregado el 31 de mayo de 2013. El autor es estudiante de Ingeniera Electrnica en la Fundacin Universitaria los Libertadores. Wilson Martnez Montaa wmartinezm@libertadores.edu.co Cdigo: 201121031600

Los elementos que componen una Matriz de Transicin representan las probabilidades de que en el prximo ensayo el

Modelos Deterministicos y Estocasticos estado del sistema o proceso indicado a la izquierda de la matriz cambie al estado indicado arriba de la misma. Como propiedad de la Matriz de Transicin se tienen las siguientes: La suma de pi1 + pi2 + ... + pin = 1. Dicha suma representa la probabilidad de que el sistema pase a uno de los estados 1, 2 , ... , n dado que empieza en el estado i. Se espera que el sistema o proceso se encuentre en cualquiera de los n estados por lo tanto la suma debe ser igual a 1. Por lo anterior los elementos que componen cualquiera de las filas de la matriz de transicin deben sumar 1. Cada uno de los elementos pij 0. Algunas Aplicaciones Bioinformatica: Cadenas de Markov Finitas con probabilidades de transicin estacionarias Una cadena de Markov finita es una cadena para la que existe slo un nmero finito k de estados posibles s1, . . . , sk y en cualquier instante de tiempo la cadena est en uno de estos k estados.

Bsqueda de genes Mapeo de vinculacin gentica Anlisis filogentico Prediccin de estructura secundaria de protenas Bsqueda de sitios conservados vs sitios variables Prediccin de regiones que codifican protenas dentro de genomas Modelado de familias de secuencias de protena o ADN relacionado Prediccin de elementos de estructura secundaria en secuencias primarias de protena

Fsica: Problemas de termodinmica y la fsica estadstica.

Meteorologa: Prediccin d el clima en una regin a travs de distintos das. Proceso Galton-Watson. ( proceso de ramificacin que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia. El pagerank de una pgina web (la posicin que tendr una pgina en el buscador ser determinada por su peso en la distribucin estacionaria de la cadena)

Modelos epidemiolgicos: Probabilidades de transicin Es la probabilidad condicionada: Probabilidades de transicin estacionarias Una cadena de Markov tiene probabilidades de transicin estacionarias si para cualquier par de estados si y sj existe una probabilidad de transicin pij tal que:

Internet:

Simulacin: Proveer una solucin analtica a ciertos problemas de simulacin tales como el Modelo M/M/1 de la teora de colas.[4]

Ejemplo de Cadenas de Markov como modelo para el ADN [2] Teoremas Si P denota la matriz de transicin de una cadena de Markov y A k es la matriz de estado despus de k ensayos, entonces la matriz de estado A k +1 despus del ensayo siguiente est dada por: Es improbable que una secuencia aleatoria de A,C,G y T sea un buen modelo para el patrn de nucletidos en una secuencia gnica. Una cadena de Markov con {A, T, G y C} podra ser una mejor aproximacin a la realidad: las probabilidades para el nucletido en la posicin j+1 dependen del nucletido en la posicin j. (Sin embargo, en la realidad las dependencias son ms complejas) Si el espacio de estados es S = {A, C, G, T}. La matriz de transicin P es de 4 x 4:

Una matriz de transicin P se dice que es regular si para algn entero positivo k, la matriz k P no tiene elementos iguales a cero. Si P es una matriz de transicin regular, entonces sin importar la matriz de estado inicial, las matrices de estado sucesivas se aproximan a alguna matriz de estado fija B en donde B.P = B. La matriz B se denomina matriz estacionaria del sistema. [2]

Modelos Deterministicos y Estocasticos

Aqu

Para n

1, donde i, j {A, C, G, T}.

III. CONCLUSIONES Las Cadenas de Markov sirven para hacer predicciones del comportamiento futuro, en ella cada ensayo tiene el mismo nmero finito de resultados posibles y la probabilidad de cada resultado para un ensayo dado depende slo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo.

REFERENCIAS
[1] [2] Gustavo Mesa, CADENAS DE MARKOV, UNA SENCILLA APLICACIN, ISSN 0124-4361/Vol.5/No.9/Ao 2007 Mtodos Estadsticos en Ciencias de la Vida http://www.bioingenieria.edu.ar/academica/catedras/metestad/Cadenas %20de%20Markov-1.pdf http://www.bioingenieria.edu.ar/academica/catedras/metestad/Introducci on%20al%20Modelo%20oculto%20de%20Markov.pdf http://es.wikipedia.org/wiki/Cadena_de_Markov http://www.ugr.es/~bioestad/_private/cpfund10.pdf

[3] [4] [5]

Vous aimerez peut-être aussi