Vous êtes sur la page 1sur 2

ANALISIS DE MARKOV

INTRODUCCION
Las cadenas de Markov estn destinadas a una clase de modelos de probabilidad que
son tiles en una amplia variedad de ciencias. Las cadenas de Markov han encontrado
aplicaciones en la biologa, la fsica, la demografa, la economa y, lo que es ms
importante para nuestros propsitos, la administracin. La ciencia administrativa ha
desarrollado mtodos de anlisis y herramientas cuantitativas para la toma de
decisiones objetivas. Un factor importante que se debe considerar al seleccionar una
herramienta de toma de decisiones es su grado de confiabilidad, ya que as la
incertidumbre y el riesgo resultan menores. Una relacin de algunos elementos de
apoyo cuantitativo en la toma de decisiones gerenciales es el anlisis de markov. Las
cadenas de Markov se pueden utilizar en modelos simples de valuacin de opciones
para determinar cundo existe oportunidad de arbitraje, as como en el modelo de
colapsos de una bolsa de valores o para determinar la volatilidad de precios.
ANTECEDENTES
Andrei Andreevich Markov nace en Ryazan (Rusia) el 14 de junio de 1856 y muere en
San Petersburgo en 1914, es el creador de las cadenas de Markov, uno de los conceptos
ms importantes en la construccin de modelos en gran cantidad de campos que
abarcan desde la sociologa a la fsica terica. Markov estudia en San Petersburgo y
muestra un carcter fuerte que le causar problemas posteriormente con el rgimen
zarista y con sus colegas de la Universidad de San Petersburgo. Era mal estudiante en
todo menos en matemticas. Inici sus estudios universitarios de matemticas en 1874
y acab en 1878, siendo premiado con la medalla de oro al terminarlos. Realiz en la
Universidad de San Petersburgo su carrera acadmica. Su tesis doctoral estuvo en el
mbito de la teora de los nmeros, pero con la retirada de Chebyshev, en 1883, Markov
pas a encargarse del curso sobre la teora de la probabilidad continuando con el mismo
incluso despus de su retirada de la Universidad en 1905. Perteneci a la escuela
matemtica de San Petersburgo fundada por Chebyshev, y junto a Liapunov lleg a ser
una de las figuras ms eminentes de la misma en el campo de la probabilidad. Bernstein
(1927), otro de los representantes de la escuela de San Petersburgo, deca de l: Sin
duda el ms importante continuador de las ideas sobre
probabilidad fue Markov, sus trabajos son modelos de rigor y
claridad en la exposicin, y han contribuido en gran medida
a transformar la teora de la probabilidad en uno de los ms
perfectos campos de la matemtica y a aumentar la
popularidad de los mtodos y las ideas de Chebyshev
CADENAS DE MARKOV
Un tipo especial de procesos estocsticos de tiempo discreto
se llama cadena de Markov. Una cadena de Markov es una
serie de eventos, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior. En efecto, las

cadenas de este tipo tienen memoria recuerdan el ultimo evento y esto condiciona
las posibilidades de los eventos futuros esta dependencia del evento anterior distingue
a las cadenas de Markov de las series de eventos independientes,
como tirar una moneda al aire o un dado. En los negocios, las cadenas de Markov se
han utilizado para analizar los patrones de compra de los deudores morosos, para
planear las necesidades de personal y para analizar el reemplazo de equipo.
Los procesos
de Markov o Cadena de Markov
son procesos estocsticos
que son tiles al estudiar la evolucin de ciertos sistemas en ensayos repetidos. Los
ensayos son frecuentemente periodos sucesivos en los que no se puede determinar
certidumbre del estado o resultado del sistema en cualquier lapso o intervalo de
tiempo determinado. Se utilizan probabilidades de transicin para describir la forma
en el que el sistema hace transacciones de un periodo al siguiente. Por ello se habla
de la probabilidad de que el sistema se encuentre en un estado especfico en un periodo
dado, que se encontraba en un estado en el periodo anterior.
Las cadenas de Markov permiten encontrar la probabilidad de que un sistema se
encuentre en un estado en particular en un momento dado. Algo ms importante an,
es que permite encontrar el promedio a la larga o las probabilidades de estado estable
para cada estado. Con esta informacin se puede predecir el comportamiento del
sistema a travs del tiempo. Esta es una herramienta de gran alcance del anlisis de la
confiabilidad y puede ser utilizada en ms casos que cualquier otro mtodo. El mtodo
de Markov se utiliza extensamente para
http://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-enel-157.html

Vous aimerez peut-être aussi