Vous êtes sur la page 1sur 10

HISTORIA

BIOGRAFÍA ANDREI ANDREEVICH MARKOV (1856 – 1922)

Andrei Markov vivió la mayor parte de su vida en san Petersburgo durante su vida, san
Petersburgo fue la capital de la Rusia zarista, un puerto principal y centro comercial, así como
un centro internacional de la literatura, la música y la danza. La familia de Markov pertenecía
a la clase alta, su padre trabajaba para el departamento forestal y administraba una hacienda
privada.

En la preparatoria, markov dio muestras de un talento para las matemáticas, aunque por lo
general no fue un buen alumno. Estudio matemáticas en la universidad de san Petersburgo,
donde sus títulos de licenciatura, maestría y doctorado. Posteriormente comenzó a enseñar
en la misma universidad. El jefe del departamento de matemáticas. PL Chebyshev fue un
famoso matemático y estadístico. Markov se convirtió en un firme seguidor de las ideas de
Chebyshev. Nominado por este, markov fue elegido para ingresar a la prestigiada academia
de ciencias de san Petersburgo.

Los principales campos de investigación de Markov fueron la estadística, la teoría de la


probabilidad, el cálculo y la teoría de números, su obra más famosa, las cadenas de Markov,
fue un producto de un interés exclusivamente teórico. De hecho, jamás escribió nada con
respecto a sus aplicaciones excepto un análisis lingüístico de Eugenio Oneguin, de pushkin.

Durante la primera mitad del siglo XX, Markov participo en el movimiento liberal que
culminó en la revolución rusa. Cuando el zar anulo la elección del escritor revolucionario
Máximo Gorky para la Academia de ciencia de san Petersburgo, markov dirigió cartas de
protesta a la academia y a los oficiales de estado.

Cuando el zar disolvió la duma (una asamblea electa), Markov denuncio al gobierno zarista.
Cuando el gobierno celebro el 300 aniversario de la casa de romanov (la dinastía de los zares),
Markov organizo una celebración del aniversario numero 200 de la publicación del libro
sobre probabilidad, de Jacob Bernoulli, Ars Conjectandi.

Después de la abdicación del azar, Markov solicito a la academia que lo enviara a enseñar
matemáticas a una escuela secundaria de una pequeña población del centro de Rusia.

Regreso a san Petersburgo después de un invierno de hambre. Poco después de su regreso,


su salud declino rápidamente y murió.

BIBLIOGRAFÍA
JOHNSON David B, MOWRY Thomas A. Matemáticas finitas: aplicaciones prácticas. Año
2000. Editorial Thomson. pág. 340

Published in:

 CADENAS DE MARKOV

on 16 noviembre, 2010 at 11:31 PM Dejar un comentario

EJERCICIO POR EXCEL


Se mostrara mediante un video elaborado por nosotros el procedimiento para resolver
problemas de Markov por medio de Excel:

A continuacion la segunda parte:

Published in:

 CADENAS DE MARKOV

on 16 noviembre, 2010 at 11:30 PM Dejar un comentario

CONCEPTOS
GLOSARIO

 Pruebas del proceso: eventos que disparan transiciones de un estado a otro. En


muchas aplicaciones, periodos de tiempo sucesivos.
 Probabilidad de transición: dado que el sistema esta en estado idurante un periodo,
la probabilidad de transición pij es la probabilidad de que el sistema este en el estado j
durante el siguiente periodo.
 Probabilidad de estado: es la probabilidad de que el sistema este en cualquier estado
particular.
 Probabilidad de estado estable: La probabilidad de que el sistema este en cualquier
estado particular después de un numero elevado de transiciones. Una vez alcanzado
este estado la probabilidad de estado no cambia de un periodo a otro.
 Estado de absorción: se da cuando la probabilidad de que ocurra una transición de
este estado es cero. Por lo que una vez que el sistema a hecho una transición a un
estado de absorción, quedará ahí.
 Matriz fundamental: Matriz necesaria para el cómputo de probabilidades asociadas
con el estado de absorción de un proceso de Markov.
CONCEPTO DE CADENA DE MARKOV:

Las cadenas de Markov son una herramientas para analizar el comportamiento y el gobierno
de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma
no deterministicas a lo largo del tiempo en torno a un conjunto de estados.

Una cadena de Markov, por lo tanto, representa un sistema de varia su estado a lo largo del
tiempo, siendo cada cambio una transición del sistema. Dichos cambios no están
predeterminado, aunque si lo esta la probabilidad del próximo estado en función de los
estados anteriores, probabilidad que es constante a lo largo del tiempo (sistema homogéneo
en el tiempo). Eventualmente, en una transición, el nuevo estado puede ser el mismo que el
anterior y es posible que exista la posibilidad de influir en las probabilidades de transición
actuando adecuadamente sobre el sistema (decisión).

Fuente: http://www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf

MATRIZ DE TRANSICION:

Una matriz de transición para una cadena de Markov de n estado es una matriz de n X n con
todos los registros no negativos y con la propiedad adicional de que la suma de los registros
de cada columna (o fila) es 1.

Por ejemplo: las siguientes son matrices de transición.

El comportamiento de cambo de marca de los consumidores h sido modelado como una


cadena de Markov, para ayudar a desarrollar las estrategias de mercadotecnia. A manera de
ejemplo, obsérvese el siguiente comportamiento de cambio de marca descrito en la siguiente
tabla para una muestra de 250consumidores de un producto.

Número de consumidores que cambian la marca i en la semana 6 j en la semana 7.


El primer renglón indica que, de 80 personas que compraron la marca 1 en la semana 6, 72
volvieron a adquirirla en la semana 7, 4 prefirieron la marca 2 y 4 la marca 3. Sin embargo,
nótese que 12 personas cambiaron la marca 2 por la marca 1 y 2 personas cambiaron la marca
3 por la marca 1. A si pues, para la marca 1, la perdida de 8 clientes se compensó con creces
por la conquista de 14 clientes. Entre la sexta y la séptima semanas, la marca 1 aumentó su
participación en el mercado de 32%(80/250) a 34,4% (86/250).

La matriz de probabilidades de transición para la tabla de contingencia es P:

La matriz P es una estimación de la matriz verdadera, pues solamente representa el


comportamiento de una muestra de 250 consumidores, durante a un periodo de dos semanas.
Los elementos P11, P22 y P33 de la matriz P son medidas del “poder de retención” de las
tres marcas; los restantes elementos Pij reflejan el “poder de atracción” de la marca j,
suponiendo que la compra anterior haya sido a favor de la marca i. Los elementos de cada
fila reflejan la probabilidad de que una marca retenga a sus clientes o los pierda frente a otras
marcas. Los elementos de cada columna resumen la probabilidad de que una marca retenga
a sus clientes o conquiste a otros a costa de cada marca de la competencia.

Suponiendo que la participación en los mercados que tienen la tres marcas del ejemplo son
30%, 38% y 32&, respectivamente, durante la séptima semana. Si la matriz de transición P
(maestral), se considera una buena estimación de la verdadera matriz de transición
(poblacional), es posible predecir las participaciones de mercado esperada en la octava
semana por medio de la multiplicación de matrices. Así entonces:

Las participaciones en el mercado predichas durante la octava semana son 32,08%, 37,64%
y 30,28%, respectivamente para la tres marcas.

Generalizando, podemos decir que si un proceso de Markov donde el sistema puede


encontrarse en cualquiera de m estados posibles, las probabilidades pueden escribirse por
medio del vector X=(x1 x2……..xm) donde xj representa probabilidad de que el sistema se
halle en el estado j. En los estados actuales de un proceso de Markov Xk, los estados después
del siguiente experimento (transición) pueden calcularse mediante la multiplicación con de
matrices.

XK+1 = X K P

Con base en la ecuación anterior se puede afirmar que:

Generalizando:

Ya que en este caso X0 corresponde al vector X7.

Fuente:

 http://www.ciencia-ahora.cl/Revista20/15MatricesTransicion.pdf
 Fraleigh, John. Algebra Lineal. Editorial Addison Wesley.1989.

ESTADOS ABSORBENTES

Se trata de estados que constituyen por si mismos una sola clase final, puesto que la única
transición posible es ir otra vez al mismo (ya que las probabilidades de pasar a cualquier de
los otros son cero). Matemáticamente significa que la fila correspondiente de la matriz estará
toda a ceros excepto un 1 en la diagonal principal por lo tanto se le denomina como matriz
no regular; el significado de este tipo de situaciones suele ser el de un sistema que ha llegado
a una situación de degradación, que ya no puede evolucionar mas, etc.

En otras palabras generalizando:

Una cadena de markov absorbente contiene p estados transitorios y q estados absorbentes.


Con base a esto la matriz se representa así:

Donde R es una submatriz

Q corresponde al complemento de R

Fuente:

 ANDERSON David R. Métodos cuantitativos para los negocios. Editorial Thomson.


año 2004

Published in:

 CADENAS DE MARKOV

on 15 noviembre, 2010 at 11:27 PM Dejar un comentario

GRAFICOS DE EJEMPLOS
REPRESENTACIÓN GRAFICA DE UNA MATRIZ DE TRANSICIÓN:

Es el arreglo numérico donde se condensa las probabilidades de un estado a otro. A través de


una grafica de matriz de transición se puede observar el comportamiento estacionario
representado por una cadena de Markov tal que los estados representan la categoría en que
se encuentre clasificado. Como se aprecia a continuación:

La matriz de transición es para una política estacionaria dada:


Fuente:

https://www.u-
cursos.cl/ingenieria/2010/2/IN3702/1/material_docente/bajar?id_material=306606

Published in:

 CADENAS DE MARKOV

on 15 noviembre, 2010 at 11:19 PM Dejar un comentario

EJERCICIOS
EJERCICIOS PROPUESTOS

1. El centro de cómputo en Rockbottom University sufre paros de las


computadoras. Supongamos que los ensayos de un proceso de Markov asociados se definen
como periodo de una hora y la probabilidad de que el sistema este en un estado de operación
o en un estado de paro se base en el estado del sistema durante el periodo anterior. Los datos
históricos muestran las siguientes probabilidades de transición.

a) Si es sistema inicialmente opera, ¿Cuál es la probabilidad de que el sistema este detenido


en la siguiente hora de operación?

b) ¿Cuáles son las probabilidades de un estado estable del sistema en el estado de operación
y en el detenido?

2. Cada familia estadounidense se clasifica según donde vive como urbana, rural o suburbana.
Durante un año especifico, 15% de las familias urbanas se mudaron a una ubicación
suburbana, y 5 % se mudaron a un área rural; también, 6 % de las familias suburbanas se
trasladaron a un área urbana y 4% se pasaron a una ubicación rural; por ultimo, 4% de las
familias rurales se fueron a un área urbana y 6% se cambiaron a un lugar suburbano.

a) Si una familia ahora vive en un lugar urbano, ¿Cuál es la probabilidad de que viva en un
área urbana dos años a partir de ahora? ¿Un área suburbana? ¿Un área rural?
b) Suponga que en el presente, 40% de las familias viven en un área urbana, 35% viven en
un área suburbana y 25% viven en un área rural. Dos anos a partir de ahora, ¿Qué porcentajes
de familias estadounidenses vivirán en un área urbana?

3. Dado la siguiente matriz de transición con los estados 1 y 2 como estado absorbentes,
¿Cuál es la probabilidad de que las unidades en los estados 3 y 4 terminen en cada uno de los
estados absorbentes?

4. Woody´s Christmas Tree Farm cuenta con dos tipos de arboles: arboles pequeños (de 5
pies o menos) y grandes (mas de 5 pies). Cada año, 16% de los arboles pequeños muere,
19% se venden a 30 dólares cada uno y 10% crece hasta superar los 5 pies. Cada año 5% de
los arboles grandes muere y 45% se vende a 45 dólares cada uno.

a) ¿Que porcentaje del total de los arboles se venderá finalmente a 30 dólares?

b) ¿Qué porcentaje de arboles se venderán a 45?

c) ¿Qué porcentaje de arboles de arboles grandes se venderán?

d) Sugerencia: utilice 2 categorías “vendido a 30 dólares y vendido a 45 dólares”

Fuentes:

 JOHNSON David B, MOWRY Thomas A. Matemáticas finitas: aplicaciones


prácticas. Año 2000. Editorial Thomson. Ejercicio propuesto 4 pagina 361.
 ANDERSON David R. Métodos cuantitativos para los negocios. Editorial Thomson.
año 2004. ejercicio propuesto 1 pagina 720 y 3 pagina 722.

Published in:

 CADENAS DE MARKOV

on 15 noviembre, 2010 at 11:11 PM Dejar un comentario

APLICACIONES
El método de las cadenas de Markov consiste en emplear la información probabilística en el
análisis de tendencias con el fin de predecir sus resultados.
Tienen diversas aplicaciones en los negocios, la sociología, las ciencias físicas y la biología.
Por ejemplo en los negocios, las cadenas de Markov son útiles para el análisis de los datos
referentes a la satisfacción de un cliente con un producto y para el efecto de la publicidad del
producto, así como predecir que sector del mercado el producto dominara finalmente. En
sociología, las cadenas de markov se aplican por una parte al análisis de tendencias
sociológicas, como la reducción de la clase media de Estados Unidos y el crecimiento de los
suburbios a expensas de las ciudades del centro y las áreas rurales, así como para la
predicción del resultado final de dichas tendencias. Además también sirven para pronosticar
el clima, para analizar la herencia genética, y para predecir la fluctuación diaria de los precios
de las acciones negociables.

Vous aimerez peut-être aussi