Vous êtes sur la page 1sur 18

1

Apuntes de la asignatura
ESTAD

ISTICA
Titulacion: Ingeniera de Telecomunicaciones
Centro: Escuela Politecnica Superior
Departamento: Matematicas
Autor: Angel Blasco
Tema 4
PROCESOS ESTOC

ASTICOS
En el tema 2 denimos una variable aleatoria real como una funcion
X : R que a cada resultado de un experimento aleatorio le
asigna un n umero real X(). Nos referamos a dicho n umero como una
realizacion de la variable aleatoria.
En el caso de procesos estocasticos (o procesos aleatorios) las
realizaciones son funciones del tipo
X(, ) : A B
donde A y B pueden ser conjuntos arbitrarios, si bien nosotros nos
centraremos en el estudio de procesos en que A = B = R o en su
defecto Z.
En realidad un proceso estocastico puede ser considerado desde dos
puntos de vista:
Fijado un cierto
0
, X(t,
0
) es una funcion de t, lo que
hemos denido como una realizacion del proceso (el uso que se
hace aqu de la letra t no es casual ya que en la mayora de las
aplicaciones esta variable suele representar el tiempo).
Fijado t
0
A, tenemos que X(t
0
, ) es una variable aleatoria, cuyo
2
TEMA 4. PROCESOS ESTOC

ASTICOS 3
valor dependera de , como las que estudiamos a lo largo del tema
2.
Ejemplo 4.1. Considerese el proceso X(t, ) = A() cos t donde A
U(0, 1).
Dado A() = 1/2 obtenemos la realizacion X(t) =
1
2
cos t.
En un instante jo t = tenemos la variable aleatoria X() =
A U(1, 0).
Por otro lado, las posibles elecciones de los espacios A y B nos llevan
a denir distintos tipos de procesos:
Hablaremos de procesos en tiempo discreto cuando el espacio ori-
gen A sea discreto, generalmente Z o N. Las realizaciones seran
ahora sucesiones {X
n
} que varan con el tiempo, denotado en este
caso con la letra n.
Analogamente hablaremos de procesos en tiempo continuo cuando
sea A = R. En este caso las realizaciones seran funciones usuales
del tipo X(t) (notese que hemos eliminado de la notacion la vari-
able si bien no debemos olvidar que esta implcita en la expresion
anterior).
Por ultimo, hablaremos de procesos discretos (respectivamente
continuos) cuando sea B = Z (respectivamente B = R).
As por ejemplo, el proceso de Poisson (un proceso estocastico de gran
importancia que estudiaremos a fondo mas adelante) es un proceso
discreto en tiempo continuo, ya que produce realizaciones del tipo:
X(t) : R Z
TEMA 4. PROCESOS ESTOC

ASTICOS 4
4.1. Distribucion de un proceso estocastico
Conocer la distribucionde un proceso estocastico supone conocer
la distribucion de todo vector de la forma (X(t
1
), ..., X(t
k
)) siendo
{t
1
, ..., t
k
} cualquier coleccion nita de instantes. Diremos, llegado el
caso, que conocemos todas las distribuciones nito-dimensionales
del proceso.
Al igual que ocurra con las variables aleatorias de cualquier dimen-
sion, sobre un proceso estocastico se pueden denir distintos momentos
que resumen parte de la informacion contenida en su distribucion, si
bien en este caso dichos momentos seran generalmente funciones de t.
Destacamos los siguientes:
Valor medio en el instante t:
m
X
(t) = E[X(t)]
Autocorrelacion entre los instantes t
1
y t
2
:
R
X
(t
1
, t
2
) = E[X(t
1
)X(t
2
)]
Autocovarianza entre los instantes t
1
y t
2
:
C
X
(t
1
, t
2
) = E[(X(t
1
)m
X
(t
1
))(X(t
2
)m
X
(t
2
))] = R
X
(t
1
, t
2
)m
X
(t
1
)m
X
(t
2
)
Varianza en el instante t:

2
X
(t) = C
X
(t, t)
Coeciente de correlacion entre los instantes t
1
y t
2
:

X
(t
1
, t
2
) =
C
X
(t
1
, t
2
)
_

2
X
(t
1
)
2
X
(t
2
)
TEMA 4. PROCESOS ESTOC

ASTICOS 5
Nota: Al igual que ocurra con las variables aleatorias, el valor que
toman los distintos momentos de un proceso estocastico no determina
completamente su distribucion.
Ejemplo 4.2. Consideremos el proceso del ejemplo 4.1: X(t) = Acos t
con A U(0, 1). Tenemos entonces que:
m
X
(t) = E[Acos t] =
1
2
cos t
R
X
(t
1
, t
2
) = E[Acos t
1
Acos t
2
] = E[A
2
] cos t
1
cos t
2
=
1
3
cos t
1
cos t
2
C
X
(t
1
, t
2
) =
1
3
cos t
1
cos t
2

1
4
cos t
1
cos t
2
=
1
12
cos t
1
cos t
2

2
X
(t) =
1
12
cos
2
t

X
(t
1
, t
2
) =
cos t
1
| cos t
1
|
cos t
2
| cos t
2
|
Por tanto el coeciente de correlacion sera 1 si en t
1
y t
2
el coseno tiene
el mismo signo, y sera -1 en caso contrario. Observese tambien que si
cos t
1
= 0 o cos t
2
= 0 esto signica que una de las dos variables no es
aleatoria ya que tiene varianza cero, luego en un caso as no esta denido
el coeciente de correlacion.
4.2. Ejemplos de procesos estocasticos
Empezaremos por ver algunos procesos en tiempo discreto:
Procesos IID. Se caracterizan porque para todo k y toda colec-
cion de instantes n
1
< < n
k
, las variables aleatorias X
n
1
, ..., X
n
k
son independientes e identicamente distribuidas seg un una dis-
tribucion X dada.
Se verica entonces que:
TEMA 4. PROCESOS ESTOC

ASTICOS 6
P
X
n
1
,...,X
n
k
(x
1
, ..., x
k
) =
k

i=1
P
Xn
i
(x
i
) =
k

i=1
P
X
(x
i
) (caso discreto)
f
X
n
1
,...,X
n
k
(x
1
, ..., x
k
) =
k

i=1
f
Xn
i
(x
i
) =
k

i=1
f
X
(x
i
) (caso continuo)
En cuanto a su valor medio y funcion de autocovarianza:
m
X
(n) = para todo n
C
X
(n
1
, n
2
) =
_
0 si n
1
= n
2

2
si n
1
= n
2
Procesos de suma. Dada una sucesion X
1
, ..., X
n
, ... de variables
aleatorias independientes identicamente distribuidas, se dene el
proceso {S(n)} con S(0) = 0 y S(n) = S(n 1) + X
n
para todo
n 1. Es decir, sera
S(n) =
n

i=1
X
i
Dos ejemplos importantes de procesos de suma son:
El proceso binomial es un proceso de suma en que X
i

B(p). Se llama as porque sera S(n) B(n, p).
El paseo aleatorio es un proceso de suma en que X
i
toma val-
ores +1 y -1 con probabilidades p y q respectivamente. Cuando
p = q decimos que es un paseo aleatorio simetrico.
TEMA 4. PROCESOS ESTOC

ASTICOS 7
El valor medio de estos procesos sera:
m
S
(n) = E
_
n

i=1
X
i
_
=
n

i=1
E[X
i
] = n =
_
np en el proceso binomial
n(p q) en el paseo aleatorio
En cuanto a la varianza:

2
S
(n) = V
_
n

i=1
X
i
_
=
n

i=1
V [X
i
] = n
2
=
_
npq en el proceso binomial
n en el paseo aleatorio
Otros procesos en tiempo discreto parecidos a los anteriores son
los procesos autoregresivos y los de medias moviles. Ambos se con-
struyen tambien a partir de una sucesion de variables aleatorias
independientes identicamente distribuidas X
1
, X
2
, ..., X
n
, ...
Procesos autoregresivos: Y (n) = Y (n1)+X
n
para un cierto
R.
Medias moviles: Y (n) = (X
n
+ +X
nk+1
)/k para un cierto
k N constante.
Unos y otros se utilizan frecuentemente tanto en el analisis de
series temporales como en el procesamiento de se nales aleatorias.
En todos los ejemplos vistos hasta ahora el tiempo transcurra de
forma discreta. Veremos a continuaci on algunos procesos aleatorios en
tiempo continuo:
Proceso de Poisson. Sea X(t) n umero de veces que se repite
un suceso dado en el intervalo (0, t). Sea T
i
el tiempo que transcurre
entre la ocurrencia i 1 y la i del suceso (tiempo de permanen-
cia en el estado i). Supongamos que las variables T
1
, T
2
, ..., T
n
, ...
son todas ellas independientes e identicamente distribuidas seg un
cierta distribucion F

. Entonces decimos que X(t) es un proceso


de renovacion.
TEMA 4. PROCESOS ESTOC

ASTICOS 8
Sin duda, el proceso de renovacion mas conocido y mas utilizado
es el proceso de Poisson. En el los tiempos de permanencia en los
distintos estados siguen una distribucion exp().
Notese que entonces, dado k N {0},
P(X(t) = k) = P(T
1
+ +T
k
< t < T
1
+ +T
k+1
) =
=
_
t
0
P(T
1
+ +T
k
< t < T
1
+ +T
k+1
|T
1
+ +T
k
= x)f
T
1
++T
k
(x)dx =
(usando el T
a
de la Probabilidad Total)
=
_
t
0
P(T
k+1
> tx)f
T
1
++T
k
(x)dx =
_
t
0
e
(tx)
k
(k1)!
x
k1
e
x
dx =
(ya que T
1
+ +T
k
sigue una distribucion k-Erlang())
= e
t
k
k!
x
k
]
t
0
=
e
t
(t)
k
k!
Luego la distribucion de X(t) en cada instante t es P(t). De
aqu se deduce que su valor medio y varianza seran m
X
(t) =

2
X
(t) = t.
Observacion: Notese que esto por s solo no asegura que el proceso
sea de Poisson. Podramos pensar en un proceso X(t) tal que para
dos instantes cualesquiera, t
1
y t
2
, se verique X(t
1
) P(t
1
) y
X(t
2
) P(t
2
), pero en que ambas variables sean independientes.
Esto, por supuesto, no sera un proceso de Poisson.
Observacion: El proceso de Poisson se obtiene como lmite del pro-
ceso binomial en el siguiente sentido:
Sea X(t) el n umero de sucesos ocurridos en el intervalo (0, t) y con-
sideremos dicho intervalo dividido en n subintervalos de longitud
t/n. Sea ahora I
i
el n umero de sucesos ocurridos en el subintervalo
i-esimo.
Tenemos que X(t) =

n
i=1
I
i
donde las I
i
s son variables aleato-
rias IID. Ademas, para n grande tenemos que P(I
i
2) 0.
TEMA 4. PROCESOS ESTOC

ASTICOS 9
Aproximando estos valores por cero tenemos que I
i
B(p) y que
X(t) B(n, p).
Como se vio en el tema 2, suponiendo que la probabilidad de que
se produzca un suceso en un subintervalo dado es proporcional a
su longitud, es decir, p = t/n, y haciendo tender el n umero de
subintervalos, n, a , llegamos a X(t) P(t).
Esto unido a la forma en que hemos denido el proceso nos permite
concluir que es un proceso de Poisson de parametro . Podra
decirse que el proceso de Poisson es la version en tiempo continuo
del proceso binomial.
Movimiento browniano (o Proceso de Wiener). Es un pro-
ceso {X(t), t 0} que depende de un parametro > 0 y verica:
a) t, s > 0 se tiene X(t +s) X(s) N(0,

t).
b) Tiene incrementos independientes.
c) X(0) = 0 y X(t) como funcion de t es continua en t = 0.
Observacion: De esta denicion se deduce (no es facil de demostrar)
que las realizaciones de este proceso son siempre funciones contnuas
en todo punto.
Observacion: El movimiento browniano se obtiene como lmite del
paseo aleatorio simetrico en el siguiente sentido:
Consideremos un paseo aleatorio simetrico que da saltos de lon-
gitud h cada segundos, es decir, en un tiempo t habra dado
n = [t/] saltos. Entonces la posicion en el instante t viene dada
por:
X

(t) = h(D
1
+ +D
[t/]
)
donde las D
i
s son variables aleatorias IID que toman valores 1 y
-1 ambos con probabilidad 1/2. Notese que sera E[X

(t)] = 0 y
V [X

(t)] = h
2
n.
TEMA 4. PROCESOS ESTOC

ASTICOS 10
Supongamos que h =

para cierto > 0 y hagamos tender


a cero. Si llamamos X(t) al proceso lmite sera E[X(t)] = 0 y
V [X(t)] = t. Ademas, aplicando el T
a
Central del Lmite, ten-
emos que X(t) N(0,

t).
De aqu se deduce que el proceso X(t) es un movimiento browniano
con =

. Podra decirse que el movimiento browniano es la
version en tiempo contnuo del paseo aleatorio simetrico.
4.3. Propiedades que puede vericar un proceso
estocastico
Procesos con incrementos independientes. Los incrementos
de un proceso {X
t
} son las variables aleatorias del tipo X(t
2
)
X(t
1
) con t
1
< t
2
. Decimos que un proceso tiene incrementos in-
dependientes si para toda coleccion de instantes t
1
< t
2
< < t
k
con k 3 las variables X(t
1
), X(t
2
)X(t
1
), X(t
3
)X(t
2
), ..., X(t
k
)
X(t
k1
) son independientes.
Procesos con incrementos estacionarios. Decimos que un pro-
ceso tiene incrementos estacionarios si para todo par de instantes
t
1
< t
2
y todo h R la distribucion de X(t
2
+ h) X(t
1
+ h) es
independiente de h.
Ejemplo 4.3. Consideremos de nuevo el proceso X(t) = Acos t
con A U(0, 1). Este proceso no tiene incrementos independientes
ya que si X(t
2
) X(t
1
) = 2A, entonces tiene que ser X(t
1
) = A
y X(t
2
) = A y, por tanto, cualquier incremento del tipo X(t
3
)
X(t
2
) debe ser negativo, luego el primer incremento condiciona la
distribucion del segundo.
Tampoco tiene incrementos estacionarios ya que, por ejemplo:
X() X(0) = 2A U[2, 0].
X(2) X() = 2A U[0, 2].
TEMA 4. PROCESOS ESTOC

ASTICOS 11
Observacion 4.1. Todo proceso de suma tiene incrementos inde-
pendientes. Lo demostraremos (sin perdida de generalidad) para
k = 3. Dados los instantes n
1
< n
2
< n
3
, se tiene que
Y (n
2
) Y (n
1
) =
n
2

i=n
1
+1
X(i) e Y (n
3
) Y (n
2
) =
n
3

i=n
2
+1
X(i)
Como ambos sumatorios no tienen ning un elemento en com un y
las X(i) son variables IID, los incrementos obtenidos son indepen-
dientes.
Asmismo, todo proceso de suma tiene incrementos estacionarios.
Tenemos que
Y (m+k) Y (n +k) =
m+k

i=n+k+1
X(i)
Esto es una suma de m n variables IID, luego su distribucion
no depende de k. Por ejemplo, si hablamos del proceso binomial,
Y (m+k) Y (n+k) B(mn, p) independientemente del valor
de k.
Nota 4.2. Por lo tanto cualquier proceso de suma tienen incremen-
tos independientes y estacionarios. Esto ocurre en particular para
el proceso binomial y el paseo aleatorio. Asmismo, se puede de-
mostrar que el proceso de Poisson y el de Wiener, que se obtienen
como lmite de los dos anteriores, heredan estas propiedades.
El siguiente ejemplo muestra que dichas propiedades resultan muy
utiles a la hora de trabajar sobre las distribuciones nito-dimensionales
de un proceso.
Ejemplo 4.4. Sea {Y (n)} un proceso binomial de parametro p.
Calcula P(Y (2) = 0, Y (5) = 1, Y (8) = 3, Y (10) = 3).
P(Y (2) = 0, Y (5) = 1, Y (8) = 3, Y (10) = 3) =
TEMA 4. PROCESOS ESTOC

ASTICOS 12
= P(Y (2)Y (0) = 0, Y (5)Y (2) = 1, Y (8)Y (5) = 2, Y (10)Y (8) = 0)
= P(Y (2) = 0)P(Y (5)Y (2) = 1)P(Y (8)Y (5) = 2)P(Y (10)Y (8) = 0)
(por tener incrementos independientes)
= P(Y (2) = 0)P(Y (3) = 1)P(Y (3) = 2)P(Y (2) = 0)
(por tener incrementos estacionarios)
=
_
2
0
_
p
0
q
2
_
3
1
_
p
1
q
2
_
3
2
_
p
2
q
1
_
2
0
_
p
0
q
2
= 9p
3
q
7
Observacion 4.3. Sea X un proceso con incrementos independi-
entes y estacionarios. Entonces, dados dos instantes s < t, sera C
X
(s, t) =

2
X
(s).
R
X
(s, t) = E[X(s)X(t)] = E[X(s)(X(t) X(s))] +E[X(s)
2
]
= E[X(s)]E[X(t)X(s)]+E[X(s)
2
] = E[X(s)]E[X(t)]E[X(s)]
2
+E[X(s)
2
]
= E[X(s)]E[X(t)] +
2
X
(s)
Ahora, la autocovarianza sera
C
X
(s, t) = R
X
(s, t) E[X(s)]E[X(t)] =
2
X
(s)
Observese que, entonces, el coeciente de correlacion sera

X
(s, t) =

2
X
(s)

X
(s)
X
(t)
=

X
(s)

X
(t)
Por ejemplo, si Y (n) es un proceso de suma, vimos que
2
Y
(n) =
n
2
X
. Entonces, dados dos instantes n < m, sera

Y
(n, m) =

Y
(n)

Y
(m)
=

n
X

m
X
=
_
n/m
TEMA 4. PROCESOS ESTOC

ASTICOS 13
Procesos estacionarios. Se distingue entre procesos estacionarios
en sentido estricto y en sentido amplio:
Decimos que un proceso es estacionario en sentido estric-
to (o simplemente estacionario) si para toda coleccion de
instantes t
1
< t
2
< < t
k
y todo h R, la distribucion de
(X(t
1
+h), ..., X(t
k
+h)) no depende de h.
Observese que esto debe ser as, en particular, para k = 1,
luego la distribucion de X(t) debe ser independiente de t.
Decimos que un proceso es estacionario en sentido amplio
(WSS) si verica:
m
X
(t) = (constante).
Para todo par de instantes t
1
t
2
y todo h R, la auto-
correlacion R
X
(t
1
+ h, t
2
+ h) es independiente de h. Esto
implica que debe ser
2
X
(t) =
2
(constante).
Observacion: Un proceso estacionario en sentido estricto lo es tam-
bien en sentido amplio. Sin embargo, la implicacion contraria no
es cierta, como muestra el siguiente contraejemplo.
Ejercicio: Considerense dos variables aleatorias, X
1
que puede tomar
valores 1 o -1 ambos con igual probabilidad, y X
2
que puede tomar
valores 1/3 o -3 con probabilidades 9/10 y 1/10 respectivamente.
Supuesto que las distintas realizaciones de las variables X
1
y X
2
son siempre independientes, demuestra que el proceso
X(n) =
_
X
1
si n par
X
2
si n impar
es estacionario en sentido amplio pero no en sentido estricto.
Ejemplo 4.5. El paseo aleatorio no es estacionario ni WSS. Para
demostrarlo basta con probar que no es WSS y esto es facil porque,
seg un vimos,
2
Y
(n) = n, luego no es constante.
TEMA 4. PROCESOS ESTOC

ASTICOS 14
Procesos markovianos. Decimos que un proceso es de Markov si
se verica, para toda coleccion de instantes t
1
< t
2
< < t
k
y
toda region A R, que
P(X(t
k
) A|X(t
k1
) = x
k1
, ..., X(t
1
) = x
1
) = P(X(t
k
) A|X(t
k1
) = x
k1
)
Observacion 4.4. Todo proceso con incrementos independientes es
markoviano, ya que
P(X(t
k
) = x
k
|X(t
k1
) = x
k1
X(t
1
) = x
1
) = P(X(t
k
)X(t
k1
) =
x
k
x
k1
|X(t
k1
) X(t
k2
) = x
k1
x
k2
, ..., X(t
2
) X(t
1
) =
x
2
x
1
, X(t
1
) = x
1
) = P(X(t
k
) X(t
k1
) = x
k
x
k1
) =
P(X(t
k
) = x
k
|X(t
k1
) = x
k1
).
El siguiente ejemplo muestra que la implicacion contraria no es
cierta.
Ejercicio 4.1. Sea {X(n)} un proceso en tiempo discreto tal que
X(0) =
_
1 p
1 q
y X(n) = X(n 1) si n 1
Comprueba que este proceso es markoviano pero no tiene incre-
mentos independientes.
Procesos ergodicos. En el contexto del procesamiento de se nales
aleatorias, un proceso estocastico se dice que es ergodico si carac-
tersticas como la media o la autocovarianza se pueden estimar de
forma correcta a partir de una unica realizacion del proceso.
Esta propiedad tiene especial interes cuando hablamos de proce-
sos WSS y queremos estimar su media (m
X
) o autocovarianza
(C
X
()).
Dado el siguiente estimador para la media:
m
X
=
1
2T
_
T
T
X(t)dt
TEMA 4. PROCESOS ESTOC

ASTICOS 15
si m
X
converge en media cuadratica a m
X
(cuando T ) deci-
mos que el proceso {X(t)} es ergodico en media.
Analogamente, dado el siguiente estimador para la autocovarianza:

C
X
() =
1
2T
_
T
T
(X(t +) m
X
)(X(t) m
X
)dt
si

C
X
() converge en media cuadratica a C
X
() (cuando T )
decimos que el proceso {X(t)} es ergodico en autocovarianza.
Ejemplo 4.6. Sea X(t) = A para todo t con A N(0, ). Ten-
emos que m
X
= 0 pero
m
X
=
1
2T
_
T
T
Adt = A
luego este proceso no es ergodico en media.
Teorema 4.5. Un proceso {X(t)}, de tipo WSS, con autocovari-
anza C
X
(), es ergodico en media s y solo si
lm
T
1
2T
_
2T
2T
_
1
|u|
2T
_
C
X
(u)du = 0
Ejemplo 4.7. El telegrafo aleatorio simetrico es ergodico en me-
dia. Para comprobarlo recordemos que su autocovarianza es C
X
() =
e
2||
. Entonces
1
2T
_
2T
2T
_
1
|u|
2T
_
C
X
(u)du =
2
2T
_
2T
0
_
1
u
2T
_
e
2u
du <
1
T
_
2T
0
e
2u
du
Pero esta ultima expresion resulta ser
1 e
4T
2T
, lo cual tiende a
cero cuando T .
TEMA 4. PROCESOS ESTOC

ASTICOS 16
4.4. Convergencia de sucesiones de variables aleato-
rias
Dada una sucesion de variables aleatorias X
1
, ..., X
n
, ..., se establecen
los siguientes tipos de convergencia:
Convergencia segura. Se da cuando lm
n
X(n, ) = X()
para todo .
Ejemplo 4.8. Sea X(n) = A(1 1/n) con A U(0, 1). En este
caso el proceso X(n) converge seguro a la variable aleatoria A.
Convergencia casi-segura. Se da cuando lm
n
X(n, ) = X()
para todo S con P(S) = 1.
Observacion: Esto tambien se puede expresar diciendo que
P( lm
n
X
n
= X) = 1
Ejemplo 4.9. Dada A U(1, 1) y X(n) =
1
nA + 1
, se tiene
que lm
n
X
n
= 0 casi seguro. Sin embargo para A = 0 se tiene
X
n
1.
Nota 4.6. Un ejemplo importante de convergencia casi segura es
la Ley Fuerte de los Grandes N umeros.
Convergencia en media cuadratica. Se da cuando
E[(X
n
() X())
2
] 0
Ejemplo 4.10. Dado A U(0, 1) y X
n
= A(1 1/n), se tiene
que lm
n
X
n
= A en media cuadratica.
Observacion: La convergencia casi-segura no implica la convergen-
cia en media cuadratica y tampoco se da la implicacion contraria,
como muestran los dos siguientes ejemplos:
TEMA 4. PROCESOS ESTOC

ASTICOS 17
Ejemplo 4.11. Sea C
L
= {n N :

L1
l=0
l < n

L
l=0
l} para
cada L 1 y sea X
n
un proceso aleatorio con X
n
{0, 1} denido
de modo que en cada C
L
hay un solo n elegido al azar tal que
X
n
= 1. Comprueba que X
n
0 en media cuadratica pero no
casi-seguro.
Ejemplo 4.12. Sea X
n
= e
n(nA1)
con A U(0, 1). Comprueba
que X
n
0 casi-seguro pero no en media cuadratica.
La convergencia en media cuadratica juega un importante papel
en la denicion de proceso ergodico.
Convergencia en probabilidad. Se da cuando P(|X
n
X| >
) 0 para todo > 0.
Proposicion: La convergencia casi-segura implica la convergencia
en probabilidad.
Proposicion: La convergencia en media cuadratica implica la con-
vergencia en probabilidad.
Observacion: Este ultimo resultado se demuestra facilmente uti-
lizando la desigualdad de Markov (ver tema 2):
P(|X
n
X| > ) = P((X
n
X)
2
>
2
)
E[(X
n
X)
2
]

2
0
Nota 4.7. Un ejemplo de convergencia en probabilidad es la Ley
Debil de los Grandes N umeros.
Convergencia en distribucion (tambien llamada convergencia
debil o convergencia en ley). Se da cuando
F
X
n
(x) F
X
(x)
en todo x en que F
X
es continua.
Proposicion: La convergencia en probabilidad implica la conver-
gencia en distribucion.
TEMA 4. PROCESOS ESTOC

ASTICOS 18
Nota 4.8. Un ejemplo de convergencia en distribucion es el Teore-
ma Central del Lmite.
El siguiente esquema resume las relaciones existentes entre los dis-
tintos tipos de convergencia:
_
s c.s p d
m.s p d

Vous aimerez peut-être aussi