Académique Documents
Professionnel Documents
Culture Documents
Wykad z Rachunku
Prawdopodobiestwa II
Adam Oskowski
ados@mimuw.edu.pl
http://www.mimuw.edu.pl/~ados
Streszczenie. Celem niniejszego skryptu jest wprowadzenie i omwienie podstawowych obiektw i poj pojawiajcych si w drugiej czci kursowego wykadu z Rachunku Prawdopodobiestwa.
Skad w systemie LATEX, z wykorzystaniem m.in. pakietw beamer oraz listings. Szablony podrcznika i prezentacji:
Piotr Krzyanowski; koncept: Robert Dbrowski.
Spis treci
1. Zbieno wedug rozkadu zbieno miar probabilistycznych w przestrzeniach
metrycznych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1. Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2. Funkcje charakterystyczne rozkadw prawdopodobiestwa w
2.1. Zmienne losowe o wartociach zespolonych. . . . . . . . . . . . .
2.2. Funkcje charakterystyczne . . . . . . . . . . . . . . . . . . . . . .
2.3. Przykady. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rd
. .
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
14
16
21
. . . . . . .
. . . . . . .
. . . . . . .
ergodyczne
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
49
49
52
55
58
Literatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
n=1
gdzie supremum jest wzite po wszystkich rozbiciach prostej rzeczywistej na przeliczaln liczb
zbiorw borelowskich (An )
n=1 . I teraz mwimy, e Xn zbiega do X jeli ||PXn PX || 0 gdy
n .
To podejcie jest jednak zbyt restrykcyjne i zbieno wedug rozkadu wprowadzimy w inny
sposb. W caym niniejszym rozdziale, (E, ) jest przestrzeni metryczn, B(E) oznacza klas
podzbiorw borelowskich E oraz
C(E) = {f : E R cige i ograniczone}.
Definicja 1.1. Niech (Pn )n bdzie cigiem miar probabilistycznych na B(E) (rozkadw prawdopodobiestwa na E). Mwimy, e cig (Pn ) jest zbieny wedug
rozkadu
do P (lub sabo
R
R
zbieny do P ), jeeli dla kadej funkcji f C(E) mamy E f dPn E f dP . Oznaczenie:
Pn P .
Dowd poprawnoci definicji: Musimy udowodni, e jeli Pn P oraz Pn P 0 , to
P = P 0 . Innymi sowy, musimy wykaza nastpujcy fakt.
Stwierdzenie
1.1.
Zamy, e P , P 0 s takimi rozkadami w E, e dla kadej funkcji f
R
R
C(E), E f dP = E f dP 0 . Wwczas P = P 0 .
Przytoczmy pomocniczy fakt z Topologii I.
Lemat 1.1. Niech F bdzie domknitym podzbiorem E. Wwczas dla kadego > 0 istnieje
f C(E) jednostajnie ciga speniajca 0 f 1 oraz
(
f (x) =
1
0
jeli x F,
jeli (x, F ) .
P (F ) =
E
1F dP
fn dP =
E
fn dP 0 P 0 (F ).
5
Przykady:
1. Zamy, e (an ) jest cigiem punktw z Rd oraz a Rd . Wwczas an a wtedy i tylko
an a wtedy
i tylko wtedy, gdy dla kadej funkcji f C(E)
wtedy, gdy an a . Istotnie,
R
R
mamy f (an ) f (a), czyli Rd f dan Rd f da .
2. Zamy, e (Pn ) jest cigiem miar probabilistycznych na R, zadanym przez
Pn ({k/n}) = 1/n,
k = 1, 2, . . . , n.
Wwczas Pn P , gdzie P jest rozkadem jednostajnym na [0, 1]. Istotnie, dla dowolnej
funkcji f C(R),
n
X
1
f dPn =
f (k/n)
n
R
k=1
Z 1
f (x)dx =
0
f dP.
R
Dowd:. a) b) oczywiste.
b) c) Ustalmy > 0 i niech F = {x E : (x, F ) }. Na mocy Lematu 1.1 istnieje
f C(E) jednostajnie ciga, przyjmujca wartoci w [0, 1], rwna 1 na F oraz 0 na Fc . Mamy
Z
Pn (F ) =
f dPn
f dPn
f dP P (F ).
f dP =
F
lim sup
n
f dPn
f dP,
(1.1)
Ai = x E :
i1
i
f (x) <
,
k
k
i = 1, 2, . . . , k.
Oczywicie
Sk
i=1 Ai
L :=
i=1
P (Ai )
k Z
X
f dP =
E
f dP
i=1 Ai
k
X
i
i=1
P (Ai ) =: R.
Zauwamy, e
i1
i
f (x) \ x : f (x) =: Fi1 \ Fi ,
k
k
i = Fk Fk1 . . . F1 F0 = E jest zstpujcym cigiem zbiorw domknitych. Zatem
P (Ai ) = P (Fi1 ) P (Fi ), i = 1, 2, . . . , k, i podstawiajc dostajemy
Ai = x :
L=
k
X
i1
i=1
(P (Fi1 ) P (Fi )) =
k1
X
i=0
k1
1
P (Fk ) +
k
k
k1
X
P (Fi ) =
i=1
k
X
i
i1
P (Fi )
P (Fi )
k
k
i=1
X
1 k1
P (Fi )
k i=1
oraz
R=
k
X
i
i=1
(P (Fi1 ) P (Fi )) =
k1
X
i=0
1
= P (Fk ) +
k
k
X
i+1
i
P (Fi )
P (Fi )
k
k
i=1
k1
X
X
1 1 k1
P (Fi ) = +
P (Fi ).
k k i=1
i=0
f dPn
R
E
X
1 1 k1
Pn (Fi ),
+
k k i=1
lim sup
n
f dPn
Z
X
X
1 1 k1
1 1 k1
1
f dP.
+
lim sup Pn (Fi ) +
P (Fi ) +
k k i=1
k k i=1
k
n
E
7
Stwierdzenie 1.2. Zamy, e Pn , P s rozkadami prawdopodobiestwa w Rd (n = 1, 2, . . .),
o dystrybuantach Fn , F , odpowiednio. Wwczas Pn P wtedy i tylko wtedy, gdy Fn (x) F (x)
dla kadego punktu x, w ktrym F jest ciga.
Dowd:. Wemy punkt x = (x1 , x2 , . . . , xd ) cigoci dystrybuanty F i niech A = {y Rd :
yi xi , i = 1, 2, . . . , d}. Zauwamy, i P (A) = 0; w przeciwnym razie F miaaby niecigo
w punkcie x (istotnie, mielibymy
1
1
1
1
lim F (x1 , x2 , . . . , xd ) = lim P ({y Rd : yi xi })
k
k
k
k
k
< P (A) = F (x) ).
k
[
Ai ) = +
k
X
i=1
= + lim Pn (
n
k
[
P (Ai Aj ) + . . .
1i<jk
lim Pn (Ai )
P (Ai )
i=1
i=1
=+
k
X
1i<jk
lim Pn (Ai Aj ) + . . .
i=1
i {0,1}
i {0,1}
= P ((a, b]).
Wystarczy skorzysta z poprzedniego lematu.
n = 1, 2, . . . .
Jak atwo zauway, (Xn ) nie jest ani zbieny prawie na pewno, ani wedug prawdopodobiestwa. Natomiast z punktu widzenia sabej zbienoci, jest to cig stay: PXn = 21 0 + 21 1 .
Cig ten zbiega sabo do X1 oraz do X2 .
Stwierdzenie 1.3. Zamy, e E jest przestrzeni orodkow oraz X, Xn , Yn (n = 1, 2, . . .)
s zmiennymi losowymi o wartociach w E, przy czym dla kadego n, zmienne Xn oraz Yn
P
s okrelone na tej samej przestrzeni probabilistycznej. Jeli Xn X oraz (Xn , Yn )
0, to
Yn X.
Biorc Xn = X, dostajemy std natychmiast nastpujcy fakt.
Wniosek 1.1. Jeli (Xn ) zbiega do X wedug prawdopodobiestwa, to zbiega take wedug rozkadu.
Dowd Stwierdzenia 1.3. Niech F bdzie dowolnym domknitym podzbiorem przestrzeni E i
ustalmy > 0. Zbir F = {x : (x, F ) } jest domknity i mamy
PYn (F ) = P(Yn F, (Xn , Yn ) ) + P(Yn F, (Xn , Yn ) > )
P(Xn F ) + P((Xn , Yn ) > ).
Zatem
lim sup PYn (F ) lim sup PXn (F ) + 0 PX (F )
n
9
Przykad:
Zamy, e (Xi )iI jest rodzin zmiennych losowych o wartociach rzeczywistych, takich, e
dla pewnego > 0, a := supiI E|Xi | < . Wwczas rodzina rozkadw (PXi )iI jest ciasna.
Istotnie, ustalmy > 0 i L > 0. Na mocy nierwnoci Czebyszewa, dla kadego i I,
PXi ([L, L]) = P(|Xi | L) = 1 P(|Xi | > L) 1
E|Xi |
a
1 = 1 ,
L
L
Potrzebne nam bd nastpujce trzy fakty: z Topologii, Analizy Funkcjonalnej oraz Teorii
Miary.
Stwierdzenie 1.4. Zamy, e K jest przestrzeni metryczn zwart. Wwczas C(K) jest
orodkowa.
Stwierdzenie 1.5 (Regularno). Zamy, e jest miar skoczon na B(E). Wwczas dla
kadego A B(E) istnieje cig (Fn ) zbiorw domknitych zawartych w A oraz cig (Gn ) zbiorw
n
n
otwartych zawierajcych A, takie, e (Fn ) (A) oraz (Gn ) (A).
Dowd twierdzenia odwrotnego. Zamy, e P jest ciasny. Wobec tego, dla kadego m = 1, 2, . . .
1
istnieje zwarty podzbir Km przestrzeni E taki, e P (Km ) 1 m
dla wszystkich P P. Bez
straty oglnoci moemy zaoy, e cig (Km ) jest wstpujcy (zastpujc ten cig, w razie
potrzeby, przez cig K1 , K1 K2 , K1 K2 K3 , . . .).
Niech (Pm ) bdzie cigiem miar z P. Dla wikszej przejrzystoci dowodu, podzielimy go na
kilka czci.
1. Na mocy Stwierdzenia 1.4, dla kadego m = 1, 2, . . ., C(Km ) jest przestrzeni orodkow.
Niech {fmr }r=1, 2, ... bdzie jej przeliczalnym gstym podzbiorem. Dla kadego m, r, cig
R
( Km fmr dPn )n jest ograniczonym cigiem liczbowym; mona z niego wybra podcig zbieny.
Stosujc metod
przektniow widzimy, i istnieje podcig (n1 , n2 , . . .) taki, e dla wszystkich
R
m, r, cig ( Km fmr dPni )i jest zbieny.
10
R
Km
f dPni )i
Z
Z
f dPni
fmr dPni
f dPni
f dPnj
K
Km
Km
Km
Z m
Z
fmr dPnj
fmr dPni
+
K
ZKm
Z m
fmr dPnj
f dPnj .
+
Km
Km
Dwa skrajne skadniki po prawej stronie szacuj si przez /3; na przykad, mamy
Z
Km
f dPni
Z
Km
Z
fmr dPni
Km
|f fmr |dPni
Z
Km1 \Km2
f dPni =
Km1
f dPni
Z
Km2
f dPni
1
.
m2
Z
Km1
f dm1
Z
K m2
f dm2 =
f dm1
Z
E
f dm2
1
.
m2
11
1.1. Zadania
1
+ m (Ak ).
m
1
m.
Z
1
III = f d( m ) sup |f |((E) m (E)) sup |f | .
m
E
1.1. Zadania
1. Udowodni, e cig (Exp(n/(n + 1))) jest zbieny wedug rozkadu do Exp(1).
2. Dany jest cig (Xn ) zmiennych losowych zbieny wedug rozkadu do zmiennej losowej
X. Udowodni, e cig (sin Xn ) jest zbieny wedug rozkadu do zmiennej sin X.
12
3. Czy zmienne losowe posiadajce gsto mog zbiega wedug rozkadu do zmiennej o
rozkadzie dyskretnym? Czy zmienne losowe o rozkadach dyskretnych mog zbiega do zmiennej o rozkadzie cigym?
4. Niech X1 , X2 , . . . bd zmiennymi losowymi, przy czym dla n 1 rozkad zmiennej Xn
okrelony jest nastpujco:
j
P Xn =
n
2j
, j = 1, 2, . . . , n.
n(n + 1)
Udowodni, e cig (Xn ) jest zbieny wedug rozkadu. Wyznaczy rozkad graniczny.
5. Niech B(n, p) oznacza rozkad Bernoulliego o n prbach z prawdopodobiestwem sukcesu
p, a Pois() - rozkad Poissona z parametrem . Wykaza, e jeli npn , to B(n, pn )
P ois().
6. Zmienne losowe X1 , X2 , . . . zbiegaj wedug rozkadu do zmiennej X staej p.n. Wykaza,
e cig (Xn ) zbiega do X wedug prawdopodobiestwa.
7. Niech gn , g oznaczaj odpowiednio gstoci rozkadw prawdopodobiestwa n , na RN .
Udowodni, e jeli gn g p.w., to n .
8. Niech S bdzie przeliczalnym podzbiorem RN , za n , - miarami probabilistycznymi
skupionymi na S. Wykaza, e jeli dla kadego x S mamy n ({x}) ({x}), to n .
9. Cig dystrybuant (Fn ) zbiega punktowo do dystrybuanty cigej F . Wykaza, e zbieno
jest jednostajna.
10. Dane s cigi (Xn ), (Yn ) zmiennych losowych, okrelonych na tej samej przestrzeni probabilistycznej, przy czym (Xn ) zbiega wedug rozkadu do X, a (Yn ) zbiega wedug rozkadu
do zmiennej Y staej p.n.. Udowodni, e (Xn + Yn ) zbiega wedug rozkadu do X + Y . Czy
teza pozostaje prawdziwa bez zaoenia o jednopunktowym rozkadzie Y ?
11. Dany jest cig (Xn ) zmiennych losowych przyjmujcych wartoci w przedziale [0, 1].
n
1
, to (Xn ) jest zbieny
Udowodni, e jeli dla kadego k = 0, 1, 2, . . . mamy EXnk k+1
wedug rozkadu.
12. Zamy, e (Xn ) jest cigiem niezalenych zmiennych losowych o rozkadzie Cauchyego
z parametrem a > 0, tzn. z gstoci
g(x) =
Udowodni, e
rozkadu.
1
n
maxkn Xk
1
T,
a
.
(a2 + x2 )
13. Zamy, e E jest przestrzeni polsk oraz P jest rodzin miar probabilistycznych na
B(E), tak, e z kadego cigu jej elementw mona wybra podcig zbieny.
(i) Udowodni, e
>0 >0 x1 , x2 , ..., xn E P P P (
n
[
k=1
B(xk , )) 1 ,
1.1. Zadania
13
temu, e E|X| = E X12 + X22 < ), to definiujemy EX = EX1 + iEX2 . Bez trudu dowodzimy,
i maj miejsce nastpujce fakty.
(i) Mamy |EX| E|X|.
(ii) Zachodzi twierdzenie Lebesguea o zmajoryzowanym przejciu do granicy pod znakiem
wartoci oczekiwanej.
(iii) Dla dowolnych z1 , z2 C i dowolnych zespolonych zmiennych losowych X, Y takich, e
EX, EY istniej, mamy
E(z1 X + z2 Y ) = z1 EX + z2 EY.
P (t) =
ei(t,x) P (dx),
Rd
t Rd ,
dla wszystkich t Rd .
15
tRd
tRd
gdy h 0.
3) Zamy, e X jest d-wymiarow zmienn losow. Wwczas X jest dodatnio okrelona,
tzn. dla wszystkich a1 , a2 , . . . , an C oraz t1 , t2 , . . . , tn Rd ,
X
X (tj tk )aj ak 0.
j,k
Istotnie, mamy
2
n
Z X
X
i(tj ,x)
aj ei(tj ,x) ak ei(tk ,x) PX (dx)
aj e
0
PX (dx) = d
R j,k
Rd j=1
Z
X
X
Z
aj ak
j,k
Rd
X (tj tk )aj ak .
j,k
Twierdzenie 2.1 (Bochner). Funkcja : Rd C jest funkcj charakterystyczn pewnego rozkadu prawdopodobiestwa w Rd wtedy i tylko wtedy, gdy jest ciga, dodatnio
okrelona oraz (0) = 1.
T t,X)
X (t) = ik E(eitX X k ).
(k)
W szczeglnoci, X (0) = ik EX k .
Wemy najpierw k = 1. Mamy
X (t + h) X (t)
ei(t+h)X eitX
=E
= EeitX
h
h
eihX 1
.
h
16
zatem z twierdzenia Lebesguea wynika teza. Dla k > 1 dowd jest analogiczny, opierajcy si
na indukcji.
Zachodzi nastpujcy oglniejszy fakt: jeli X = (X1 , X2 , . . . , Xd ) jest d-wymiarow zmienn losow tak, e E|X|k < , to X ma cige pochodne czstkowe k-tego rzdu i
k
tj11 tj22
X (t1 , t2 ,
. . . tjdd
n
Y
ei(t,Xj ) =
j=1
n
Y
Eei(t,Xj ) =
j=1
n
Y
Xj (t).
j=1
2.3. Przykady.
(I) Zamy najpierw, e X jest d-wymiarow zmienn losow o rozkadzie skokowym i niech
SX oznacza zbir atomw. Bezporednio z definicji mamy, i
X (t) =
ei(t,x) PX ({x}).
xSX
W szczeglnoci:
1) Jeli PX = a , a Rd , to X (t) = ei(t,a) . Co wicej, jeli a = 0, to X 1.
2) Zamy, e PX =Pois(), > 0. Mamy
X (t) =
X
k=0
eitk
X
(eit )k
k
it
it
e = e
= e ee = e(e 1) .
k!
k!
k=0
3) PX =B(n, p). Niech X1 , X2 , . . . , Xn bd niezalenymi zmiennymi losowymi o tym samym rozkadzie P(Xi = 1) = p = 1 P(Xi = 0). Poniewa X1 + X2 + . . . + Xn ma ten sam
rozkad co X, to
X (t) = X1 +X2 +...+Xn (t) = X1 (t)X2 (t) . . . Xn (t)
= (X1 (t))n = (1 + p(eit 1))n .
(II) Zamy teraz, e X jest d-wymiarow zmienn losow o rozkadzie cigym z gstoci
g. Z definicji mamy, i
Z
X (t) =
ei(t,x) g(x)dx.
Rd
W szczeglnoci:
4) Jeli PX jest rozkadem jednostajnym na przedziale [a, b], to
1
X (t) =
ba
Z b
a
eitx dx =
1
(eitb eita ).
it(b a)
sin(tb)
tb .
17
2.3. Przykady.
oraz
X (t) = eitm e
()
2 t2 /2
Zatem wystarczy udowodni wzr (*) dla rozkadu N (0, 1). Zamy wic, e X ma ten rozkad
i zauwamy najpierw, e X jest funkcj rzeczywist, gdy rozkad X jest symetryczny. Zatem
1
2
cos(tx) ex /2 dx
2
R
X (t) =
oraz
0X (t)
1
2
sin(tx) (x)ex /2 dx
2
R
Z
1
1
2
x2 /2
t cos(tx)ex /2 dx = tX (t).
= sin(tx)e
2
2 R
Z
detA
1
g(x) =
exp (A(x m), x m)
2
(2)d/2
(gdzie A to pewna macierz d d symetryczna i dodatnio okrelona, a m jest pewnym wektorem
z Rd ), to
1
X (t) = ei(m,t) e(A t,t)/2 .
Dowd tego faktu przeprowadzimy nieco pniej.
Przejdziemy teraz do twierdzenia o jednoznacznoci: okazuje si, e funkcja charakterystyczna wyznacza rozkad jednoznacznie.
18
Dowd:. Mamy
=
Rn
n
Y
exp i
n
X
j=1
j=1 R
n
Y
Xj (tj ),
j=1
Dowd twierdzenia o jednoznacznoci (tylko dla d = 1):. Wystarczy udowodni, e dla dowolnej funkcji f C(R) mamy
Z
f dP =
()
R
f dP 0 .
Z zaoenia, (*) zachodzi dla funkcji x 7 eitx , x R, przy kadym ustalonym t R. Zatem, z
liniowoci, powysza rwno ma miejsce dla dowolnego wielomianu trygonometrycznego; mamy
bowiem sin(tx) = (eitx eitx )/(2i), cos(tx) = (eitx + eitx )/2. Na mocy twierdzenia Weierstrassa, (*) jest prawdziwa dla dowolnej funkcji cigej okresowej. Niech teraz f bdzie dowoln
funkcj cig i ograniczon. Istnieje cig (fn ) funkcji cigych i okresowych o nastpujcej
wasnoci:
f (x) = fn (x) dla x [n, n] oraz sup |fn (x)| sup |f (x)|.
xR
xR
|f
f
|dP
+
f
dP
f
dP
|f fn |dP 0
n
n
n
+
R
R
R
R
ZR
Z R
=
[n,n]c
|f fn |dP + 0 +
[n,n]c
0
|f fn |dP 0
xR
gdy n . Std otrzymujemy tez. W przypadku oglnym (tzn. dla d > 1) dowd jest bardzo
podobny; rol twierdzenia Weierstrassa peni oglniejsze twierdzenie Stonea-Weierstrassa.
19
2.3. Przykady.
2 /2
T t,B T t)/2
= ei(t,m)(BB
T t,t)/2
Zauwamy, e BB T jest macierz symetryczn, nieujemnie okrelon. Co wicej, kada macierz symetryczna d d nieujemnie okrelona da si ta zapisa; std, dla dowolnej nieujemnie
okrelonej symetrycznej macierzy o wymiarach d d i dowolnego wektora m Rd , funkcja
(t) = ei(t,m)(t,t)/2
jest funkcj charakterystyczn dokadnie jednego rozkadu prawdopodobiestwa w Rd . Rozkady tej postaci nazywamy rozkadami Gaussa w Rd . Zauwamy, e niektre rozkady Gaussa nie
maj gstoci.
Bezporednio z definicji dostajemy nastpujce wnioski.
Stwierdzenie 2.2. Zamy, e X ma rozkad Gaussa w Rd , a A jest macierz n d i m Rn .
Wwczas AX + m ma rozkad Gaussa w Rn .
Stwierdzenie 2.3. Jeli X, Y s niezalenymi zmiennymi losowymi o rozkadach Gaussa w
Rd o wartociach oczekiwanych mX , mY oraz macierzach kowariancji 1 , 2 , odpowiednio, to
X + Y ma rozkad Gaussa w Rd o wartoci redniej mX + mY oraz macierzy 1 + 2 .
Przechodzimy do kolejnego bardzo wanego faktu, czcego zbieno wedug rozkadu ze
zbienoci funkcji charakterystycznych.
Pn (t) =
Z
d
ZR
ZR
Rd
20
Qa
(t)dt
Re(t)dt (1 /2)(2a)d ,
Qa
Z Z
Z Z
i(t,x)
i(t,x)
e
dtPnk (dx)
e
Pnk (dx)dt =
Pnk (t)dt =
d
d
R
Qa
Qa R
Qa
Z Z
Z Z
i(t,x)
i(t,x)
e
dt Pnk (dx)
e
dt Pnk (dx) +
Qk
Qa
Qk
Qa
T =
Qck
Qa
Y
Z a
d
itj xj
dt
e
j Pnk (dx).
Qck j=1 a
Z
ei(t,x) dt Pnk (dx) =
j=1
Std
(2a)d Pnk (Qk ) + T (2a)d Pnk (Qk ) + 2(2a)d1 Pnk (Qck )/k
k
R
Qa
Pnk (t)dt
R
Qa
Przechodzimy do dowodu czci (ii) twierdzenia Levy-Cramera. Powyszy lemat oraz twierdzenie Prochorowa daj istnienie miary probabilistycznej P na Rd oraz podcigu (Pnk )k zbiek
nego sabo do P . Na mocy czci (i) twierdzenia Levy-Cramera, mamy Pnk (t) P (t),
skd (t) = P (t). Pozostaje jeszcze Rtylko udowodni,
e Pn P . Przypumy przeciwnie, i
R
d
dla pewnej funkcji f C(R ) mamy Rd f dPn 6 Rd f dP ; std, dla pewnego podcigu (mk ),
Z
()
Rd
f dPmk 6=
f dP.
Rd
Ale na mocy lematu, rodzina (Pmk ) take jest ciasna, std z twierdzenia Prochorowa istnieje
podcig (mkj ) oraz miara probabilistyczna P 0 taka, e Pmkj P 0 . Zatem, korzystajc z (i),
Pmk (t) P 0 (t), czyli P = P 0 . Sprzeczno z (*) koczy dowd.
j
Na zakoczenie zaprezentujemy twierdzenie o odwrceniu, pozwalajce odczyta gsto rozkadu za pomoc jego funkcji charakterystycznej. Analogiczny fakt dla zmiennych dyskretnych
jest treci zadania 10 poniej.
21
2.4. Zadania
1
(2)d
Z
Rd
ei(t,x) P (t)dt.
2 2
ei(t,yx) e|t| /2 dtP (dy)
d/2
d/2
d
d
d
(2) R (2)
R
Z
1
2
2
e|yx| /(2 ) P (dy),
d/2
d
(2) Rd
Z
g (x) =
=
=
=
2 2
0+
Z M
Z M
M
g (x)dx =
g(x)dx,
M
i z dowolnoci dostajemy, i g jest gstoci. Wystarczy teraz skorzysta z zadania 7 z pierwszego rozdziau: punktowa zbieno g g pociga za sob, i (X + Y ) zbiega, przy 0+,
do rozkadu o gstoci g; std teza.
2.4. Zadania
1. Rozstrzygn, czy podane niej funkcje s funkcjami charakterystycznymi i jeli tak,
poda odpowiedni rozkad.
a) cos t,
b) cos2 t,
c)
1
(1 + eit )2 ,
4
d)
1 + cos t
,
2
e) (2 eit )1 .
2. Niech 1 , 2 , . . ., n bd funkcjami charakterystycznymi pewnych rozkadw. Udowodni, i dowolna kombinacja wypuka tych funkcji jest funkcj charakterystyczn pewnego
rozkadu.
3. Dany jest cig (Xn ) niezalenych zmiennych losowych o tym samym rozkadzie. Zmienna
losowa N jest od nich niezalena i ma rozkad Poissona z parametrem . Wyznaczy funkcj
22
charakterystyczn zmiennej X1 + X2 + . . . + XN .
4. Niech bdzie funkcj charakterystyczn pewnego rozkadu. Rostrzygn, czy
a) 2 ,
c) ||2 ,
b) Re,
d) ||
s funkcjami charakterystycznymi.
5. Zmienne X, Y s niezalene, przy czym X oraz X + Y maj rozkady normalne. Udowodni, e Y ma rozkad normalny lub jest staa p.n..
6. Zmienne losowe X, Y s niezalene, przy czym X ma rozkad jednostajny U (0, 1), a Y
ma rozkad zadany przez
1
,
n
P(Y = k) =
k = 0, 1, 2, . . . , n 1.
eikt X (t)dt,
k Z.
11. Udowodni, e dla p > 2 funkcja (t) = e|t| nie jest funkcj charakterystyczn adnego
rozkadu.
12. Udowodni, e (t) = e|t| jest funkcj charakterystyczn rozkadu Cauchyego w R,
tzn. rozkadu o gstoci
1 1
g(x) =
.
1 + x2
13. Niech X1 , X2 , . . . bd niezalenymi zmiennymi losowymi o rozkadzie jednostajnym na
przedziale [1, 1]. Zdefiniujmy
Yn =
sgn Xn
,
|Xn |1/
n = 1, 2, . . . ,
23
2.4. Zadania
a (t) =
1 + a|x|
1+a
jeli |x| 1,
jeli |x| > 1.
Dla jakich wartoci parametru a funkcja a jest funkcj charakterystyczn rozkadu pewnej
zmiennej losowej?
19. Zamy, e jest rozkadem prawdopodobiestwa o funkcji charakterystycznej . Udowodni, e dla dowolnego r > 0 zachodzi nierwno
([r, r]) 1
oraz
([0, r]) r
r
2
Z 2/r
(1 (s))ds
2/r
Z /2r
/2r
|(s)|ds.
2
EXkn
1.
k=1
rn
X
2
EXkn
1{|Xkn |>} 0
k=1
Powstaje tu naturalne pytanie, co tak naprawd mwi warunek Lindeberga. Intuicyjnie rzecz
biorc, oznacza on, i przy n zbiegajcym do nieskoczonoci, zmienne X1n , X2n , . . ., Xrn n
s rwnie mae. Innymi sowy, w n-tym wierszu nie ma zmiennych losowych, ktre byyby
dominujce w stosunku do pozostaych. cilej, mamy nastpujce dwie wasnoci.
Wnioski z warunku Lindeberga
P
0. Istotnie, dla kadego > 0,
1. Mamy maxkrn |Xkn |
P(max |Xkn | > ) = P
krn
rn
[
{|Xkn | > }
k=1
rn
X
rn
X
P(|Xkn | > )
k=1
n
2
EXkn
1{|Xkn |>} 0.
k=1
2 0. Rzeczywicie, dla dowolnego > 0,
2. Mamy maxkrn EXkn
2
2
2
EXkn
= EXkn
1{|Xkn |>} + EXkn
1{|Xkn |}
rn
X
2
EXln
1{|Xln |>} + 2 22 ,
l=1
25
b2
n
n
X
k=1
to
X1 + X2 + . . . + Xn m1 m2 . . . mn
N (0, 1).
bn
N (0, 1).
n
Dowd:. Wystarczy sprawdzi warunek Lindeberga. Mamy
n
1 X
1
E|Xn m|2 1{|Xn m|>n} = 2 E|X1 m|2 1{|X1 m|>n} 0,
n 2 k=1
2
EXkn
1
k=1
oraz
rn
X
E|Xkn |2+ 0
k=1
n
X
k=1
|ak bk |.
26
Dowd:. Stosujemy indukcj. Dla n = 1 nierwno jest oczywista. Dalej, zamy, e jest ona
prawdziwa dla pewnego n sprbujmy j udowodni dla n + 1. Oznaczajc a = a1 a2 . . . an ,
b = b1 b2 . . . bn , mamy
|a1 a2 . . . an+1 b1 b2 . . . bn+1 | = |aan+1 bbn+1 |
|aan+1 abn+1 | + |abn+1 bbn+1 |
= |a||an+1 bn+1 | + |bn+1 ||a b|
n+1
X
|ak bk |,
k=1
co koczy dowd.
Lemat 3.2. Dla dowolnego y R oraz k = 0, 1, 2, . . . mamy
iy
e
(iy)2
(iy)k
1 + iy +
+ ... +
2!
k!
!
|y|k+1
.
(k + 1)!
iy
Z y
ix
e dx |y|.
1| = i
0
+ ... +
e 1 + ix +
dx
2!
k!
0
Z |y|
k+1
k+2
x
|y|
dx =
.
(k + 1)!
(k + 2)!
t2 /2
r
rn
n
Y
Y
2 t2 /2
kn
|=
Xkn (t)
e
k=1
k=1
2 Prn 2
2
+ et k=1 kn /2 et /2 .
{z
}
|
Dn
Cn
27
Wystarczy wykaza, e (Bn ), (Cn ), (Dn ) d do 0. Zbieno cigu (Dn ) do 0 jest oczywista
Pn
2 1. Zajmijmy si teraz cigiem (C ). Ustalmy > 0. Istnieje
na mocy warunku rk=1
kn
n
> 0 taka,e jeli |x| < , to |r(x)/x| < . Jak ju wiemy, warunek Lindeberga pociga za sob,
2 /2 < , a co za tym idzie,
i dla dostatecznie duych n, maxkrn t2 kn
rn
rn
2 2
X
t2 X
t2
r(t kn /2) 2 2
2
kn
,
Cn =
2 2
t kn /2 <
t kn /2
2 k=1
2
k=1
a wic cig (Cn ) zbiega do 0. Wreszcie, dla ustalonego > 0, korzystajc z drugiego z powyszych
lematw (z k = 2 oraz z k = 3),
2 t2
kn
2
/2)
Xkn 1 +
= E(eitXkn 1 itXkn + t2 Xkn
2
itXkn
2
1 itXkn + t2 Xkn
/2 1{|Xkn |}
E e
2
/2 1{|Xkn |>}
+ E eitXkn 1 itXkn + t2 Xkn
2
|Xkn t|3
t2 Xkn
E
1{|Xkn |} + E eitXkn 1 itXkn 1{|Xkn |>} + E
1{|Xkn |>}
6
2
|t|3 2
t2 Xkn
kn + 2E
1{|Xkn |>} .
6
2
Zatem
Bn
rn
rn
X
2|t|3
|t|3 X
2
2
kn
+ t2
EXkn
1{|Xkn |>}
+
6 k=1
6
k=1
np(1 p)
np(1 p)
28
Twierdzenie 3.4. Zamy, e dla kadego n zmienne X1n , X2n , . . ., Xrn n s niezalene i cakowalne z kwadratem. Oznaczmy mkn := EXkn i przypumy, e
rn
X
EXkn m,
k=1
rn
X
VarXkn 2
k=1
oraz
rn
X
(L)
k=1
X1 + X2 + . . . + Xn (m1 + m2 + . . . + mn )
N (0, 1)
bn
X1 + X2 + . . . + Xn (m1 + m2 + . . . + mn )
x (x)
P
bn
Z x
1
2
=
ey /2 dy.
2
czyli
y m1 m2 . . . mn
sup P(X1 + X2 + . . . + Xn y)
< .
b
yR
29
3.1. Zadania
Twierdzenie 3.5 (Nierwno Berry-Essena). Zamy, e X1 , X2 , . . ., s niezalenymi scentrowanymi zmiennymi losowymi o tym samym rozkadzie i niech 2 =VarXn >
0, := E|Xn |3 < . Wwczas
X1 + X2 + . . . + Xn
c
sup P
x (x) 3 ,
n
n
xR
gdzie jako c mona wzi 0, 7655 (optymalna - czyli najmniejsza moliwa - warto c
nie jest znana).
W szczeglnoci, przy zaoeniach twierdzenia de Moivrea-Laplacea,
sup P
xR
p2 + (1 p)2
n np
p
x (x) c p
.
np(1 p)
np(1 p)
3.1. Zadania
1. Sumujemy 10 000 liczb, kad zaokrglon z dokadnoci do 10m . Przypumy, e
bdy spowodowane przez zaokrglenia s niezalenymi zmiennymi losowymi o rozkadzie jednostajnym na przedziale (10m /2, 10m /2). Znale przedzia (moliwie krtki), do ktrego z
prawdopodobiestwem 0, 95 bdzie nalea bd cakowity (tzn. po zsumowaniu).
2. Obliczy
lim e
n
X
nk
k=0
k!
Udowodni, e
X1 + X2 + . . . + Xn
N (0, 1),
n
mimo i limn VarXn = 2.
5. Zmienne losowe X1 , X2 , . . . s niezalene, przy czym dla n 1, P(Xn = n) = P(Xn =
P
n) = 1/2. Niech s2n = nk=1 VarXk . Czy cig zmiennych losowych
X1 + X2 + . . . + Xn
sn
jest zbieny wedlug rozkadu, a jeli tak, to do jakiej granicy?
6. Zamy, e X jest zmienn losow speniajc warunki
30
(i) EX 2 < ,
.
n n
E(X|B) =
X()P(d|B).
P(A B)
1
=
P(B)
P(B)
1A dP.
B
XdP.
B
Oznaczenie: E(X|M).
W szczeglnoci gdy X = 1A , A F, to definiujemy prawdopodobiestwo warunkowe
zdarzenia A pod warunkiem M poprzez P(A|M) = E(1A |M).
Twierdzenie 4.1. Zamy, e X jest cakowaln zmienn losow, a M jest
pod--ciaem F. Wwczas warunkowa warto oczekiwana istnieje i jest wyznaczona
jednoznacznie z dokadnoci do rwnoci p.n.
32
Dowd:. Dla dowolnego B M definiujemy (B) = B XdP. Funkcja : M R jest przeliczalnie addytywn funkcj zbioru. Ponadto jeli P(B) = 0, to (B) = 0 (jest to tzw. absolutna
cigo wzgldem P). Na mocy twierdzenia Radona-Nikodyma istnieje M-mierzalna zmienna
losowa bdca gstoci wzgldem P, tzn. taka, e dla wszystkich B M,
Z
XP = (B) =
B
dP.
B
f (x) =
X
xSX
h(x)
P(X,Y ) (x, Y )
.
PY (Y )
33
Aby to wykaza, naley sprawdzi, i prawa strona (oznaczana dalej przez ) spenia wasnoci 1) i 2) z definicji E(h(X)|(Y )). Pierwszy warunek jest jasny - , jako funkcja Y , jest
(Y )-mierzalna. Zajmijmy si zatem drugim warunkiem. niech B (Y ). Poniewa Y ma rozkad dyskretny, B jest co najwyej przeliczaln sum zdarze postaci {Y = y} oraz zdarzenia
o prawdopodobiestwie 0. Wystarczy wic sprawdzi 2) dla zbiorw B postaci {Y = y}. Mamy
Z
dP =
{Y =y}
oraz
h(x)
{Y =y} xS
Z
{Y =y}
h(X)dP =
X
PX,Y (x, y)
dP =
h(x)PX,Y (x, y)
PY (y)
xS
h(x)
1{X=x} dP =
{Y =y}
xSX
xSX
( + )k (+)
e
,
k!
k = 0, 1, 2, . . . .
Ponadto, jeli k ` 0, to
PX,X+Y (`, k) = P(X = `, X + Y = k) = P(X = `)P(Y = k `)
`
k`
e
e
`!
(k `)!
=
i
PX,X+Y (`, k)
k!` k`
=
=
PX+Y (k)
`!(k `)!( + )k
k
`
!
`
k`
Std
(X + Y ).
+
E(X|X + Y ) =
g(x,y)
jeli gY (y) 6= 0,
jeli gY (y) = 0.
gY (y)
R g(x, y)dx
bdzie gstoci
()
E(h(X)|Y ) =
R
h(X)dP =
B
1{Y A} h(X)dP =
1{yA} gY (y)
ZR Z
h(x)gX|Y (x|y)dxdy
R
=
B
R2
34
RdP =
B
Z B
E(X1 |MdP +
Z
B
E(X2 |MdP =
X1 dP +
B
X2 dP
B
X1 + X2 dP.
=
B
2. Jeli X jest nieujemn zmienn losow, to E(X|M) 0 p.n. Istotnie, niech B = {E(X|M) <
0}. Wwczas B M i
Z
Z
B
E(X|M)dP =
XdP.
B
()
p.n.
n B
Xn = lim
n B
E(Xn |M) =
.
B
p.n.
35
W szczeglnoci, biorc X2 1, dostajemy, i E(X1 |M) = X1 .
Sprawdzamy, e prawa strona spenia warunki 1) oraz 2) z definicji E(X1 X2 |M). Warunek
1) jest oczywisty, pozostaje wic sprawdzi drugi. Zastosujemy metod komplikacji zmiennej
X1 .
a) Jeli X1 = 1A , gdzie A M, to dla dowolnego B M,
Z
B
X1 E(X2 |M)dP =
AB
E(X2 |M)dP =
X2 dP =
AB
X1 X2 dP.
B
b) Jeli X1 jest zmienn prost, to wzr (+) dostajemy na mocy a) oraz liniowoci warunkowych wartoci oczekiwanych.
c) Jeli X1 jest nieujemn zmienn losow, to istnieje niemalejcy cig (Yn ) M-mierzalnych
zmiennych prostych, zbieny p.n. do X1 . Rozbijmy X2 = X2+ X2 i zastosujmy b) do zmiennych
Yn oraz X2+ :
E(Yn X2+ |M) = Yn E(X2+ |M).
Zbiegajc z n i korzystajc z warunkowej wersji twierdzenia Lebesguea (wasno 4.),
dostajemy
E(X1 X2+ |M) = X1 E(X2+ |M).
Zastpujc X2+ przez X2 i powtarzajc rozumowanie, dostajemy
E(X1 X2 |M) = X1 E(X2 |M)
i po odjciu stronami dostajemy (+).
d) Jeli X1 jest dowoln zmienn losow, to rozbijamy j na rnic X1+ X1 , stoujemy c)
do zmiennych X1+ , X2 , oraz X1 , X2 , i odejmujemy stronami uzyskane rwnoci.
7. Jeli M1 M2 s pod--ciaami F, to
(=)
Z
B
E(X|M1 ) =
X=
B
E(X|M2 ) =
E(E(X|M2 )|M1 ),
skd teza.
8. Zamy, e X jest niezalena od M. Wwczas E(X|M) = EX. Istotnie, sprawdzimy, e
EX spenia warunki 1) i 2) w definicji E(X|M). Warunek 1) jest oczywisty: EX jest zmienn:a
losow sta, a wic mierzaln wzgldem kadego -ciaa. Niech teraz B M. Mamy na mocy
niezalenoci 1B oraz X,
Z
B
XdP.
B
36
Lemat 4.2. Zamy, e f : R R jest funkcj wypuk. Wwczas istniej cigi (an ), (bn )
takie, e dla dowolnego x R,
f (x) = sup(an x + bn ).
n
Powrmy do dowodu 9. Dla cigw (an ), (bn ), gwarantowanych przez powyszy lemat,
mamy f (X) an X + bn dla kadego n. Std, na mocy 1. oraz 2., z prawdopodobiestwem 1,
E(f (X)|M) an E(X|M) + bn .
Poniwea cigi (an ), (bn ) s przeliczalne, to moemy wzi supremum po n po prawej stronie i
dalej nierwnos bdzie zachodzia z prawdopodobiestwem 1:
E(f (X)|M) sup(an E(X||M) + bn ) = f (E(X|M)).
n
4.1. Zadania
1. Zamy, e X, Y s zmiennymi losowymi a G jest -ciaem takim, e X jest mierzalne
wzgldem G, a Y jest niezalene od G. Niech : R2 R bdzie funkcj borelowsk tak, e
(X, Y ) jest cakowaln zmienn losow. Udowodni, e
E[(X, Y )|G] = (X),
gdzie (x) = E(x, Y ).
2. Zamy, e X jest cakowaln zmienn losow, a -ciao G jest niezalene od X oraz od
-ciaa M. Udowodni, e
E(X|(G, M)) = E(X|M).
3. Zmienna losowa (X, Y ) ma gsto
g(x, y) =
x3 x(y+1)
e
1{x>0, y>0} .
2
4.1. Zadania
37
t
[
{ = k} Ft ,
k=1
39
1) n jest momentem zatrzymania wzgldem kadej filtracji:
(
{ = k} =
jeli n 6= k,
jeli n = k.
{Xk B c } Fn .
k<n
Analogiczny fakt zachodzi, gdy zmienne Xn przyjmuj wartoci w Rd , albo oglniej, w przestrzeni metrycznej E.
Definicja 5.3. Zamy, e (, F, P) jest przestrzeni probabilistyczn wyposaon w filtracj
(Ft )tT i niech bdzie momentem zatrzymania. Definiujemy
F = {A F : A { = n} Fn dla wszystkich n}
= {A F : A { n} Fn dla wszystkich n}.
Intuicyjnie, F opisuje wszystkie zdarzenia, ktre mog zaj do momentu .
Uwagi:
1) F jest -ciaem,
2) jeli n, to F = Fn .
Wasnoci:
1) Jeli 1 , 2 s momentami zatrzymania, to 1 2 = min{1 , 2 } oraz 1 2 = max{1 , 2 }
te s momentami zatrzymania. Istotnie,
{1 2 n} = {1 n} {2 n} Fn ,
{ 2 n} = {1 n} {2 n} Fn .
2) Jeli 1 , 2 s takimi momentami zatrzymania, e 1 2 , to F1 F2 . Istotnie, jeli
A F1 , to dla kadego n,
A {2 n} = (A {1 n}) {2 n},
i dwa ostatnie przecinane zbiory nale do Fn .
3) Moment zatrzymania jest mierzalny wzgldem F . Istotnie,
(
{ a} { = n} =
{ = n}
jeli a < n,
Fn .
jeli a n
40
4) Zamy, e (Xt )tT jest adaptowany do danej filtracji, a jest momentem zatrzymania
wzgldem tej filtracji speniajcym warunek < (jest to tzw. skoczony moment stopu.
Wwczas zmienna X jest mierzalna wzgldem F . Istotnie,
{X a} { = n} = {Xn a} { = n} Fn ,
jako e oba przecinane zdarzenia nale do Fn .
Przechodzimy do definicji gwnych poj niniejszego rozdziau.
Definicja 5.4. Zamy, e (, F, P) jest przestrzeni probabilistyczn wyposaon w filtracj
(Ft )tT . Zamy, e (Xt )tT jest adaptowanym cigiem cakowalnych zmiennych losowych.
Mwimy, e (Xt , Ft )tT jest
a) martyngaem, jeli dla wszystkich s, t T , s t zachodzi E(Xt |Fs ) = Xs .
b) nadmartyngaem, jeli dla wszystkich s, t T , s t zachodzi E(Xt |Fs ) Xs .
c) podmartyngaem, jeli dla wszystkich s, t T , s t zachodzi E(Xt |Fs ) Xs .
Jeli filtracja jest ustalona, to mwimy po prostu, e (Xt )tT jest martyngaem (nad-, pod-),
jeli zachodz powysze warunki.
Uwagi:
a) (Xt ) jest martyngaem, wtedy i tylko wtedy, gdy dla dowolnych s, t T , s < t, oraz
A Fs zachodzi
Z
Z
Xs dP.
Xt dP =
A
41
Dowd:. Wemy s, t T , s < t. Mamy, na mocy wasnoci warunkowej wartoci oczekiwanej,
E(Xt |Fs ) = E(E(X|Ft )|Fs ) = E(X|Fs ) = Xs .
Martynga taki jak w przykadzie 2) nazywamy prawostronnie domknitym. Czasami nazywa
si tak martynga wraz z domkniciem: (Xt , Ft )T {} , gdzie (X , F ) = (X, F).
Stwierdzenie 5.1. Zamy, e (Xt , Ft )tT jest martyngaem, a f : R R jest funkcj wypuk tak, e f (Xt ) jest zmienn cakowaln dla kadego t T . Wwczas (f (Xt ), Ft )tT jest
podmartyngaem.
Dowd:. Zamy, e s, t T , s < t. Wwczas, na mocy nierwnoci Jensena,
E(f (Xt )|Fs ) f (E(Xt |Fs )) = f (Xs ).
Wniosek 5.1. Zamy, e (Xt , Ft )tT jest martyngaem. Wwczas
a) Jeli dla pewnego p 1 mamy, i Xt Lp dla wszystkich t, to (|Xt |p , Ft ) jest podmartyngaem.
b) Dla dowolnej liczby rzeczywistej a, proces (Xt a, Ft )tT jest podmartyngaem. W szczeglnoci, (Xt+ ), (Xt ) s podmartyngaami.
Twierdzenie 5.1 (Dooba, optional sampling). Zamy, e (Xn , Fn )n0 jest nadmartyngaem (odp., martyngaem). Zamy, e 1 , 2 s momentami zatrzymania takimi, e 1 2 i 2 jest ograniczony. Wwczas mamy E(X2 |F1 ) X1 p.n. (odpowiednio, E(X2 |F1 ) = X1 p.n.).
X2 dP
X1 dP
X1 X2 dP =
=
Z
A{2 >1 }
n Z
X
X1 X2 dP
Xk Xk+1 0
X1 =
X (0)
Z
A
X (1)
Z
A
X (2) . . .
Z
A
X (n) =
X2
42
Wniosek 5.2. a) Kady nieujemny nadmartynga (Xn , Fn ) (tzn. speniajcy Xn 0 p.n. dla
wszystkich n) jest zbieny p.n.
b) Jeli (Xn , Fn )n=0,1,2,... jest podmartyngaem speniajcym supn EXn+ < , to (Xn ) jest
zbieny p.n.
c) Jeli (Xn , Fn )n=0,1,2,... jest nadmartyngaem, to warunek supn EXn < jest rwnowany
warunkowi supn E|Xn | < (tzn. ograniczonoci cigu (Xn ) w L1 ).
Dowd wniosku:. a) jest oczywiste, b) wynika wprost z twierdzenia Dooba poprzez przejcie do
procesu (Xn , Fn ), ktry jest nadmartyngaem. Zajmijmy si dowodem c). Implikacja jest
oczywista. Mamy |Xn | = Xn+ + Xn = Xn + 2Xn , skd
E|Xn | = EXn + 2EXn EX0 + 2 sup EXn < .
n
Uab
jeli 1 < ,
jeli 1 =
1
E((Xm a) ).
ba
43
Dowd:. Zamy, e (j ) jest cigiem momentw przej cigu (Xn ) przez przedzia [a, b], i
niech Uab bdzie czn liczb przej. Widzimy, e (j ) jest cigiem momentw zatrzymania
(wzgldem filtracji (Fn )) oraz e Uab jest zmienn losow. Pomy j = j m i wprowadmy
zmienne Yk = X2k+1 X2k , k = 1, 2, . . .. Z definicji widzimy, i jeli 0 k Uab () 1, to
Yk () > b a. Ponadto, jeli k = Uab (), to
(
Yk () = Xm X2k =
0
jeli 2k = ,
(Xm a) .
Xm a jeli 2k <
Wreszcie, jeli k > Uab (), to Yk () = 0. Sumujc stronami powysze zwizki dostajemy
m
X
k=0
k=0
Lewa strona jest niedodatnia, na mocy twierdzenia Dooba (optional sampling); dostajemy zatem
dan nierwno.
Dowd twierdzenia o zbienoci nadmartyngaw. Ustalmy a, b Q, a < b. Niech Uab (m) bdzie
b
b
czn liczb przej nadmartyngau (Xn )m
n=1 w gr przez przedzia [a, b]. Mamy Ua (m) Ua .
Na mocy drugiego z powyszych lematw,
1
1
E((Xm a) )
E(|Xm | + |a|)
ba
ba
1
EUab (m)
Zatem, na mocy twierdzenia Lebesguea, EUab < , skd Uab < p.n. Zatem
P(a,bQ, a<b Uab < ) = 1
i na mocy pierwszego z powyszych lematw, cig (Xn ) jest zbieny p.n. Pozostaje tylko wykaza, e granica jest cakowalna; wynika to natychmiast z lematu Fatou:
E| lim Xn | = E lim |Xn | lim inf E|Xn | sup E|Xn | < .
n
supn E|Xn |
,
przy czym mona wzi K = 1, jeli nadmartynga jest nieujemny (tzn. zmienne losowe X0 , X1 , . . . s nieujemne p.n.), niedodatni, bd jest martyngaem. W przypadku
oglnym nierwno zachodzi z K = 3.
44
Dowd:. Zauwamy, i wystarczy szacowa P(supn |Xn | > ), przez proste przejcie graniczne.
Mamy
P(sup |Xn | > ) P(sup Xn > ) + P(inf Xn < ).
n
{ n}
X +
{ >n}
Xn P(max Xk > )
kn
Z
{ >n}
Xn .
Std
P(max Xk > ) EX0 +
kn
Z
{ >n}
=
{
n}
X +
{
>n}
Xn P(min Xk < ) +
kn
Z
{minkn Xk }
Xn ,
skd
()
P(min Xk < )
kn
Z
{minkn Xk <}
Xn sup EXn .
n
Std teza, gdy nadmartynga jest niedodatni. Ponadto, jeli (Xn ) jest martyngaem, to stosujemy powysz nierwno do niedodatniego nadmartyngau (|Xn |, Fn ).
W oglnym przypadku, wystarczy zsumowa dwie kocowe nierwnoci pochodzce z a) i
b), dosta nierwno ze sta 3.
Jeli (Xn ) jest podmartyngaem, to stosujc (**) dla (Xn ) dostajemy
Wniosek 5.3. Zamy, e (Xn , Fn )m
n=0 jest podmartyngaem. Wwczas dla > 0,
P(max Xn > )
nm
Z
{maxnm Xn >}
Xn .
45
Dowd:. Niech Yn = maxkn |Xk |, k = 0, 1, 2, . . .. Mamy, stosujc poprzedni wniosek do podmartyngau (|Xk |, Fk )k=0,1,2,...,n , dostajemy
EYnp
=p
p
Z0
p1 P(Yn > )d
p1
Z Z
=p
0
Z Z Yn
=p
0Z
p
p1
Z
{Yn >}
|Xn |dPd
p
||Xn ||p ||Yn ||p(p1)/p .
p1
(p1)/p
p
p
||Xn ||p
sup ||Xk ||p
p1
p1 k
i wystarczy zbiec z n .
Twierdzenie 5.5 (Zbieno martyngaw w L1 ). Zamy, e (Xn , Fn )n0 jest martyngaem. nastpujce warunki s rwnowane.
a) rodzina {Xn : n = 0, 1, 2, . . .} jest jednostajnie cakowalna.
b) (Xn ) jest zbieny w L1 .
c) Istnieje zmienna losowa X L1 taka, e Xn = E(X|Fn ), n = 0, 1, 2, . . . (czyli
martynga jest prawostronnie domknity).
Co wicej, jeli te warunki s spenione, to (Xn ) jest zbieny p.n. do
()
X = E(X|(
Fn ))
n Fn )
tak, e Xn =
[
p.n. i w L1
E(X|Fn ) E X
Fn
!#
Dowd twierdzenia o zbienoci. a)b) Na mocy jednostajnej cakowalnoci dostajemy, i supn E|Xn | <
. Zatem na mocy twierdzenia Dooba martynga (Xn ) jest zbieny p.n., a zatem take wedug
prawdopodobiestwa. czc to z jednostajn cakowalnoci dostajemy zbieno w L1 .
b)c) Zamy, e Xm X w L1 . Dla ustalonego n i m > n mamy E(Xm |Fn ) = Xn . Z
drugiej strony, E(Xm |Fn ) E(X |Fn ) w L1 , gdy operator warunkowej wartoci oczekiwanej
jest kontrakcj w L1 : istotnie,
||E(Xm |Fn ) E(X |Fn )||1 ||Xm X ||1 0.
Std E(X |Fn ) = Xn .
46
X dP =
Y dP.
Klasa n Fn jest -ukadem. Klasa tych zbiorw A, dla ktrych zachodzi powysza rwno, jest
-ukadem. Z lematu o - ukadach mamy, i powyrsza rwnos caek zachodzi dla dowolnego
S
A ( n Fn ). Na mocy mierzalnoci X oraz Y wzgldem tego -ciaa, mamy, i X = Y
p.n.
Wreszcie, pozostaje udowodni rwno (*). Jeli Xn = E(X|Fn ), to
S
"
Xn = E Xn |
!#
[
Fn
"
= E E X
= E E(X|Fn )
!!
[
n
Fn
"
!#
[
Fn
#
F n .
[
p.n. i w L1
Fn
E(1A |Fn ) E 1A
= 1A .
S
n=1
Ale z drugiej strony 1A jest niezalene od Fn , bo A (Xn+1 , Xn+2 , . . .), a to -ciao jest
niezalene od Fn . Std
E(1A |Fn ) = E1A = P(A) 1A ,
a zatem P(A) = 0 lub 1.
Zajmiemy si teraz zbienoci w Lp dla p > 1.
Twierdzenie 5.6. Zamy, e (Xn , Fn )n=0,1,2,... jest martyngaem i p > 1. Nastpujce warunki s rwnowane.
a) sup E|Xn |p < .
b) Rodzina {|Xn |p }n jest jednostajnie cakowalna.
c) Martynga (Xn ) jest zbieny w Lp .
d) Istnieje X Lp taka, e Xn = E(X|Fn ).
Jeli te warunki s spenione, to (Xn ) jest zbieny p.n. do zmiennej losowej X =
S
E(X|( n Fn )).
47
5.1. Zadania
p
p
Dowd. a)b) Wiemy, e E sup |Xn |p p1
supn E|Xn |p < , czyli sup |Xn |p L1 , skd
dostajemy b) (istnienie majoranty cakowalnej).
b)c) Mamy, i
sup E|Xn | sup(E|Xn |p )1/p < ,
n
a zatem na mocy twierdzenia Dooba o zbienoci nadmartyngaw, (Xn ) jest zbieny p.n..
Dokadajc jednostajn cakowalno dostajemy c).
c)d) Mamy Xn X w Lp . Przy ustalonym n oraz m > n, E(Xm |Fn ) = Xn . Poniewa
E(|Fn ) jest kontrakcj w Lp , wic E(X |Fn ) = Xn .
d)a) Mamy
E|Xn |p = E|E(X|Fn )|p E(E(|X|p |Fn )) = E|X|p < .
5.1. Zadania
1. Zamy, e (Fn ) jest filtracj, a (Xn ) jest cigiem zmiennych losowych adaptowanych do
tej filtracji. Niech B bdzie podzbiorem borelowskim R.
a) Udowodni, e 1 = inf{n : Xn + n B} jest momentem zatrzymania.
b) Udowodni, e dla dowolnego momentu zatrzymania , zmienna 2 = inf{n > : Xn B}
te jest momentem zatrzymania.
2. Dany jest cig (Xn )10
n=1 niezalenych zmiennych losowych o rozkadzie P(Xn = 1) =
P(Xn = 1) = 1/2. Niech
= inf{n > 1 : Xn > Xn1 },
2,
4. Dany jest cig (n ) niezalenych zmiennych losowych o tym samym rozkadzie P(n =
1) = P(n = 1) = 1/2. Niech X0 = 0 i Xn = 1 + 2 + . . . + n dla n 1. Niech (Fn ) bdzie
naturaln filtracj generowan przez cig (Xn ).
a) Udowodni,e (Xn ) oraz (Xn2 n) s martyngaami.
b) Wyznaczy tak warto parametru a, by cig (an cos Xn ) by martyngaem.
c) Udowodni, e dla > 0, cig (exp(Xn 2 n/2)) jest nadmartyngaem.
5. Zamy, e (Xn )
n=0 jest cigiem niezalenych zmiennych loswych o tym samym rozkadzie o redniej 0. Niech Z0 = 0, Zn = X0 X1 + X1 X2 + . . . + Xn1 Xn dla n 1. Udowodni, e
cig (Zn ) jest martyngaem.
6. Dany jest cig (Xn ) adaptowany do filtracji (Fn ). Udowodni, e cig (Xn ) jest martyngaem wtedy i tylko wtedy gdy dla kadego ograniczonego momentu zatrzymania zachodzi
rwno EX = EX0 .
7. Dany jest martynga (Xn , Fn )n=0,1,2,... oraz moment zatrzymania . Udowodni, e (X n , Fn )
te jest martyngaem.
48
8. Egzaminator przygotowa m zestaww pyta. Studenci kolejno losuj kartki z pytaniami, przy czym zestaw raz wycignity nie wraca do ponownego losowania. tudent nauczy si
odpowiedzi na k zestaww (k m). Obserwujc przebieg egzaminu chce przystpi do niego w
takim momencie, eby zmaksymalizowa szanse zdania. Czy istnieje strategia optymalna?
9. Gramy w ora i reszk symetryczn monet. Przed n-t gr, opierajc si ewentualnie na
wynikach poprzednich gier, sami ustalamy stawk w n-tej grze: wybieramy Vn , 1 Vn a, i
jeli wypadnie orze dostajemy Vn z, jeli reszka - pacimy Vn z. Niech (Sn ) oznacza czn
wygran po n grach. Udowodni, e (Sn )n jest martyngaem (wzgldem naturalnej filtracji).
10. Mamy 10 z w monetach 1 z, a potrzebujemy pilnie 20 z. Jedynym sposobem zdobycia
tych pienidzy jest gra w 3 karty z szulerem (ktry wygrywa z prawdopodobiestwem 2/3).
Szuler gotw jest gra z nami wiele razy o dowolne stawki, jakie jestemy w stanie zaoy
(przyjmijmy dla uproszczenia, e stawka nie przekracza 10 z). Udowodni, e niezalenie od
wyboru strategii nasze szanse na uzyskanie brakujcych 10 z nie przekraczaj 1/3.
11. (Tosamo Walda). Dany jest cig (Xn ) cakowalnych zmiennych losowych o tym samym
rozkadzie, adaptowany do filtracji (Fn )n=1,2,... , taki, e zmienna Xn+1 jest niezalena od Fn .
Udowodni, e dla dowolnego momentu zatrzymania takiego, e E < , zachodzi wzr
E(X1 + X2 + . . . + X ) = EX1 E.
12. Zamy, e X1 , X2 , . . . s niezalenymi zmiennymi losowymi o redniej 0, speniajcymi
P
P
warunek
n=1 VarXn < . Udowodni, e szereg
n=1 Xn jest zbieny p.n.
W zadaniach 13 - 17 poniej rozpatrujemy cig X1 , X2 , . . . niezalenych zmiennych losowych
o rozkadzie P(Xn = 1) = p = 1 P(Xn = 1), i oznaczamy S0 = 0, Sn = X1 + X2 + . . . + Xn
dla n 1. Dla a, b Z, a, b > 0, niech a = inf{n : Sn = a} oraz a,b = inf{n : Sn {a, b}}.
13. Zamy, e p = 1/2 i niech = a,b . Korzystajc z teorii martyngaw obliczy
P(S = a), P(S = b) oraz E .
14. Rozwiza zadanie 13 przy zaoeniu 1/2 < p < 1.
15. Udowodni, e Ea = .
16. Zamy, e p = 1/2 oraz jest cakowalnym momentem zatrzymania. Udowodni, e
ES = 0 oraz ES2 = E .
17. Zbada zbieno p.n. oraz w Lp nadmartyngau (exp(Sn n/2))
n=0 (por. zadanie 4 c)).
18. Zmienne X1 , X2 , . . ., s niezalene i maj ten sam rozkad skoncentrowany na liczbach
nieujemnych, rny od {1} , o redniej 1. Udowodni, e cig (X1 X2 . . . Xn ) jest zbieny p.n.,
ale nie jest zbieny w L1 .
19. W pojemniku znajduje si pewna liczba czstek, z ktrych kada w chwili n z rwnym
prawdopodobiestwem albo dzieli si na dwie, albo ginie. W chwili 0 liczba czstek wynosi 1.
Udowodni, e z prawdopodobiestwem 1 po pewnym czasie wszystkie czstki zgin, tzn. w
pojemniku nie bdzie ani jednej czstki.
6. acuchy Markowa
6.1. Podstawowe definicje
Zajmiemy si teraz kolejn wan klas procesw stochastycznych: acuchami Markowa.
Niech E bdzie przestrzeni stanw: skoczonym lub przeliczalnym zbiorem. Jego elementy bdziemy oznacza literami j, k, . . . bd 1, 2, . . ..
Definicja 6.1. Macierz P = [pij ](i,j)EE nazywamy macierz stochastyczn, jeli pij [0, 1]
P
dla wszystkich i, j E oraz jE pij = 1 dla kadego i E.
Definicja 6.2. Zamy, e (, F, P) jest przestrzeni probabilistyczn, E, P s j.w., ustalone.
Jednorodnym acuchem Markowa o wartociach w E i macierzy przejcia P nazywamy cig
(Xn )n=0,1,2,... zmiennych losowych takich, e
P(Xn+1 = an+1 |Xn = an , Xn1 = an1 , . . . , X0 = a0 )
= P(Xn+1 = an+1 |Xn = an ) = pan an+1
dla wszystkich a0 , a1 , . . ., an+1 takich, e zdarzenie warunkujce ma dodatnie prawdopodobiestwo. Rwnowanie,
P(Xn+1 = j|X0 , X1 , . . . , Xn ) = P(Xn+1 = j|Xn ) = pXn j .
Liczba pij jest prawdopodobiestwem przejcia ze stanu i do stanu j w jednym kroku.
Przykady:
1) Zamy, e X0 , X1 , X2 , . . . s niezalenymi zmiennymi losowymi o tym samym rozkadzie,
przyjmujcymi wartoci w zbiorze E, przy czym P(Xn = j) = pj dla j E. Wwczas
P(Xn+1 = an+1 |Xn = an , . . . , X0 = a0 ) = P(Xn+1 = an+1 ) = pj
= P(Xn+1 = an+1 |Xn = an ),
a zatem (Xn )n jest acuchem Markowa; mamy
P =
p1 p2 . . .
p1 p2 . . .
.
p1 p2 . . .
...
2) (Bdzenie losowe) Zamy, e 1 , 2 , . . . s niezalenymi zmiennymi losowymi o rozkadzie P(n = 1) = p, P(n = 1) = q = 1 p. Niech X0 = 0, Xn = 1 + 2 + . . . + n dla n 1.
Mamy
P(Xn+1 = an+1 |Xn , Xn1 , . . . , X0 ) = P(Xn + n+1 = an+1 |0 , 1 , . . . , n )
=
jeli Xn = an+1 1,
jeli Xn = an+1 + 1,
w pozostaych przypadkach
50
6. acuchy Markowa
P =
1
q
0
0
...
0
0
0
0
q
0
0
p
0
q
0
0
p
0
...
...
...
...
0
0
0
0
0
0
0
0
0 p
0 0 0 ...
0 0 0 ... 0 1
ni
i
dla i n 1, pi,i1 = dla i 1.
n
n
P =
0
1
0
1/n
0 1 1/n
0
2/n
0
0
0
3/n
...0 0
0
0
0
0
...
...
...
...
...
...
0 0
0 0
0 0
0 0
0 1/n
1 0
Stwierdzenie 6.1. Zamy, e (Xn ) jest acuchem Markowa z macierz przejcia P = [pij ].
Wwczas dla kadej ograniczonej funkcji f : E R i dowolnego n,
E(f (Xn+1 )|X0 , X1 , . . . , Xn ) = E(f (Xn+1 )|Xn ) =
()
f (j)pXn j .
jE
Dowd:. Mamy
E(f (Xn+1 )|X0 , X1 , . . . , Xn ) =
jE
f (j)P(Xn+1 = j|X0 , X1 , . . . , Xn )
jE
f (j)pXn j .
jE
Std rwno skrajnych stron w (*). Aby otrzyma praw rwno, wystarczy powtrzy powysze rozumowanie z warunkowaniem tylko po zmiennej Xn .
51
pkil pnlj .
iE
{z
pXn1 in =pin1 in
itd.
Definicja 6.3. Rozkad zmiennej X0 nazywamy rozkadem pocztkowym. Jest on jednoznacznie wyznaczony przez cig (i )iE liczb nieujemnych o sumie 1.
Podane niej twierdzenie mwi, i kada macierz stochastyczna i rozkad pocztkowy prowadz do pewnego acucha Markowa. Twierdzenie to pozostawimy bez dowodu.
52
6. acuchy Markowa
Mwimy, e stan j jest osigalny ze stanu i, jeli pij > 0 dla pewnego n 1. Mwimy,
e stany i oraz j si komunikuj, jeli j jest osigalny z i oraz i jest osigalny z j. Stan i jest
nieistotny, jeli istnieje taki stan j, e j jest osigalny z i oraz i nie jest osigalny z j. Jak
atwo sprawdzi, korzystajc z rwnania Chapmana-Komogorowa, relacja osigalnoci jest
przechodnia: istotnie, jeli j jest osigalny z i oraz k jest osigalny z j, to dla pewnych m, n 1,
(m)
pij > 0 i pnjk > 0, a zatem
pm+n
=
ik
(n)
(m) (n)
pm
il plk pij pjk > 0.
lE
Aby zilustrowa powysze definicje, odnotujmy, i dla bdzenia losowego po liczbach cakowitych (przykad 2 powyej), wszystkie stany wzajemnie si komunikuj. Natomiast w przypadku
pochaniania na brzegu (przykad 3), stany a + 1, a + 2, . . . , b 1 s nieistotne.
Zbir stanw S nazywamy zamknitym, jeli dla dowolnego i S oraz j
/ S, stan j nie jest
osigalny ze stanu i (innymi sowy, startujc ze stanu wewntrz C, z prawdopodobiestwem 1
nie wychodzimy nigdy z tego zbioru). Jeli stan k ma t wasno, e zbir {k} jest zamknity
(n)
(tzn. mamy pkk = 1 dla wszystkich n), to stan ten nazywamy pochaniajcym. acuch Markowa nazywamy nieprzywiedlnym, jeli wszystkie stany komunikuj si ze sob. Przykadowo,
acuch Markowa pojawiajcy si w modelu dyfuzji czstek (przykad 5) jest nieprzywiedlny.
Uwaga: Zamy, e C jest zamknitym zbiorem stanw acucha Markowa o macierzy
przejcia P = [pij ](i,j)EE . Wwczas moemy rozpatrzy acuch Markowa zawony do C:
jako now przestrze stanw bierzemy zbir C, a macierz przejcia zadana jest przez [pij ](i,j)]inCC
(wykrelamy z macierzy P wiersze i kolumny odpowieadajce stanom nienalecym do C).
Przykadowo, zamy, e macierz przejcia acucha na E = {1, 2, 3, 4} wynosi
1/2
1/4
0
1/5
1/2 0
0
3/4 0
0
1/3 1/2 1/6
1/5 2/5 1/5
{Xn = j}|X0 = k)
n=1
fkj (n),
n=1
gdzie
fkj = P(X1 6= j, X2 6= j, . . . , Xn1 6= j, Xn = j|X0 = k)
jest prawdopodobiestwem e startujc z k acuch dochodzi do j po raz pierwszy w chwili n.
Definicja 6.4. Stan j nazywamy powracajcym, jeli Fjj = 1. Stan j nazywamy chwilowym
(tranzytywnym), jeli Fjj < 1.
53
Niech Nj =
n=1 1{Xn =j} bdzie zmienn losow zliczajc ile razy proces (Xn ) by w stanie
j (nie biorc pod uwag zmiennej X0 ). Mamy nastpujcy fakt.
P
Stwierdzenie 6.3. (i) Stan j jest powracajcy wtedy i tylko wtedy, gdy P(Nj = |X0 = j) = 1.
(ii) Stan j jest chwilowy wtedy i tylko wtedy, gdy P(Nj < |X0 = j) = 1.
Dowd:. Niech Ak = {proces (Xn ) by w stanie j co najmniej k razy}. Oczywicie Ak+1 Ak ,
a zatem z twierdzenia o ciagoci
lim P(Ak |X0 = i) = P(
k=1
Wykaemy, e
k1
P(Ak |X0 = i) = Fij Fjj
.
()
Wwczas dostaniemy (stosujc t rwno dla i = j), i P(Nj = |X0 = j) = 1 wtedy i tylko
wtedy, gdy Fjj = 1 (to teza (i)) oraz P(Nj = |X0 = j) = 0 wtedy i tylko wtedy, gdy Fjj < 1
(co jest rwnowane tezie (ii)).
Pozostaje wic udowodni (*). Intuicyjnie ten wynik jest jasny: jeli mamy k razy odwiedzi
stan j (przy zaoeniu, e startujemy z i), to musimy doj z i do j, a potem k 1 razy powrci
do j po pewnych liczbach krokw. Formalnie, ustalmy n1 < n2 < . . . < nk . Mamy
P(Xnl = j dla l = 1, 2, . . . , k, Xn 6= j dla n 6= nl , n nk |X0 = i)
= P(X1 6= j, X2 6= j, . . . , Xn1 1 6= j, Xn1 = j|X0 = i)
k
Y
l=2
= fij (n1 )
n
Y
l=2
P(Ak |X0 = i) =
m1 ,...,mk 1
m1 =1
fij (m1 )
k
Y
l=2
k1
.
fjj (ml ) = Fij Fjj
ml =1
n=1
czyli Pj jest rednim czasem przebywania acucha w stanie j (przy zaoeniu startowania z
tego stanu), nie liczc zmiennej X0 .
54
6. acuchy Markowa
Twierdzenie 6.3. (i) Stan j jest chwilowy wtedy i tylko wtedy, gdy Pj < .
(ii) Stan j jest powracajcy wtedy i tylko wtedy, gdy Pj = .
(k)
pjj =
(m)
fjj (k m)pjj ,
m=0
(0)
gdzie przyjmujemy pjj = 1. Zatem, na mocy twierdzenia Fubiniego (dla funkcji nieujemnych),
n
X
(k)
n k1
X
X
k=1
k=1 m=0
n1
n
X (m) X
pjj
fjj (k
m=0
k=m+1
n
X
(m)
pjj ,
Fjj + Fjj
m=1
pjj =
=
=
(m)
fjj (k m)pjj
m)
n
X
(m)
pjj Fjj
m=0
czyli, rwnowanie,
()
(1 Fjj )
n
X
(m)
pjj Fjj .
m=1
Fjj
< .
1 Fjj
I w drug stron: jeli Pj < , czyli E(Nj |X0 = j) < , to P(Nj = |X0 = j) = 0 i na mocy
poprzedniego twierdzenia j jest stanem chwilowym. To dowodzi (i). Cz (ii) jest konsekwencj
tego, e kady stan jest albo chwilowy, albo powracajcy oraz tego, e Pj jest albo skoczone,
albo nie.
Przykad: Zbadamy bdzenie losowe po liczbach cakowitych. Mamy
!
(2n)
p00
2n n n
1
p q (4pq)n ,
n
n
(2n+1)
= 0. Std
X
(n)
p00 <
n=1
wtedy i tylko wtedy,gdy p 6= 1/2. Zatem 0 jest stanem powracajcym wtedy i tylko wtedy, gdy
p = 1/2.
W przypadku gdy wszystkie stany komunikuj si wzajemnie, stany musz by tego samego
typu.
55
Dowd. Wemy dwa stany i, j. Istniej liczby caowite dodatnie r, s takie, e = pij > 0,
(s)
pii
(n)
(n)
czyli asymptotyczne zachowanie cigw (pii )n oraz (pjj )n jest takie samo; w szczeglnoci,
(n)
n=1 pii
(n)
n=1 pjj
= .
56
6. acuchy Markowa
(m m1 )
1 +n
i pm
pj1 j22
ij1
(m mk1 )
k
. . . pjk1
jk
(m m1 )
= j1 pj1 j22
(m mk1 )
k
. . . pjk1
jk
iE
co nie zaley od n.
acuch o takiej wasnoci nazywamy stacjonarnym.
Definicja 6.6. Okresem stanu j nazywamy najwiksz tak liczb n, e powrt do stanu j jest
(n)
moliwy tylko po liczbie krokw podzielnej przez n: o(j) =NWD{n : pjj > 0}.
Stan nazywamy okresowym jeli o(j) > 1 i nieokresowym, jeli o(j) = 1.
Stwierdzenie 6.5. W nieprzywiedlnym acuchu Markowa wszystkie stany maj ten sam okres.
Wobec tego nastpujca definicja ma sens.
Definicja 6.7. Nieprzywiedlny acuch Markowa (Xn ) nazywamy okresowym, jeli wszystkie
jego stany maj okres wikszy ni 1. W przeciwnym razie acuch nazywamy nieokresowym.
Lemat 6.1. acuch jest nieprzywiedlny i nieokresowy wtedy i tylko wtedy, gdy jest speniony
warunek
(n)
(O)
n = a1 n1 + a2 n2 + . . . + ak nk ,
i mamy
(n)
pjj
Y (a n )
l l
pjj
Y (n )
(pjj l )al > 0.
l
Zatem
(m+n)
pij
(m) (n)
Twierdzenie 6.5. Zamy, e warunek (O) jest speniony i istnieje rozkad stacjonarny . Wwczas kady stan jest powracalny, rozkad stacjonarny jest jednoznaczny
oraz dla wszystkich i, j E,
(n)
lim pij = j .
n
(n)
Uwaga: Jak wida, przy zaoeniach twierdzenia, pij przestaje zalee od i o ile n jest
due. Innymi sowy, po duej liczbie krokw acuch zapomina, z jakiego stanu wystartowa.
Dowd:. Dowd przeprowadzimy w piciu krokach.
1. Wszystkie stany s albo powracalne, albo chwilowe. Zamy, e ma miejsce ta druga moP
(n)
liwo. Liczba
n=1 pij jest rednim czasem przebywania w stanie j przy zaoeniu startowania
ze stanu i. Na mocy wasnoci Markowa, mamy zatem
X
(n)
k=1
57
(n)
i pij = j
iE
(Yn0 , Yn00 ) =
(Xn0 , Xn00 )
(Xn0 , Xn0 )
dla n < ,
dla n .
Sprawdzimy teraz, e (Yn0 ), (Yn00 ) s acuchami Markowa (wzgldem miary probabilistycznej Pij )
z macierz przejcia P . Ograniczymy si tylko do procesu (Yn00 );w przypadku (Yn0 ) przeksztacenia
s analogiczne.
00
00
Pij (Yn+1
= k|Xs0 , Xs00 , s n) = Pij (Yn+1
= k, < n|Xs0 , Xs00 , s n)
00
+ Pij (Yn+1
= k, n|Xs0 , Xs00 , s n)
0
= Pij (Xn+1
= k|Xs0 , Xs00 , s n)1{ <n}
00
+ Pij (Xn+1
= k|Xs0 , Xs00 , s n)1{ n}
0
= Pij (Xn+1
= k|Xs0 , s n)1{ <n}
00
+ Pij (Xn+1
= k|Xs00 , s n)1{ n}
(n)
iE
58
6. acuchy Markowa
Na zakoczenie zaprezentujemy nastpujcy fakt. Dowodzi si go uywajc podobnej argumentacji jak w poprzednim twierdzeniu. Szczegy pozostawiamy czytelnikowi.
Twierdzenie 6.6. Jeli E jest zbiorem skoczonym i zachodzi warunek (O), to istnieje
rozkad stacjonarny i zachodzi teza poprzedniego twierdzenia.
6.4. Zadania
1. Niech E bdzie pewnym zbiorem przeliczalnym. Dany jest cig (Xn ) niezalenych zmiennych losowych oraz cig funkcyjny (fn ), fn : E R E. Definiujemy cig (Yn ) wzorem
Yn+1 = f (Yn , Xn ), n = 0, 1, 2, . . . ,
gdzie Y0 jest pewn zmienn losow o wartociach w E. Dowie, e (Yn ) jest acuchem Markowa.
2. Dany jest acuch Markowa (Xn ) na pewnej przestrzeni E oraz rnowartociowa funkcja
f : E E. Wykaza, e (f (Xn )) jest acuchem Markowa. Co jeli f nie jest rnowartociowa?
3. Dany jest cig (Xn ) niezalenych zmiennych losowych o tym samym rozkadzie P (Xn =
1) = 21 . Rozstrzygn, ktre z podanych niej procesw s acuchami Markowa:
U0 = 0,
Un = X1 + X2 + . . . + Xn , n 1,
Wn = X0 X1 X2 . . . Xn , n 0,
Vn = (1)Un , n 0,
Yn = Xn Xn+1 , n 0,
Xn + Xn+1
Zn =
, n 0.
2
4. Dany jest cig (Xn ) niezalenych zmiennych losowych o tym samym rozkadzie P(Xn =
1) = p = 1 P(Xn = 1), p (0, 1). Niech Sn = X1 + X2 + . . . + Xn , n = 1, 2, . . .. Udowodni,
e cigi
Yn = |Sn |, Zn = max Sk Sn
kn
s acuchami Markowa.
5. Rzucamy kostk tak dugo, a pojawi si cig 16 lub 66. Jakie jest prawdopodobiestwo,
e cig 16 pojawi si wczeniej?
6. Rzucamy symetryczn monet a do momentu, gdy wyrzucimy seri 4 orw. Obliczy
warto oczekiwan liczby przeprowadzonych rzutw.
7. Macierz przejcia acucha Markowa (Xn )n na przestrzeni E = {1, 2, 3, 4} dana jest
nastpujco:
0 12 21 0
1 1 0 1
4
P = 42 2
.
3 0 0 13
0 23 31 0
59
6.4. Zadania
60
6. acuchy Markowa
Literatura