Vous êtes sur la page 1sur 14

Pawe Strawiski Asymptotyka i statystyczne podstawy regresji

0.1 Statystyczne Podstawy Modelu Regresji


Niech dana bdzie przestrze probabilistyczna (, F, P). Funkcj X : R,
okreslon na przestrzeni zdarze elementarnych , o wartociach rzeczywi-
stych, takich e
t R { : X() < t} F (1)
nazywamy zmienn losow. Warunek, aby zbir (1) nalea do F dla kadego
t R nazywa si mierzalnoci X wzgldem -algebry F. W przypadku, gdy
= R
n
rodzina F jest z reguy tak dobrana by cigo funkcji implikowaa
jej mierzalno.
Z denicji zmiennej losowej wynika, e zbir (1) jest zdarzeniem nale-
cym do przestrzeni probabilistycznej (, F, P). Moemy zatem obliczy
prawdopodobiestwo tego zdarzenia.
Funkcj F
X
(X) : R [0, 1] okrelon wzorem
F
X
(X) = P({ : X() < t})
nazywamy dystrybuant zmiennej losowej. W przypadku wielowymiarowym
bdziemy mwi o wektorze losowym.
Niech F bdzie dystrybuant wektora losowego (X, Y ). Zamy, e F(X, Y )
jest typu cigego o gstoci prawdopodobiestwa f(x, y). Wwczas
F(x, y) =

f(u, v)dudv
Jeeli obie pochodne mieszane dystrybuanty F istniej i s cig to (X, Y )
jest cige o gstoci
f(x, y) =

2
xy
F(x, y)
Kada ze wsprzdnych wektora losowego jest zmienn losow. Oznacz-
my przez F
X
i F
Y
dystrybuant kadej wsprzdnej. Wtedy:
F
X
(x) = P(X < x) = P(X < x, Y < )
jeli zmienna losowa jest typu cigego to:
F
X
(x) = P(X < x) =

f(u, v)dudv
a gsto wyraa si wzorem:
f
X
(x) =

f(x, y)dy
1
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
Przy badaniu zalenoci midzy zjawiskami opisanymi przez zmienne lo-
sowe X i Y najbardziej interesujce s prawdopodobiestwa zdarze doty-
czcych jednej zmiennej przy naoonym warunku na drug zmienn
P(Y < y|X B) =
P(Y < y, X B)
P(X B)
gdzie zakadamy, e P(X B) > 0, czyli warunek jest nietrywialny. Prawdo-
podobiestwo warunkowe jako funkcja argumentu y posiada wszystkie wa-
snoci dystrybuanty i nazywane jest warunkow dystrybuant X. Dla cigej
zmiennej losowej P(X = x) = 0. Wobec tego, z powyszego wzoru nie mona
obliczy prawdopodobiestwa zdarzenia. Dla cigych zmiennych losowych
deniujemy warunkow gsto zmiennej losowej Y przy warunku (X B)
nastpujco:
f(y|X = x
0
) =
f(x
0
, y)
f
Y
(y)
=
f(x
0
, y)

f(x
0
, y)dy
Warunkow warto oczekiwan zmiennej Y , przy warunku X = x
0
oblicza-
my korzystajc ze wzoru
E(Y |X = x
0
) =

yf(y|X = x
0
)dy
Warunkow warto oczekiwan E(Y |X = x
0
) nazywamy funkcj regresji Y
na X.
0.2 Szacowanie modelu regresji za pomoc MNW
Na pocztku kursu pokazalimy, e dla modelu
y = X + N(0,
2
I)
b = (X

X)
1
X

y jest estymatorem Metody Najmniejszych Kwadratw dla


wektora nieznanych parametrw. Obecnie wyprowadzimy estymatory me-
tody najwikszej wiarogodnoci dla liniowego modelu regresji. Niech =
(
1
, . . . ,
n
). Funkcja cznej gstoci rozkadu normalnego jest dana przez:
f() =

2
2

n
exp

1
2
2

Warunkowa gsto ma nastpujc wasno


f(y|X) = f()

2
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
|| jest wartoci bezwzgldn wyznacznika macierzy nn pochodnych czst-
kowych wektora obliczon wzgldem kolejnych elementw wektora wartoci
zmiennej zalenej y. W tym przypadku macierz si redukuje do macierzy jed-
nostkowej.
Moemy zapisa funkcj wiarogodnoci. Jest to funkcja cznej gstoci
prawdopodobiestwa traktowana jako funkcja nieznanych parametrw.
(,
2
) = ln f(y|X) = ln f()
(,
2
) =
n
2
ln(2)
n
2
ln(
2
)
1
2
2

(,
2
) =
n
2
ln(2)
n
2
ln(
2
)
1
2
2
(y X)

(y X)
Wektor nieznanych parametrw ma k + 1 elementw wymagajcych oszaco-
wania. Pochodne czstkowe wzgldem wektorw parametrw przedstawiaj
si nastpujco:

=
1
2
2
(X

y + X

X)

2
=
n
2
2
+
1
2
4
(y X)

(y X)
przyrwnujc pochodne do zera otrzymujemy nastpujcy ukad rwna:

= 0

2
= 0

= (X

X)
1
X

2
=
1
n
(y X)

(y X)
Wobec tego ENW() jest rwnowany estymatorowi wektora parametrw
MNK. Z MNK wiemy, e E(
2
) =
nk
n

2
, wobec tego

2
otrzymany metod
NMW jest obcionym estymatorem wariancji. W zastosowaniach z reguy
ilo obserwacji n jest dua, ilo zmiennych w modelu k niewielka, wobec
tego obcienie estymatora MNW jest mae. Zalet estymatorw MNW jest
ich prostota numeryczna w stosunku do estymatorw MNK. Gdy liczebno
prby dy do nieskoczonoci to obcienie estymatora MNW dy do zera.
Oznacza to, e estymator MNW dla wariancji jest asymptotycznie nieobci-
ony.
Dla formalnoci powinnismy jeszcze sprawdzi czy rzeczywicie funkcja
wiarogodnoci ma maksimum w punkcie (

2
). Obliczmy drugie pochodne

=
X

2
=
X

4
3
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji

2
=
n
2
4

6
Wobec tego,
E

=
X

2
E

= 0
E

=
n
2
4
poniewa E(

) = n
2
.
Moemy zapisa macierz informacyjn Fishera
I() =

2
X

X 0
0
n
2
4

Wartoci zero poza diagonal macierzy oznaczaj, e rozkady i


2
s nie-
skorelowane, a poniewa maj czny rozkad normalny to s niezalene.
0.3 Podstawy Teorii Asymptotycznej
Celem analizy asymptotycznej jest zbadanie wasnoci estymatorw, gdy
wielko prby wzrasta. Pojcia zwizane z zachowaniami granicznymi es-
tymatorw s trudne, szczeglnie dla osb nie zajmujcych si na codzie
teori prawdopodobiestwa, z tego powodu zostan one zilustrowane przy-
kadami.
Przypucmy, e chcemy zbada wasnoci wartoci redniej nieznanego
rozkadu. Niech zmienna losowa X posiada pewien nieznany rozkad praw-
dopodobiestwa o skoczonej wartoci redniej , oraz skoczonej wariancji

2
. Ponadto, dysponujemy wynikami n niezalenych losowa z tego rozkadu,
co mona zapisa jako (X
1
, . . . X
n
)
IID
(,
2
). Oznaczmy przez x
n
redni
warto z n-elementowej prby. Warto rednia jest sama w sobie zmienn
losow o pewnym rozkadzie. Zasadniczym pytaniem w teorii asymptotycznej
jest w jaki sposb zachowuj si wartoci i rozkad zmiennej losowej, takiej
jak x
n
, gdy liczebno prby dy do nieskoczonoci (n ).
Przed wyprowadzeniem wasnoci asymptotycznych przypomnimy kilka
podstawowych denicji.
Denicja 1 Cig liczb {a
N
: N = 1, 2, . . .} zbiega do granicy a (posiada
granic a) jeeli > 0 N

, takie e, N > N

|a
N
a| <
4
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
Zapisujemy, e a
N
a, lub a
N
n
a , gdy N . Oznacza to, e wyrazy
o indeksach wyszych od N

le w epsilonowym otoczeniu punktu a. Jeli


wyrazy cigu, o indeksach wyszych od N

zbli si do granicy a to pozostae


wyrazy bd znajdowac si w jej otoczeniu.
Przykad 1. Jeeli a
N
= 2 +
1
N
, wtedy a
N
2.
Przykad 2. Jeeli a
N
= 1
N
, wtedy a
N
nie ma granicy, bowiem moemy
wybra podcigi, pierwszy zoony z wyrazw nieparzystych zbieny do 1,
drugi zoony z wyrazw parzystych zbieny do 1.
Denicja 2 Cig liczb {a
N
: N = 1, 2, . . .} jest ograniczony wtedy i tylko
wtedy gdy
b < N > N

|a
N
| < b.
Denicja 3 Cig {a
N
} jest cigiem conajwyej rzdu O(N

) jeli cig {N

a
N
}
jest ograniczony.
0.3.1 Zbieno wedug prawdopodobiestwa
Niech X
IID
(,
2
). Wwczas
E( x
n
) = V ar( x
n
) =

2
n
wobec tego x
n
jest nieobcionym estymatorem parametru dla prby o do-
wolnej liczebnoci, oraz wariancja estymatora dy do zera wraz ze wzrostem
liczebnoci prby. Intuicyjnie jest oczywiste, e rozkad x
n
wraz ze wzrostem
liczebnoci prby staje si coraz bardziej skupiony wok wartoci parametru
. Formalnie mona ten fakt zapisa jako
P({ < x
n
< + }) = P(| x
n
| < )
Wybrany przedzia moe by dowolnie wski poprzez odpowieni dobr war-
toci . Poniewa var( x
n
) maleje monotonicznie wraz ze wzrostem liczebnoci
prby n, istniej pewna liczba N

oraz liczba [0, 1], takie e


n > N

P(| x
n
| < ) = 1
Zmienna losowa x
n
jest nazywana wwczas zbien wedug prawdopodobie-
stwa do staej . Rwnowanym sformuowaniem jest
lim
n
P({|X
n
| < }) = 1
Opisujc sowami, prawdopodobiestwo, e x
n
znajdzie si w dowolnie maym
otoczeniu wartoci moe by dowolnie bliskie wartoci 1, jeeli liczebno
prby dy do nieskoczonoci.
Alternatywnie denicj mona przedstawi nastpujco
5
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
Denicja 4 Cig zmiennych losowych {X
N
: N = 1, 2, . . .}, gdzie indeks N
oznacza liczebno prby, jest zbieny wedug prawdopodobiestwa do liczby
a, jeeli
> 0 lim
n
P(|X
n
a| > ) = 0
Oznacza to, e w granicy prawdopodobiestwo zdarzenia, e warto zmien-
nej losowej X
n
odchyli si od wartoci o wicej ni dowolnie maa liczna
wynosi zero.
Zbieno wedug prawdopodobiestwa oznaczamy X
n

P
a, oraz mwi-
my, e a jest granic prawdopodobiestwa (plim) dla cigu X
N
. W podrcz-
nikach do ekonometrii najczciej spotykanym oznaczeniem jest plimX
N
= a
0.3.2 Prawa wielkich liczb
Twierdzenie 1 Nierwno Markowa.
Niech X
n
0 bdzie zmienn losow. Wtedy dla kadego a > 0
P(X
n
a)
EX
a
Dowd:
aP(X
n
a)

Xa
XdP EX
Wprost z nierwnoci Markowa wynika nierwno Czebyszewa.
Denicja 5 Niech EX = , oraz a > 0. Wtedy:
P(|X | a)
V arX
a
2
Denicja 6 Niech cig X
n
bdzie nieskoczonym cigiem zmiennych loso-
wych. Mwimy, e cig jest zbieny prawie na pewno lub z prawdopodobie-
stwem 1 do liczby a jeeli
P({ : lim
n
X
n
() = a}) = 1
Zbieno prawie na pewno oznaczamy X
n

p.n.
a, Oznacza to, e dla ro-
sncej prby warto zmiennej losowej znajduje si w epsilonowym otoczeniu
liczby a z prawdopodobiestwem rwnym 1.
Twierdzenie 2 Prawo Wielkich Liczb.
Jeeli X
1
, X
2
, . . . s niezalenymi zmiennymi losowymi o jednakowym rozka-
dzie, ze skoczon wartoci oczekiwan < . Wtedy
> 0 lim
n
P

|
S
n
n
|

= 1
6
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
Intuicyjnie, warto oczekiwana jest liczb do ktrej zmierza wedug praw-
dopodobiestwa rednia z wielu niezalenych realizacji zmiennej losowej. Z
PWL wynika, e czsto empiryczna jest estymatorem zgodnym prawdopo-
dobiestwa sukcesu.
Twierdzenie 3 Mocne Prawo Wielkich Liczb.
Niech cig X
n
bdzie cigiem niezalenych zmiennych losowych o jednakowym
rozkadzie, ze skoczon wartoci oczekiwan < , to dla kadego > 0
> 0 lim
n
(sup
mn
|
X
1
+ . . . + X
m
m
| ) = 1
Twierdzenie 4 Suckiego. Niech g : R
K
R
J
bdzie funkcj cig w pew-
nym punkcie c R
K
. Niech {x
N
: N = 1, 2, . . .} bdzie cigiem wektorw o
wymiarach K 1, takim e x
N
P
c. Wtedy:
plim g(x
N
) = g(plim x
N
)
jeeli g() jest ciga w punkcie plim x
N
Twierdzenie Suckiego jest bardzo uyteczne. Pozwala manipulowa granica-
mi, nawet w przypadku funkcji nieliniowych, pod warunkiem, e s cige.
Wnioskiem z twierdzenia Suckiego jest nastpujce twierdzenie.
Twierdzenie 5 Operowanie granicami. Jeeli X
n
oraz Y
n
s zmiennymi
losowymi zbienymi wedug prawdopodobiestwa o granicach plim X
n
= c,
plim Y
n
= d, wwczas:
plim(X
n
+ Y
n
) = c + d
plim(X
n
Y
n
) = cd
plim(X
n
/Y
n
) = c/d jeeli d = 0
Powysze wasnoci zachodz rwnie dla macierzy, ktrych elementami s
zmienne losowe.
0.3.3 Zbieno wedug rozkadu
Innym wanym problemem jest zachownaie rozkadu x
n
przy rosncym n do
nieskoczonoci. Przypomnijmy, e analityczna forma rozkadu jest niezna-
na, poniewa nieznany jest rozkad pojedynczej zmiennej losowej X. Ponad-
to, wariancja rozkadu asymptotycznie dy do zera, przez co rozkad jest
zdegenerowany do jednopunktowego o wartosci .
Najsilniejsz form zbienoci jest zbieno wedug rozkadu (dystrybu-
anty).
7
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
Denicja 7 Zbieno wedug rozkadu.
Cig zmiennych losowych {X
N
: N = 1, 2, . . .}, gdzie indeks N oznacza
wielko prby, zbiega wedug rozkadu do cigej zmiennej losowej X, wtedy
i tylko wtedy gdy:
lim
n
F
N
() = F() R
gdzie F
N
jest dystrybuant x
N
, oraz F jest cig dystrybuant zmiennej
losowej X. Zbieno wedug rozkadu oznaczamy x
N
d
x. Przyjo si m-
wi, e zmienna losowa zbiega do rozkadu, chocia w rzeczywistoci zbiega
do innej zmiennej losowej o znanym rozkadzie.
Przykad 3. Gdy X N(,
2
), wtedy x
N
d
N(,
2
) lub x
N
a

N(,
2
). Mwimy, e X
n
zbiega do rozkadu normalnego lub krcej, e ma
rozkad asymptotycznie normalny.
Twierdzenie 6 Centralne Twierdzenie Graniczne.
Jeeli X
1
, . . . , X
n
s niezalenymi zmiennymi losowymi o jednakowym roz-
kadzie prawdopodobiestwa o wartoci oczekiwanej EX
i
= i wariancji
V arX
i
=
2
oraz S
n
= X
1
+ . . . + X
n
, to dla kadej liczby a,
lim
n
P

S
n
n

n
a

= (a)
Czasem tez CTG przedstawia si za pomoc zbienoci wedug rozkadu:
S
n
n

n

d
N(0, 1)
W celu znalezienia rozkadu granicznego zastpuje si estymator jego
pewn funkcj, ktorej rozkad nie jest zdegenerowany. Dla rozkadu x
n
roz-
sdnym wyborem jest statystyka

n( x
n
)/, ktra posiada redni zero
i jednostkow wariancj. Na mocy CTG rozkladem granicznym tej zmien-
nej losowej jest rozkad N(0, 1). Niezalenie od formy rozkadu, granicznym
rozkadem statystyki jest rozkad standardowy normalny. Ten fenomen jest
nazywany zbienoci wedug rozkadu.
0.4 Asymptotyczne wasnoci estymatorw
Wan cech estymatorw jest zgodno.
Denicja 8 Niech estymator

n
bdzie oszacowaniem parametru . Estyma-
tor nazwiemy estymatorem zgodnym, wtedy i tylko wtedy gdy
> 0 lim
n
P((

) > ) = 0
8
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
w skrcie moemy to zapisa jako
plim

n
=
Estymator nazywamy zgodnym, gdy dla dostatecznie duej liczebnoci
prby cig estymatorw zbiega z duym prawdopodobiestwem do wartoci
estymowanej. Oznacza to, e jeeli budujemy estymatory na podstawie coraz
liczniejszych prb, coraz lepiej przybliaj one estymowan warto.
Przykad 4.
Inna wan cech, znacznie uatwiajc ocen prawidowoci oszacowa
jest asymptotyczna normalno.
Denicja 9 Niech estymator

n
bdzie oszacowaniem parametru . Przypu-
my, e

N(

N
)
d
N(0, V ) (2)
gdzie V jest nieujemnie okrelon macierz o wymiarach P P. Mwimy,
e

N
ma rozkad asymptotycznie normalny oraz V jest asymptotyczn wa-
riancj

N(

N
), zapisuj AV ar

N(

N
) = V .
Naley podkreli, e

N
tylko w specjalnych przypadkach ma rozkad
normalny. Mimo wszystko przyjmujemy, e

N
N(0, V/N)
gdy speniona jest zaleno (2). Wobec tego V/N jest nazywane asympto-
tyczn wariancj

N
0.5 Zadania
Zadanie 1.
1. Poka, e z twierdzenia Czebyszewa wynika, e jeli lim
n
Var (a
i
) = 0,
to plim a
i
=
E
(a
i
).
2. Poka, e dla jeli dla n = 1, 2, . . .
a
i
=

0 z p-stwem 1
1
n
n z p-stwem
1
n
to plim (a
i
) = 0 mimo, e
E
(a
i
) = 1 a lim
n
Var (a
i
) = .
3. Czy prawd jest, e
9
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
(a) plim a
i
=
E
(a
i
) = lim
n
Var (a
i
) = 0
(b) lim
n
Var (a
i
) = 0 =plim a
i
=
E
(a
i
)
(c) plim a
i
=
E
(a
i
) lim
n
Var (a
i
) = 0
Rozwizanie
1. Nierwno Czebyszewa mwi, e dla kadego > 0
Pr (|x| )
E
(x)
2

2
Zdeniujmy x = a
i

E
(a
i
). Otrzymamy wtedy
Pr (|a
i

E
(a
i
)| )
E
[a
i

E
(a
i
)]
2

2
=
1

2
Var (a
i
)
plim (a
i
) =
E
(a
i
) wtedy i tylko wtedy, gdy
lim
n
Pr (|a
n
a| > ) = 0
dla kadego > 0. Jeli jednak = , to
lim
n
Pr (|a
i

E
(a
i
)| )
1

2
lim
n
Var (a
i
) = 0
2. Zamy, e a = 0. Z denicji granicy wedug prawdopodobiestwa i
sposobu zdeniowania rozkadu otrzymujemy
lim
n
Pr (|a
n
a| > ) = lim
n
Pr (|a
n
| > )
Przeanalizujmy jak wartos przyjmuje wyraz a
i
cigu.
a
i
=

0 z p-stwem 1
1
n
n z p-stwem
1
n
ale lim
n
1
n
= 0 wic
a
i
=

0 z p-stwem 1
n z p-stwem 0
zatem
lim
n
Pr (|a
n
a| > ) = lim
n

1
n

= 0
10
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
a wic istotnie plima
n
= 0.
E
(a
i
) =

1
1
n

0 +
1
n
n = 1
E

a
2
i

1
1
n

0 +
1
n
n
2
= n
Var (a
i
) =
E

a
2
i

[
E
(a
i
)]
2
= n 1
3. Z poprzednich punktw wynika, e
(a) jest faszem
(b) jest prawd
(c) jest faszem
Zadanie 2.
Rzucamy n razy kostk i oznaczmy przez y
i
ilo wyrzuconych oczek. Po-
wiedzmy, e rozkad prawdopodobiestwa dla rzutw kostk nie zmienia si
w czasie i poszczeglne rzuty s niezalene. Prawdopodobiestwa wyrzucenia
i oczek jest rwne p
i
1. Podaj rozkad
i
dla liczby wyrzuconych oczek dla modelu postaci
y
i
= +
i
E
(
i
) = 0
Var (
i
) =
2
2. Podaj posta estymatora MNK dla wielkoci parametru
3. Podaj estymator MNK dla
2
4. Udowodnij, e estymatory MNK dla parametrw i
2
s zgodne w
tym modelu
5. Podaj asymptotyczny rozkad estymatora b. Jaki bdzie asymptotyczny
rozkad tego estymatora jeli p
1
= . . . = p
6
.
6. Na podstawie uzyskanych dla obserwacji y
i
= {1, 2, 3, 2, 2, 3, 2, 2, 1} es-
tymatorw parametrw i
2
zwerykuj hipotez, e oczekiwana liczba
oczek jest taka jak przypadku, w ktrym p
1
= . . . = p
6
. Zastosuj przy-
blienie wynikajce z rozkadu asymptotycznego.
11
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
Rozwizanie
1. Rozkad
i
mona wywnioskowa z rozkadu y
i
, poniewa
i
= y
i
.
Rozkad y
i
jest dany wzorem
y
i
=

1 z p-stwem p
1
2 z p-stwem p
2
.
.
.
.
.
.
.
.
.
6 z p-stwem p
6
wic

i
=

1 z p-stwem p
1
2 z p-stwem p
2
.
.
.
.
.
.
.
.
.
6 z p-stwem p
6
Zauwamy, e
E
(y
i
) =

6
i=1
ip
i
. Poniewa
E
(y
i
) =
E
( +
i
) = wic
=

6
i=1
ip
i
i jest skoczona, poniewa p
i
[0, 1]
2. Jedyn zmienn objaniajc jest staa, wic b = y
3. Jedyn zmienn objaniajc jest staa, wic s
2
=
1
n1

n
i=1
(y
i
y)
2
4. Estymatory MNK s zgodne, jeli x
i
i
i
s niezalene od siebie, maj
stae rozkady niezalene w czasie oraz skoczone 1, 2 i 4 momenty przy
czym
E
(
i
) = 0 i
E
(x

i
x
i
) jest odwracalne. x
i
= 1, wic niezaleno x
i
i
i
jest oczywista, tak samo jak stao rozkadu, skoczono momen-
tw x
i
i odwracalno
E
(x

i
x
i
). Skadnik losowy
i
ma stay rozkad o
ile nie zmieniaj si p
i
, to, e
E
(
i
) = 0 wynika z denicji
i
, skoczo-
no momentw centralnych 2 i 4 bdu
i
pokazujemy w nastpujcy
sposb:
Var () = Var (y ) = Var (y) =
E

y
2

[E (y)]
2
=
6

i=1
i
2
p
i

i=1
ip
i

2
<
Var

=
E

2
=
6

i=1
(i )
4
p
i

i=1
(i )
2
p
i

2
<
poniewa p
i
[0, 1] i skoczone
12
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
5. Rozkad asymptotyczny estymatora b znajdujemy z oglnego wzoru:

n(b )
D
N

0,
2
[
E
(x

x)]
1

E
(x

x) = 1,
2
= Var (
2
) a wic

n(b )
D
N

0, Var

2
i

gdzie =

6
i=1
ip
i
, Var () =

6
i=1
i
2
p
i

6
i=1
ip
i

2
Dla rwnych p
i
musimy mie

6
i=1
p
i
= 1 wic p
i
=
1
6
,

6
i=1
ip
i
=
1
6

6
i=1
i =
1
6
6(6+1)
2
=
7
2
,

6
i=1
i
2
p
i
=
1
6

6
i=1
i
2
=
1
6
6(6+1)(12+1)
6
=
713
6
=
91
6
, Var () =
91
6

49
4
=
181
12

147
12
=
34
12
=
17
6

b
7
2

D
N

0,
17
6

6. Wychodzc z wyprowadzonego rozkadu moemy zastosowa aproksy-


macj
U =
b
7
2

17
6
a
N (0, 1)
Estymator b dla podanych danych jest rwny y = 2. Wartos statystyki
testowej U =
2
7
2

17
6
. 89. Zatem nie ma podstaw do odrzucenia H
0
.
Zadanie 3.
Niech Y
i
, i = 1, 2, . . . bdzie cigiem niezalenych zmiennych losowych o
jednakowym rozkadzie, dla ktrych E(Y
2
i
) < . Niech E(Y
i
) = oraz
V ar(Y
i
) =
2
1. Niech

Y
N
bdzie redni prbkow, dla prby o liczebnoci N. Znajd
V ar(

N(

Y
N
))
2. Znajd asymptotyczn wariancj dla V ar(

N(

Y
N
))
3. Znajd asymptotyczn wariancj dla

Y
N
i porwnaj z V ar(

Y
N
).
4. Znajd asymptotyczne odchylenie standardowe dla

Y
N
.
5. W jaki sposb mona obliczy asymptotyczne odchylenie standardowe
dla

Y
N
.
Rozwizanie
13
Pawe Strawiski Asymptotyka i statystyczne podstawy regresji
1. Poniewa V ar(Y
i
) =
2
zatem V ar(

Y
N
) =

2
N
. Wnioskujemy zatem, e
V ar(

N(

Y
N
)) = N

2
N
=
2
2. Na podstawie CTG wiemy, e (

N(

Y
N
))
a
N(0,
2
). Wobec tego
AV ar(

N(

Y
N
)) =
2
3. Aby obliczy AV ar(

Y
N
) dzielc AV ar(

N(

Y
N
)) przez N. Wobec
tego, AV ar(

Y
N
) =

2
N
. Tak jak oczekiwalimy jest ona rwna wariancji.
4. Asymptotyczne odchylenie standardowe

Y
N
jest rwnie pierwiastkowi
kwadratowemu z asymptotycznej wariancji. Wynosi

N
.
5. Aby uzyska asymptotyczne odchylenie standardowe dla

Y
N
, niezbd-
ny jest zgodny estymator dla . Zazwyczaj uywany jest nieobciony
estymator dla
2
:
2
=

n
i=1
(y
i
y
M
)
2
/(N 1). Wtedy estymato-
rem odchylenia kwadratowego jest nieujemny pierwiastek oszacowania
wariancji. Asymptotyczne odchylenie standardowe wynosi

N
Literatura
[1] Gajek esaw, Kauszka Marek (1996) Wnioskowanie statystyczne,
WNT, str. 60-63.
[2] Greene William H. (2003) Econometric Analysis, Upper Saddle River,
str. 897-914.
[3] Jakubowski Jacek, Sztencel Rafa (2001) Wstp do teorii prawdopodo-
biestwa, SCRIPT.
[4] Johnston Jack, DiNardo Jonh (2006) Econometric Methods. McGraw-
Hill. 4th edition.
[5] Niemiro Wojciech (1999) Rachunek Prawdopodobiestwa i Statystyka
Matematyczna, Szkoa Nauk cisych, str. 81-95.
[6] Wooldridge Jerey M. (2002) Econometric Analysis of Cross Section
and Panel Data, MIT Press, str. 35-45.
14

Vous aimerez peut-être aussi