Vous êtes sur la page 1sur 83

POLITECNICO DI MILANO

Statistica
Appunti
Stefano Invernizzi
Anno accademico 2010-2011

Corso della prof. Ilenia Epifani


Appunti di Statistica

Sommario
Introduzione al corso ......................................................................................................................................... 5
La statistica .................................................................................................................................................... 5
Schema tipico di raccolta dei dati.................................................................................................................. 5
Ripasso di Calcolo delle Probabilit ................................................................................................................... 6
Variabile aleatoria ......................................................................................................................................... 6
Funzione di ripartizione ................................................................................................................................. 6
Variabili aleatorie discrete............................................................................................................................. 6
Variabili aleatorie discrete notevoli: binomiale ............................................................................................ 8
Variabili aleatorie discrete notevoli: geometrica .......................................................................................... 8
Variabili aleatorie continue ........................................................................................................................... 9
Indipendenza di variabili aleatorie .............................................................................................................. 10
Distribuzione uniforme ................................................................................................................................ 11
Densit di variabili aleatorie derivate.......................................................................................................... 11
Distribuzione esponenziale ......................................................................................................................... 12
Il modello di Weibull.................................................................................................................................... 14
Il modello gaussiano .................................................................................................................................... 15
Il teorema centrale del limite ...................................................................................................................... 17
Funzione generatrice di momenti ............................................................................................................... 18
La distribuzione gamma .............................................................................................................................. 20
La distribuzione chi-quadro ......................................................................................................................... 22
La densit T-student .................................................................................................................................... 23
Stima di media e varianza di distribuzioni di probabilit ................................................................................ 24
Terminologia ................................................................................................................................................ 24
Valutazione di uno stimatore ...................................................................................................................... 24
La media campionaria ................................................................................................................................. 25
La varianza campionaria .............................................................................................................................. 26
Media e varianza campionaria nel caso gaussiano ..................................................................................... 27
Intervalli di confidenza ................................................................................................................................ 28
Metodi per la stima dei parametri: stima puntuale ........................................................................................ 33
Metodologie di stima dei parametri............................................................................................................ 33
Il metodo dei momenti ................................................................................................................................ 34
Il metodo di massima verosimiglianza ........................................................................................................ 37
Confronto tra i due metodi.......................................................................................................................... 39

Pag. 3
Appunti di Statistica

Ricerca dello stimatore ottimo .................................................................................................................... 40


Disuguaglianza di Frchet-Cramer-Rao ....................................................................................................... 42
Propriet degli stimatori di massima verosimiglianza................................................................................. 46
Il metodo della quantit pivotale ................................................................................................................ 51
La verifica di ipotesi ......................................................................................................................................... 53
Introduzione ................................................................................................................................................ 53
I concetti fondamentali della verifica dipotesi ........................................................................................... 53
Errori ............................................................................................................................................................ 55
Il p-value ...................................................................................................................................................... 56
Lemma di Neyman-Pearson ........................................................................................................................ 57
Verifica dipotesi su popolazione gaussiana: gli Z-test e i T-test ................................................................. 59
Verifica dipotesi su popolazione gaussiana: test chi-quadro sulla varianza (metodo degli IC) caso a
media incognita ........................................................................................................................................... 63
Verifica dipotesi su popolazione gaussiana: test chi-quadro sulla varianza (metodo degli IC) caso a
media nota................................................................................................................................................... 65
Test sui dati accoppiati test di omogeneit sulle medie .......................................................................... 66
Test sui dati accoppiati test di indipendenza (dati gaussiani) .................................................................. 68
Test sui dati accoppiati: Test di Wilcoxon (omogeneit)............................................................................. 70
Test di Wilcoxon-Mann-Whitney (omogeneit dati non accoppiati) .......................................................... 71
Test di omogeneit su campioni gaussiani indipendenti ............................................................................ 73
Test chi-quadro di Pearson per il buon adattamento (goodness of fit) ................................................... 78
Test chi-quadro di indipendenza ................................................................................................................. 81
Test di Kolmogorov-Smirnov (buon adattamento) ..................................................................................... 82

Pag. 4
Appunti di Statistica

Introduzione al corso
La statistica
La statistica pu essere definita come larte di imparare dai dati. Essa consiste quindi nellindividuare
delle tecniche che facciano in modo che i dati ci forniscano le informazioni di cui abbiamo bisogno
(vogliamo far parlare i dati).
A tale scopo, bisogna per prima cosa essere in grado di sintetizzare i dati e di descriverli mediante quelle
che vengono appunto chiamate statistiche, e che sono semplicemente delle descrizioni dei dati
sottoforma, ad esempio, di tabelle, grafi, medie, . Dopodich, necessario trarre delle conclusioni sui
dati stessi.
Una volta ottenute tali conclusioni, bisogna anche domandarsi quanto le conclusioni raggiunte basandosi
su un campione di dati siano realmente affidabili. A tale scopo occorre tener conto dellincertezza dei dati:
ad esempio, se si stanno rilevando i dati relativi alloccupazione di memoria di un web server, bisogna tener
conto del fatto che rilevare i dati in un giorno diverso produrrebbe dati diversi. Un modo per quantificare
lincertezza quello di utilizzare dei modelli probabilistici, e proprio per tale ragione non possiamo
prescindere nello studio della statistica dal calcolo delle probabilit.

Schema tipico di raccolta dei dati


Un esempio
Analizziamo uno schema tipico per la raccolta dei dati, considerando ancora come esempio il web server al
quale abbiamo accennato nel precedente paragrafo. Ipotizziamo per semplicit che tutte le azioni eseguite
in un certo istante sul web server siano indipendenti tra loro e che tutte le operazioni siano dello stesso tipo
(quindi richiedono lo stesso spazio di memoria).
Formalizzazione
La situazione illustrata nel precedente esempio consiste nel ripetere volte uno stesso esperimento in

, ,
condizioni analoghe. Avremo quindi:

Dove i dati , , , sono sempre dei valori numerici. Questo lo schema tipico di raccolta dei dati che
adotteremo in seguito.
Si noti che lesperimento eseguito non deterministico, perci i valori ottenuti come risultato, prima di
eseguire gli esperimenti stessi, possono essere modellizzati medianti delle variabili aleatorie. In altri

, ,,
termini, i dati sono realizzazioni di variabili aleatorie (va)

, , , . .
Come gi affermato in maniera intuitiva, tali variabili aleatorie devono essere indipendenti tra loro:

Dove . . . sta per indipendenti identicamente distribuite. Una famiglia di variabili aleatorie indipendenti e
identicamente distribuite detta campione casuale.
Variabili aleatorie indipendenti
Rimane per da definire il concetto di variabile aleatoria indipendente. Tale concetto, gi studiato durante

Le variabili , , ,
il corso di Calcolo delle Probabilit, cos formalizzato:
sono indipendenti se, per ogni insieme tale che si possano calcolare tutte le

| , ,, =
probabilit che compaiono nella seguente espressione, si ha:

Si noti che la definizione appena fornita in realt solamente di tipo concettuale: non si tratta infatti di una
definizione operativa.

Pag. 5
Appunti di Statistica

Ripasso di Calcolo delle Probabilit


Come si osserva dai pochi concetti finora introdotti, lo studio della statistica richiede lutilizzo di molti
concetti del Calcolo delle Probabilit. Avviamo quindi a questo punto un rapido ripasso di tale disciplina,
mirato solamente a quei concetti che necessario utilizzare in Statistica.

Variabile aleatoria
Una variabile aleatoria un numero casuale (cio del quale non si conosce a priori il valore) del quale


possibile calcolare la probabilit:


Funzione di ripartizione

= , definita per ogni appartenente ad prende il nome di funzione di


Funzione di ripartizione
La funzione
ripartizione.
Importanza della funzione di ripartizione
La funzione di ripartizione un concetto di fondamentale importanza, in quanto ci consente di calcolare le
probabilit di tutti gli eventi di interesse collegati alla variabile casuale. Tali eventi, che sono uninfinit

, , ! , ", , ", ! , , =
numerabile, saranno di varie tipologie:

Se conosciamo la funzione di ripartizione di per tutti i valori reali , allora possiamo calcolare a partire da

, " =
essa le probabilit di tutti gli eventi delle tipologie sopra elencate. Ad esempio:

In altri casi il procedimento leggermente pi complesso, perch necessario un passaggio al limite, ma in


ogni caso la funzione di ripartizione ci fornisce tutte le informazioni necessarie.

Variabili aleatorie discrete


Le variabili aleatorie possono essere classificate sulla base delle modalit che pu assumere (cio dei
valori che la variabile aleatoria stessa ammette). Iniziamo ora il ripasso di una prima categoria: quella delle
variabili aleatorie discrete.
Variabile aleatoria discreta
Diciamo che una variabile aleatoria discreta se una variabile aleatoria che pu assumere al pi
uninfinit numerabile di valori.

Data una variabile aleatoria discreta a valori in un insieme $ = % , , & (detto supporto), chiamiamo
Funzione di densit di una variabile aleatoria discreta

= ) $ -
funzione di densit di la funzione cos definita:
' =(
0 + ,)
Si noti che spesso le funzioni di densit verranno indicate con ' , . , , . e non con la simbologia ' :
ci accadr sempre allinterno di questo corso perch, come avremo modo di vedere, le funzioni di densit
dipendono da diversi parametri e, in statistica, i parametri dai quali dipende la densit possono essere tutti
o in parte non esattamente noti a priori.

1. ' , . , , . 0 , . , , . = 14 ' , . , , .
Valgono le seguenti propriet:

2. 12 ' , , . , , . = 1
5 = 1617 ' , . , , .
3.
4.

Pag. 6
Appunti di Statistica

Andamento tipico della funzione di ripartizione


Landamento tipico della funzione di ripartizione di una variabile aleatoria discreta indicato nel grafico
seguente:

1

' +' +'


' +'

'
'

tratti, monotona non decrescente, continua da destra e che tale funzione tende a zero per e
Possiamo quindi affermare che la funzione di ripartizione di una variabile aleatoria discreta costante a

tende a 1 per +.

appartenenti ad $, possiamo scrivere:


Inoltre, se e sono due valori tali che il numero immediatamente successivo ad tra quelli

='
In altri termini, dalla funzione di ripartizione possibile ottenere tutti i valori di densit.

La media di una variabile aleatoria discreta a valori in $ definita come:


Media

; = <! ' "


12
Condizione necessaria per poter definire la media di che si abbia:
<!| | ' " < +
12
Di fatto per non sar mai necessario verificare tale condizione nelle applicazioni che andremo ad
analizzare.

La varianza di una variabile aleatoria discreta a valori in $ definita come:


Varianza

? = < @A ; B ' C = ; @A ; B C
12

1. ; = , , DE )
Propriet della media e della varianza

2. ; + = ; +
3. Se , allora ;
4. Se F, allora ; ; F
5. ; + F = ; +; F
6. ? + = ?
= DE ) ? =0
8. ? +F = ? +? F + 2 ;IA ; BAF ; F B J =
7.

=? +? F + 2 KL? , F
9. ? =; ; ; =; +?
10. ? 0

Pag. 7
Appunti di Statistica

Momenti
1. Momento primo
La media di una variabile aleatoria viene detta momento primo di .
2. Momento secondo
La media della variabile viene invece detta momento secondo di .
E cos via.

Variabili aleatorie discrete notevoli: binomiale


Significato

= " DD) + P) Q E P) ) P+ER DE P+E DD) E P"


Una variabile aleatoria binomiale se del tipo:

Si noti che necessario che tutte le prove siano indipendenti tra loro e che la probabilit di successo sia

~U ,P
uguale ad ogni prova. Una variabile binomiale si indica:

Funzione di densit

' V, P = W X PY 1 P , V = 0,1, ,
La funzione di densit di una variabile aleatoria binomiale data dalla formula:
ZY
V

; = P
Media e varianza
La media della binomiale :
La varianza della binomiale : ? = P 1P

Variabili aleatorie discrete notevoli: geometrica


Significato

= " P+ER) P. , DE P+E DD) E P, )D) + ) P)+ E ) )+) 1 DD) E"


Una variabile aleatoria geometrica se del tipo:

~[)E, P , P 0,1
Scriviamo allora:

Funzione di densit

' V, P = 1 P YZ P, V = 1,2,
La funzione di densit di una variabile aleatoria geometrica data dalla formula:

1
Media e varianza

; =
P
La media della geometrica :
1P
? =
P
La varianza della geometrica :

Pag. 8
Appunti di Statistica

Variabili aleatorie continue


Nel caso in cui i dati rilevati siano delle misurazioni effettuate nel continuo, chiaramente non possibile
rappresentarli per mezzo di variabili aleatorie discrete: servono perci delle variabili aleatorie che
assumano valori reali allinterno di un intervallo continuo. Tali variabili sono dette variabili aleatorie
continue e, in particolare, ci occuperemo solamente di studiare variabili aleatorie assolutamente continue
(dal momento che studieremo solo tale tipologia di variabili, utilizzeremo i due termini come sinonimi,
anche se in realt hanno significati leggermente diversi).
Variabile aleatoria continua
Diciamo che una variabile aleatoria continua se una variabile aleatoria la cui funzione di ripartizione

1
del tipo:

\ = =] '
Z^
Dove ': !0, + una funzione integrabile, detta densit di probabilit di . Lintegrale della funzione
di densit su tutto sempre pari ad 1:
`^
] ' =1
Z^
Analogie e differenze rispetto alle variabili aleatorie continue
Si nota facilmente che in entrambi i casi la funzione di ripartizione definita allo stesso modo; inoltre, sia
per le variabili aleatorie continue che per quelle discrete definita una densit di probabilit, che per
assume significati ben diversi: mentre nel caso delle variabili aleatorie discrete tale funzione assume

che il suo codominio non limitato ad 1, perci ' pu assumere qualsiasi valore positivo).
effettivamente il significato di una probabilit, nelle variabili aleatorie continue non cos (basti pensare

Propriet della funzione di ripartizione


Per la funzione di ripartizione di una variabile aleatoria continua valgono propriet molto simili a quelle

1. Per , la funzione di ripartizione tende a zero.


viste per la funzione di ripartizione di una variabile aleatoria discreta:

lim \ =0
1Z^
+, la funzione di ripartizione tende ad uno.
lim \ =1
2. Per

1`^
3. La funzione di ripartizione continua ed monotona crescente.
Probabilit che la variabile aleatoria assuma valori in un certo insieme
In maniera molto intuitiva possiamo ricavare che:
d
< =] ' = \ \
e

= V = 0, V
Tramite semplici calcoli si ricava inoltre che:

E quindi possiamo concludere che:


d
< < = = < = < =] ' = \ \
e
Questo risultato pu essere interpretato da un punto di vista statistico: infatti, ogni rilevazione di
grandezze continue deve essere interpretata non come un valore preciso, ma come lindicazione
dellappartenenza del valore vero della grandezza ad un certo intervallo di valori, che dipende dalla
sensibilit dello strumento di misura utilizzato.

Pag. 9
Appunti di Statistica

Legame tra funzione di ripartizione e funzione di densit


Sulla base delle definizioni date, la funzione di ripartizione viene calcolata a partire da quella di densit,
perci chiaro che una conoscenza completa della prima sufficiente per ottenere tutte le informazioni
che riguardano la seconda.
Vogliamo a questo punto domandarci se sia vero anche il contrario. A tale scopo, sufficiente osservare
che la funzione di ripartizione potrebbe non essere derivabile in tutti i punti reali.
Tuttavia, linsieme dei punti nei quali la funzione di ripartizione non derivabile necessariamente finito o
al pi numerabile, perci possibile calcolare la derivata della funzione di ripartizione in tutti i punti nei
quali essa derivabile, completando poi tale funzione in modo che valga zero in tutti i restanti punti.
Media di una variabile aleatoria continua

`^
La media di una variabile aleatoria definita come:

f=; =] '
Z^

`^
A patto che lintegranda risulti assolutamente integrabile:

] | |' < +
Z^
Varianza di una variabile aleatoria continua

`^
Come nel caso delle variabili aleatorie discrete, la varianza definita nel modo seguente:

? = ; @A ; B C=] f '
Z^

`^
Naturalmente, sempre a patto che si abbia:

] f ' < +
Z^
Propriet di media e varianza
Le propriet della media e della varianza di variabili aleatorie continue sono sostanzialmente le stesse che

utilizzando il simbolo ;
abbiamo enunciato nel caso di variabili aleatorie discrete: proprio per tale motivo esse sono state elencate
, in modo tale che non risulti a questo punto necessario elencarle nuovamente.
Indipendenza di variabili aleatorie

per dare una definizione operativa dellindipendenza tra due variabili aleatorie ed F. Il procedimento
Abbiamo gi dato una prima definizione di indipendenza tra variabili aleatorie. A questo punto possiamo

che andremo a descrivere pu poi essere facilmente generalizzato ad un numero qualsiasi di variabili.

Per prima cosa dobbiamo introdurre il concetto di densit congiunta tra due variabili aleatorie ed F:
Densit congiunta

' ,g :

' ,g = = ,F = g
1. Nel caso discreto, la densit congiunta definita come:

2. Nel caso continuo, la densit congiunta definita come quella funzione ' , g integrabile su e tale

1 h
che si abbia:

,F g = ] ] ' ,
Z^ Z^

Diremo allora che ed F sono indipendenti se la densit congiunta fattorizza nel prodotto delle due
Indipendenza

' , g = '\ 'i g


densit marginali, ovvero:

Pag. 10
Appunti di Statistica

Distribuzione uniforme

( > ) se ha una distribuzione di probabilit


Definizione

nulla fuori dallintervallo ! , " e costante pari a


Una variabile aleatoria continua detta uniforme tra e
dZe

1
allinterno di tale intervallo:

' , , =k ) - , >
0 + ,)

0 ) -
La stessa funzione pu essere rappresentata per mezzo della funzione indicatore cos definita:
l4 =(
1 )
Dove un qualsiasi sottoinsieme di . Utilizzando lindicatore si ottiene unespressione pi compatta:
1
' , , = l
!e,d"

~n ,
La variabile uniforme si indica con:

' , ,

molto semplice verificare che la media e la varianza della distribuzione di probabilit si ottengono

1 + +
calcolando:
d d
;! " = ] = o p = = =
e 2 e 2 2 2
1 + + + +
d d
;! "=] = o p = = =
e 3 e 3 3 3

+ + +2 + 4 +4 +4 3 6 3
? ! " = ;! "; ! " = = =
3 4 12

2 +
= =
12 12

Densit di variabili aleatorie derivate


Sia data una variabile aleatoria con distribuzione di probabilit '\ e supporto $. Sia inoltre data una
funzione t invertibile sul supporto di , con inversa t . Allora:
Z

F=t
una variabile aleatoria la cui densit di probabilit data dalla formula:

'i g = u tZ g u '\ At g B
g

Pag. 11
Appunti di Statistica

Distribuzione esponenziale
Definizione
Una variabile aleatoria continua detta esponenziale (o esponenziale negativa) se ha una distribuzione di

1 Zw1
probabilit del tipo:

) ) > 0-
' , v = kv , v > 0
0 ) 0

1 Z1
Utilizzando lindicatore si ottiene unespressione pi compatta:

' , v = l1x5 ) w
v

Landamento della ' , v perci del tipo:


Grafico della funzione di densit

' ,v
1
v

ha funzione di densit esponenziale con parametro v si scrive:


~ v
Per dire che una variabile aleatoria

Funzione di ripartizione

1. Se 0:
La funzione di ripartizione, secondo la definizione data, verr calcolata nel modo seguente:

\ =0
2. Se > 0:
1
1 Zz 1 z 1 1
= =] ' =] ) w = -) w { = 1 ) w
Z Z

5 v
\
Z^ 5

1
Ovvero:

= |1 ) w} l1x5
Z
\

Il grafico della funzione dunque quello rappresentato nella figura seguente:


\
1

Osserviamo quindi che la funzione di ripartizione possiede tutte le propriet precedentemente elencate.

Pag. 12
Appunti di Statistica

Media e varianza

`^ `^
1 Zw1
1. Calcoliamo la media dellesponenziale:

; =] ' ,v =] )
Z^ 5 v

1 `^
Integrando per parti:
`^ 1 `^ 1 `^ 1
; = - ) wu +] ) =0+] ) =] )
Z Z Z Z
w w w
5 5 5 5

1 Zw1 `^
Ricordando che calcolare:

)]
5 v
Equivale di fatto ad integrare su tutto linsieme dei reali la funzione di densit dellesponenziale, e

`^ `^
1 Zw1
sapendo che tale integrale deve essere sempre pari ad uno, per ogni variabile aleatoria continua:
1
; = ] ) w = v] ) =v
Z

5 5 v

? =; ;
2. Calcoliamo ora la varianza dellesponenziale, utilizzando la propriet:

`^ `^
1 Z1
A tale scopo, dobbiamo calcolare per prima cosa il momento secondo:

; =] ' ,v =] ) w
Z^ 5 v

; = 2v
Mediante unintegrazione per parti, che omettiamo per brevit, otteniamo:

? =; ; = 2v v = v
Perci:

Propriet dellassenza di memoria


La distribuzione di probabilit esponenziale lunica distribuzione continua che gode della propriet di

5+ | 5 =
assenza di memoria. Ci significa che:

Usi della variabile aleatoria esponenziale


Le variabili aleatorie esponenziali vengono utilizzate per modellare i tempi di vita (o di guasto) di
apparecchiature di vario genere (o anche per i tempi di vita dei pazienti, in ambito medico). In particolare si
considera unapparecchiatura che inizialmente funzioni correttamente e che non soggetta n ad usura,
n a rodaggio, e la si monitora continuamente; la variabile aleatoria rappresenta poi listante nel quale
lapparecchiatura si guasta. Lassenza di fenomeni di usura e rodaggio rappresentata matematicamente
per mezzo della propriet dellassenza di memoria, che abbiamo appena enunciato.

Pag. 13
Appunti di Statistica

Il modello di Weibull
Proviamo ora ad introdurre una variabile aleatoria che rappresenti il tempo di vita di unapparecchiatura
tenendo conto dei fenomeni di usura o del suo rodaggio.
La variabile aleatoria pu essere ottenuta semplicemente come trasformazione continua della variabile
esponenziale: trattandosi della trasformazione continua di una variabile continua, si tratter ancora di una

F = ~, ~ v e D > 0
variabile continua. In particolare, la trasformazione necessaria di tipo esponenziale:
con

i g = Fg = g
~
Avremo quindi:

1. Se g 0:
Possiamo ora distinguere due sottocasi:

i g =0
2. Se invece g > 0, siccome tutte le grandezze in gioco sono positive, avremo:

i g = ~
g = | g~ } = \ |g ~ }

0 ) g 0
Anche senza proseguire oltre nei calcoli (che, come vedremo, sarebbe inutile per i nostri scopi), abbiamo:

g = k -
\ |g ~ } ) g > 0
i

Ci che ci interessa invece determinare la funzione di densit di F, che possiamo calcolare come derivata
di i :
1. Se g < 0, naturalmente avremo:

=0
h
g
2. Se g > 0, possiamo calcolare la derivata mediante la regola della derivazione di funzione composta:
|g ~ }

\ 1 1 1 Z~ h
= = g ~ Z \ |g ~ } = g ~ Z '1 |g ~ } = g ~ ) w
h Z
g g D D Dv

0 ) g 0
In conclusione, completando la funzione di densit cos trovata, abbiamo:

'i g = 1 -

Z~ h
g ~ ) ) g > 0
Z
w
Dv
Questo risultato poteva anche essere ottenuto pi semplicemente utilizzando la formula relativa alla
funzione di densit di una variabile aleatoria derivata.

1. Se D > 1, F rappresenta il tempo di usura di unapparecchiatura con rodaggio.


Si nota che:

2. Se D = 1, F lesponenziale gi analizzata (cio non si tiene conto n di rodaggi, n di usure).


3. Se D < 1, F rappresenta il tempo di usura di unapparecchiatura soggetta ad usura.

Pag. 14
Appunti di Statistica

Il modello gaussiano

Diciamo che una variabile aleatoria normale di media f e varianza , e scriviamo:


Variabile aleatoria gaussiana (o normale)

~ f, , f, , > 0

1
Se la distribuzione di probabilit di :
1Z
' , f, = )
Z

2
Il grafico seguente mostra due distribuzioni normali con la stessa media ma con varianze diverse:

Variabile aleatoria normale standard

normale di media f = 0 e varianza = 1:


Diciamo che una variabile aleatoria una variabile aleatoria normale standard se ha una distribuzione

~ 0,1

1
La distribuzione di probabilit di allora:

= ) Z1

2
La funzione di densit di si indica invece con la lettera . Si ricorda che i valori della funzione di
ripartizione delle normale standard vengono ottenuti utilizzando le apposite tabelle (o, nelle applicazioni
pratiche, utilizzando opportuni software).

Data una generica variabile aleatoria ~ f, , valgono sempre le propriet seguenti:


Propriet delle variabili aleatorie normali

1. ' simmetrica rispetto alla retta = f.


2. La funzione di ripartizione in f vale sempre , ovvero: f = 0.5.
3. La variabile aleatoria F = + , , una variabile aleatoria normale:
F~ f + ,
Nel caso particolare in cui la variabile aleatoria sia una normale standard, cio ~ 0,1 :
1. una funzione pari.
2. 0 = 0.5
3. Per ogni valore reale di Q, si ha Q = 1 Q .
4. Per ogni valore reale di Q, si ha:
|| V = V < V = V V = V !1 V " = 2 V 1
5. || 3 0,99. Possiamo quindi approssimare ad 1 la probabilit che assuma valori in modulo
maggiori di 3, e proprio per questo motivo le tavole non riportano i valori della funzione di ripartizione
corrispondenti a punti superiori a 3.

Pag. 15
Appunti di Statistica

Data una generica variabile aleatoria ~ f, , una particolare trasformazione affine, che assume un
Standardizzazione

f
ruolo fondamentale, quella nota come standardizzazione, ovvero:


Si osserva facilmente che la variabile cos ottenuta avr ancora una distribuzione di probabilit dello stesso

f f
tipo della distribuzione di probabilit di , ma con media nulla e varianza unitaria:

;| }=0 ? | }=1

~ f,
Nel caso particolare in cui sia una variabile aleatoria gaussiana:

f
La variabile aleatoria:


una normale standard. In questo caso, la standardizzazione risulta particolarmente utile perch

generica gaussiana. Possiamo poi ottenere i valori della funzione di ripartizione di a partire da quelli di
possibile ricavare dalle tavole i valori della funzione di ripartizione di una normale standard, ma non di una

f f f f
nel modo seguente:

= = | } = W X = W X
\

Quantili
In molti casi per non richiesto di calcolare qual la probabilit che una variabile aleatoria normale

probabilit P, qual la soglia tale che la probabilit che sia non superiore a risulti essere uguale a P.
assuma un valore non superiore ad una certa soglia, ma si richiede di individuare, data una certa

Il valore di cos individuato viene detto quantile di ordine p di :


= " ) E+ ) P" A B = P
Loperazione di individuazione del quantile pu essere eseguita per variabili aleatorie di qualunque tipo, sia
discrete che continue (nel caso discreto si hanno per alcuni problemi aggiuntivi, legati al fatto che la

Consideriamo in particolare la situazione in cui si voglia calcolare il quantile di ordine P di una variabile
relativa funzione di distribuzione continua a tratti). Noi per ci soffermiamo solo sul caso continuo.

1. Per prima cosa, calcoliamo il quantile di ordine P della variabile aleatoria normale standard, ,
aleatoria normale . Allora:

andando a cercare sulla tabella qual il valore per il quale la funzione di ripartizione assume valore P.
Indichiamo tale grandezza con Q .

f f
2. A questo punto, possiamo eseguire i seguenti calcoli:
P = \ A B = W X Q = = Q + f

Propriet: distribuzione della somma di variabili normali i.i.d.

date variabili aleatorie indipendenti identicamente distribuite , , , ~ f, , la loro somma a


A questo punto, possiamo anche riprendere un altro importante teorema del Calcolo delle Probabilit:

sua volta una variabile aleatoria con distribuzione normale.


Inoltre, ricordando le semplici propriet di media e varianza:

< ~ f,

Pag. 16
Appunti di Statistica

Se poi dividiamo la variabile aleatoria cos ottenuta per , naturalmente otterremo unaltra variabile
aleatoria, che (come avremo modo di approfondire) la media campionaria, e che non potr che essere


una normale:
~ f,

Consideriamo un esempio: sia f lesatto valore di misura di una certa grandezza. Se effettuiamo una certa
misurazione della grandezza f, utilizzando uno strumento con una certa precisione nota, che definita
come Z , ci aspettiamo che il risultato non sia esattamente uguale a f, ma si tratter di una variabile

=f+
aleatoria, che pu essere vista come:

~ 0,
Dove:

Ovvero, si ha un errore casuale che ha una distribuzione normale di media nulla (siamo cio nellipotesi di

~ f,
assenza di errori sistematici). Questo modello tipico della situazione analizzata. Avremo inoltre:

Dove f unincognita, mentre un parametro costruttivo dello strumento, e supponiamo che sia noto
perch fornito dal produttore.

Il teorema centrale del limite

Sia , , , una sequenza di variabili aleatorie indipendenti identicamente distribuite con media f e
Enunciato del teorema

varianza > 0. Allora:

f
1 |Zz

lim <Q =] )
}
= Q
Z^ 2

`^

Dove Q la funzione di ripartizione della distribuzione normale standard:
Q = 0,1
Significato

aleatorie , , , , purch esse siano indipendenti e identicamente distribuite, la loro somma ha una
In sostanza, stiamo affermando che, indipendentemente dalla distribuzione di probabilit delle variabili

distribuzione che pu essere approssimata come una variabile aleatoria normale di media f e varianza

f
:

~e 0,1
~e f,

Pag. 17
Appunti di Statistica

Funzione generatrice di momenti

Data una variabile aleatoria , possiamo calcolare la media della variabile aleatoria ) z\ :
Definizione della funzione generatrice dei momenti (f.g.m.)

; ) z\

; ) z\ < +
Se esiste un intorno del punto zero tale che per ogni t appartenente a tale intorno si abbia:

\ = ; ) z\
Allora definiamo la funzione generatrice dei momenti di come:

Quindi:
1. Se una variabile aleatoria discreta, avremo:
\ = <!' ) z1 "
1

`^
2. Se una variabile aleatoria continua, avremo:

\ =] ' ) z1
Z^
Calcolo della distribuzione a partire dalla funzione generatrice dei momenti
Il motivo fondamentale per il quale abbiamo introdotto la funzione generatrice dei momenti che,
calcolandone lantitrasformata, si ottiene la funzione di densit della variabile di partenza. In altri termini,
esiste una corrispondenza biunivoca tra la funzione di densit e la funzione generatrice dei momenti.

F hanno la stessa funzione di densit se e solo se hanno la stessa funzione generatrice dei momenti.
In particolare, per calcolare lantitrasformata si utilizzano in realt le opportune tabelle. In altri termini e

~ F~[ = [ \ = i
Funzione generatrice dei momenti della somma di variabili aleatorie indipendenti
La funzione generatrice dei momenti della somma di variabili aleatorie indipendenti la produttoria delle
funzioni generatrici dei momenti delle singole variabili:

7 \ = ;A) z7 \ B = ; ) z\ - = ; ) z\ = 1

z

Propriet

indicata con questo nome che la sua derivata V-esima rispetto alla variabile assume in = 0 il valore
La ragione per la quale la funzione generatrice dei momenti di una variabile aleatoria qualsiasi viene

della media di Y , ovvero del momento V-esimo di :


- \ { = ;! Y "
z5

Pag. 18
Appunti di Statistica

Esempio di utilizzo

, , , . . . ~ v
Si considerino variabili aleatorie esponenziali i.i.d., ovvero:

Supponiamo di voler determinare la legge di distribuzione della somma delle variabili appena descritte.
Uno dei modi possibili quello di utilizzare la funzione generatrice di momenti della variabile aleatoria .

~ v
Iniziamo allora calcolando la funzione generatrice dei momenti di una variabile aleatoria esponenziale:

`^ `^
1 Zw1 z1 1 `^ Z|wZz}1
Avremo:

\ =] ' ) z1
=] ) ) = ] ) =
Z^ 5 v v 5
1 1 Z `^
1 1 1 Z
1
= | } ] | }) = | } =
Z| Zz}1
w
v v 5 v v v 1v
Tale calcolo vale per solo a patto che w > 0, ovvero:
< vZ
Siccome v > 0 per ipotesi, abbiamo certamente individuato un intorno dellorigine nel quale la funzione
\ appena calcolata non va allinfinito, perci \ effettivamente la funzione generatrice dei
momenti di .

1 1
A questo punto, avremo:

7 \ =| } ) <
1v v
Il vantaggio di eseguire tale calcolo che, come si nota, sono stati sufficienti in realt pochi calcoli per
ottenere tale risultato e poi, utilizzando le tabelle, si ricava facilmente che la funzione di densit

,v
corrispondente (ovvero lantitrasformata della funzione cos calcolata) la funzione di densit gamma.

In particolare, si tratta di una distribuzione di Earlang, che un caso particolare di distribuzione e che
viene utilizzata per modellare listante di arrivo dell -esimo guasto in un sistema.
Molto pi complesso sarebbe stato calcolare la distribuzione di probabilit utilizzando lintegrale di
convoluzione.

Pag. 19
Appunti di Statistica

La distribuzione gamma
Funzione di densit
A questo punto, possiamo introdurre una distribuzione di probabilit continua che finora non abbiamo

una variabile aleatoria ha distribuzione di probabilit gamma con i parametri e v, scriviamo:


studiato, e che si riveler di fondamentale importanza allinterno del nostro corso: la funzione gamma. Se

~ , v

Z
La funzione di densit di sar allora:
1
'\ , , v = ) l , , v
Z
w
v 5;`^

il parametro di regolarit;
Dove:

v prende il nome di parametro di scala;


la costante che serve per far in modo che si abbia:
`^
] '\ , , v =1
5
Tale condizione ovviamente indispensabile affinch '\ , , v sia effettivamente una densit di
probabilit. Si pu notare che tale integrale non dipende in realt da v, perci possiamo
arbitrariamente fissare v, ad esempio, ad 1, e definire come:
`^
=] Z
) Z1
5
In particolare, valgono le seguenti relazioni, che risultano utili per calcolare il valore di nei casi

1 =1
pratici di interesse:

1 -
| } =
2
+ 1 = , > 0
Da queste regole si ricava in maniera molto semplice ed intuitiva che, se un numero intero non

+1 = !
negativo, allora abbiamo:

0 =1
Mentre, per definizione:

Funzione generatrice dei momenti

1
1
La funzione generatrice dei momenti di una variabile aleatoria gamma data dallespressione:

,w = | } ) <
1v v
Media e varianza

quale \ 0 la media di :
1. Per calcolare la media, possiamo sfruttare la propriet della funzione generatrice dei momenti per la

- \ 1 Z
v 1 `
;! " = { = o | } p = ov | } p = v
z5
1v 1v z5
1v z5

\ 1 v 1
2. Per calcolare la varianza, calcoliamo dapprima il momento secondo:
`
;! " = - { = v o + 1 | } p = v + 1 o| } p = v + 1
z5
1v 1v z5
1v z5

? ! " = ;! " ; ! " = v + v2 2 v2 = v2


Quindi:

Pag. 20
Appunti di Statistica

~ , v
Propriet n. 1: prodotto tra una variabile gamma ed una costante

F = D , D
Si noti che, se consideriamo la variabile aleatoria gamma:

Avr distribuzione gamma con gli stessi parametri di , a meno della costante moltiplicativa D che
Allora, la variabile aleatoria:

F~ , D v
compare nel secondo dei due parametri:

1
1 1
Infatti, avremo:
z~\ "
i = ~\ = ;!) = ;I) z~ \
J=| } ) D < , ERR)+E <
1 vD v Dv

, Dv
E quella appena ottenuta non altro che la funzione generatrice di una distribuzione

Questa la ragione per la quale tale parametro noto come parametro di scala.

Siano date due variabili aleatorie e F, indipendenti tra loro ed entrambe con distribuzione gamma,
Propriet n. 2: somma di variabili gamma con lo stesso parametro di scala

~ , v F~ , v
aventi lo stesso parametro di scala:

= +F
Allora, se si considera la variabile aleatoria ottenuta come somma tra le due:

Tale variabile aleatoria una variabile gamma con parametro di regolarit + e parametro di scala v:
~ + , v

= ;I) z \`i J = ;!) z\ ) zi "


Possiamo facilmente verificarlo considerando la funzione generatrice dei momenti:

1
1
1 `
Sfruttando lindipendenza tra le variabili aleatorie date, otteniamo:

= ;!) z1 " ;!) zh " = | } | } =| } = + ,v


1v 1v 1v
Possiamo inoltre affermare che, se sono date due variabili aleatorie e F indipendenti, tali che:
~ , v + F ~ , v >

F~ , v
Possiamo dire con certezza che:

1 1 1
Infatti:
Z
\`i =| } = \ i =| } i i =| } = ,v
1v 1v 1v

Se = 1, allora la gamma coincide con lesponenziale: 1, v = v


Caso particolare: lesponenziale

Pag. 21
Appunti di Statistica

La distribuzione chi-quadro

Un altro caso particolare della distribuzione quello che si ha quando i parametri sono 0.5 e 2. La
Chi-quadro ad un grado di libert

variabile ottenuta detta chi-quadro con 1 grado di libert :


1
| , 2} =
2

come quadrato di una variabile aleatoria normale standard:


Questa distribuzione di probabilit la stessa che contraddistingue una variabile aleatoria ottenuta

= , ~ 0,1 ~

Chi-quadro a gradi di libert


ed proprio per questa ragione che viene detta chi-quadro.

La distribuzione con parametri 0.5 e 2 detta chi-quadro con gradi di libert :


W , 2X =
2

, , , ~ f, . . .
Se consideriamo le variabili aleatorie normali:

f f f
Possiamo eseguire la standardizzazione di ciascuna di tali variabili, ottenendo:

, ,, ~ 0,1 . . .

f f f
Di conseguenza, in base a quanto visto al punto precedente, avremo:

| } ,| } ,,| } ~ . . .

f
Se a questo punto consideriamo la variabile aleatoria somma di tutte quelle cos ottenute:

= <| }



Quella che otteniamo una variabile aleatoria con funzione generatrice dei momenti:

1 1
= | } =| }
12 12
Che corrisponde proprio alla funzione generatrice dei momenti di una variabile chi-quadro a n gradi di
libert. Il numero di gradi di libert corrisponde allora al numero di variabili aleatorie normali standard che
necessario elevare al quadrato e sommare per ottenere la distribuzione chi-quadro corrispondente.
Grafico della funzione di densit

Pag. 22
Appunti di Statistica

Propriet
Come conseguenza della propriet n. 2 relativa alle variabili gamma, possiamo affermare che, se data

= F +F
una variabile aleatoria:

Dove F e F sono indipendente e dove si ha:


F ~ ~ 2

n 1
Allora, abbiamo:

F ~ | , 2} = Z
2 2
Media e varianza
Ricordando che stiamo semplicemente analizzando un caso particolare di distribuzione gamma, abbiamo:
;! " = 2=
2
Media:

? ! " = 2 = 2
2
Varianza:

Approssimazione
Naturalmente, per una variabile aleatoria con distribuzione chi-quadro, per valori grandi di , tendenti
cio ad infinito, possiamo utilizzare il teorema centrale del limite, ed approssimare una variabile aleatoria

,2
con distribuzione chi-quadro utilizzando una variabile aleatoria normale:

Esistono in realt delle approssimazioni migliori per la distribuzione di chi-quadro; tuttavia, per i nostri
scopi questa approssimazione sar sufficiente.

La densit T-student
Definizione

come ottenuta a partire dalle due variabili aleatorie e cos definite:


Una variabile aleatoria con densit T-student una variabile aleatoria che pu sempre essere pensata

~ 0,1 ~e


Calcolando:

+1 e`
Allora, la funzione di densit che si ottiene :
W 2 X Z
' = 1 + , , = 1,2,
W2X
Grafico della funzione di densit
Il grafico della funzione di densit molto simile a quello della normale standard, con lunica differenza che
le code che si ottengono sono pi grosse rispetto a quelle che si hanno con una distribuzione gaussiana.

Pag. 23
Appunti di Statistica

Stima di media e varianza di distribuzioni di probabilit


Supponiamo ora di non conoscere con esattezza un certo parametro di una data distribuzione di
probabilit, e di volerne ottenere una statistica. Come possiamo procedere?

esempio, nel caso della distribuzione esponenziale ci equivale a stimare il parametro v.


Consideriamo come situazione iniziale il caso in cui si voglia stimare la media di una variabile casuale. Ad

Terminologia
Dato
Le stime verranno eseguite sempre sulla base di un insieme di dati sperimentali, rilevati cio dalla pratica,

, ,, . . .
mediante delle misurazioni. I dati sono delle variabili aleatorie indipendenti e identicamente distribuite:

Statistica
Chiamiamo statistica una qualsiasi funzione dei dati, ovvero un qualsiasi valore che viene calcolato sulla
base dei dati stessi.
Stimatore
Uno stimatore una particolare statistica che viene utilizzata per campionare (o stimare) un certo
parametro o una certa caratteristica. Lo stimatore sar a sua volta una variabile aleatoria.
Stima
La stima il valore osservato dello stimatore.

Chiamiamo Mean Square Error (MSE) la media dei quadrati degli scarti tra lo stimatore e il parametro
Mean Square Error (MSE)

stimato .:
$; = ;! . "
Il MSE perci definibile anche come il momento secondo della variabile aleatoria ..

Valutazione di uno stimatore


Naturalmente, il nostro obiettivo quello di introdurre degli stimatori che siano di buona qualit ovvero,
intuitivamente, che approssimino bene il parametro incognito.
Per valutare la qualit dello stimatore, siccome questultimo a sua volta una variabile aleatoria, possiamo
pensare di prendere in analisi la sua media e la sua varianza. Le osservazioni seguenti valgono sia per il
caso continuo che per quello discreto.

Detto . il parametro che stiamo stimando e detta = t , , ,


Stimatore non distorto

stimatore, diciamo che lo stimatore non distorto se la sua media uguale a .:


la statistica utilizzata come

; =.

Detto . il parametro che stiamo stimando e detta = t , , ,


Stimatore consistente

stimatore, diciamo che uno stimatore consistente di . se:


la statistica utilizzata come

lim ;! . " = 0
`^

Detto . il parametro che stiamo stimando e detta = t , , ,


Stimatore asintoticamente non distorto

stimatore, diciamo che uno stimatore asintoticamente non distorto di . se:


la statistica utilizzata come

lim ; = .
`^

Pag. 24
Appunti di Statistica

Detto . il parametro che stiamo stimando e detta = t , , ,


Stimatore consistente in media quadratica

stimatore, diciamo che uno stimatore consistente in media quadratica di . se:


la statistica utilizzata come

lim ; = . ) lim ? =0
`^ `^
Osservazioni
1. Naturalmente, la condizione migliore di uno stimatore quella in cui esso risulti essere non distorto e
consistente. La condizione di consistenza in media quadratica invece un po meno stringente.

stimatore (ci lo si ricava facilmente, perch in tal caso . la media di ):


2. Nel caso in cui lo stimatore non sia distorto, il Mean Square Error coincide con la varianza dello

$; = ?

lim ? =0
Di conseguenza, la condizione di consistenza in tal caso equivalente a:
`^
3. Se invece lo stimatore distorto, allora . non coincider con la media di . Possiamo comunque
osservare che, come gi affermato, $; il momento secondo di ., perci, dalla formula

? =; ; ; =? +;
pratica della varianza:

$; = ;! . " = ? . +; .
Possiamo ricavare:

$; = ? + !; ."
Ricordando poi le propriet di media e varianza:

Se lo stimatore consistente in media quadratica, il limite del MSE tende a zero per +.

La media campionaria
Media campionaria (o empirica)
La media campionaria, talvolta detta anche media empirica, la media dei dati. Si tratta perci di una

+ + + 1
particolare statistica, che viene calcolata come:

= = <

Possiamo facilmente verificare che uno stimatore non distorto. Infatti:


Non distorsione della media campionaria

+ + + 1 f
; = ;| } = !; +; + ; = =f
Dove f la media stimata.

Analogamente, possiamo verificare che uno stimatore consistente. Essendo non distorto, possiamo
Consistenza della media campionaria

+ + + 1
verificarlo semplicemente per mezzo del calcolo della varianza:

? =? | } = ? + + +
Siccome per ipotesi le variabili che rappresentano i dati sono i.i.d., possiamo sfruttare la loro indipendenza

1
ed ottenere:

? = !? +? + + ? "= =


Avremo perci:

lim $; = lim ? = lim =0


`^ `^ `^

Pag. 25
Appunti di Statistica

La varianza campionaria

La varianza campionaria $ uno stimatore che viene utilizzato per stimare la varianza incognita di una
Varianza campionaria

, , , . . . , 2
certa variabile aleatoria. A tale scopo, si considera un campione di dati:


Definiamo allora:

$ =
1
Si noti che in alcuni testi la varianza campionaria viene definita indicando come denominatore il valore ;
la definizione che abbiamo dato noi per impedisce di calcolare un indice di dispersione nel caso in cui si
abbia un solo campione, scelta che risulterebbe evidentemente del tutto irragionevole. Esiste inoltre una
ragione pi profonda per la quale la definizione adottata quella appena riportata, ma analizzeremo tale
ragione solo in seguito.

La varianza campionaria uno stimatore non distorto di . Possiamo infatti verificarlo. Innanzitutto,
Propriet della varianza campionaria: non distorsione

;!$ " =
ricordiamo che questo significa che:

Abbiamo:

< =< +ff = <! f f " =


= <! f + f 2 f f "=< f + f 2 f < f



facile osservare che abbiamo:

< f =< <f = f= f



Perci, sostituendo, otteniamo:

< =< f + f 2 f 2
=< f f

1 1
Avremo dunque:

;!$ " = ; < f f = k; < f ;! f "


1
1

;! f " = ?
A questo punto, si pu notare che, per definizione di varianza:

1 1
Da cui:

;!$ " = ; < f ? = < ;! f " ? =


1
1 1
1

1 1 1
= < ? ? = < = ! "=
1
1 1

Propriet della varianza campionaria: consistenza in media quadratica

varianza di $ . Da tale espressione si nota che ? $ tende a 0 per +, con una velocit circa
Analogamente, ma con un lungo procedimento algebrico (che omettiamo), si ricava lespressione della

uguale a quella di . Possiamo cos concludere che $ uno stimatore consistente in media quadratica.

Pag. 26
Appunti di Statistica

Media e varianza campionaria nel caso gaussiano


Propriet dei campioni normali: indipendenza tra media campionaria e varianza campionaria

, , , ~ f, . . . , 2
Se dato un campione normale, ovvero:

Allora si pu dimostrare che la media campionaria e la varianza campionaria $ sono indipendenti.


Distribuzione di probabilit della media campionaria nel caso di campioni normali


Nel caso in analisi, sulla base di tutte le osservazioni finora svolte:
~ f,

Distribuzione di probabilit di nel caso di campioni normali

, , , ~ f, . . . , 2
Supponiamo ora di avere un campione di dati:

Con f, incognite. Consideriamo inoltre la variabile aleatoria:


1

= $ = <


Siccome in precedenza abbiamo gi dimostrato che vale luguaglianza:

< =< f f

f f
Otterremo:

= <| }



Chiamiamo per praticit:

f f
F = =



la standardizzata di , e siccome una variabile normale, quella cos ottenuta
\Z
Naturalmente,

una normale standard. Di conseguenza, F il quadrato di una normale standard, perci:
F ~

f
Inoltre, possiamo indicare:

= <| }



E, siccome la somma di quadrati di variabili che sono le standardizzazioni di altrettante variabili

~
aleatorie normali, chiaro in base alle propriet precedentemente enunciate che si avr:

= F
Perci possiamo concludere che, avendo:

Avremo necessariamente: ~ Z


Ora, siccome vale la relazione:

$ =
1


Avremo:

$ ~ , 2
2 1

Pag. 27
Appunti di Statistica

Intervalli di confidenza
Precisione e accuratezza
A questo punto, interessante valutare qual la probabilit che lo stimatore si discosti dal valore vero del

A. . < B =
parametro di un certo valore massimo. Vogliamo in altri termini che si abbia:

Con 0 e 1, dove la precisione della stima, mentre viene chiamato accuratezza della stima.
Possiamo notare che tali grandezze sono strettamente correlate: se si fissa laccuratezza , a patto di non
intervenire su altre grandezze, si determina con certezza il valore della precisione , e viceversa.

Il concetto di intervallo di confidenza


In alcuni casi, anzich fornire una stima puntuale di un certo parametro, pu essere opportuno fornire un
certo intervallo, detto intervallo di confidenza, entro il quale il valore vero del parametro cadr con una
certa probabilit nota. Tale probabilit rappresenta il concetto di accuratezza della stima, mentre
lampiezza dellintervallo strettamente legata alla precisione della stima.
Consideriamo ad esempio la media campionaria: come ormai noto, la media di una variabile aleatoria

che assuma esattamente il valore uguale alla media campionaria nulla (perch si tratta di un singolo
pu essere stimata con la media campionaria; tuttavia, in una variabile aleatoria continua , la probabilit

commette sostituendo al valore del parametro f il valore assunto dallo stimatore .


valore reale costante), perci possiamo pensare di fornire una misura probabilistica dellerrore che si

Intervallo di confidenza per la media nel caso di campione gaussiano

Sia , , una realizzazione del campione casuale , , della popolazione f, . Fissato


Caso 1: varianza nota

0,1 , se la varianza nota, cercare di definire un intervallo di confidenza per la media si


= || f| < Q` } = | Q` < f < + Q` }
traduce nel definire laccuratezza e la precisione della stima:

media f di livello di confidenza :


Abbiamo in tal modo ottenuto un certo intervallo di valori, detto intervallo di confidenza (IC) per la


| Q` , + Q` }

Proviamo adesso a vedere come determinare la precisione a partire dallaccuratezza :

| f| f
= | f| < = < = < = || < = 2 1

Da questo si ricava:
+1
= = Q` = Q`
2


|| f| < Q`
Possiamo allora scrivere:
= }

viceversa, a patto che si considerino fissi i valori di e di . Tra questi parametri chiaro che lunico sul
Questa relazione mette in mostra che, pi si vuole una stima accurata, meno la stima sar precisa, e

quale si pu intervenire : per rendere sia pi precisa che pi accurata una stima, lunica cosa che
possiamo fare aumentare il numero di osservazioni sulla base delle quali la stima stessa si basa.

Pag. 28
Appunti di Statistica

Supponiamo ora che anche la varianza sia incognita: in questo caso, necessario stimare anche la
Caso 2: varianza incognita

varianza stessa, utilizzando la varianza campionaria $ .


Se il valore di sufficientemente grande, allora possiamo assumere che, approssimativamente, la

f
variabile aleatoria cos definita:

quella reale continua a valere il concetto espresso dal teorema centrale del limite). Si noti che con
Abbia una distribuzione normale standard (cio anche se si utilizza la varianza stimata anzich

stata indicata una realizzazione di $.


Allora lintervallo di confidenza che si ottiene, e che viene detto asintotico di livello approssimato , :
| Q`
, + Q` }

Se per il valore di piccolo, la variabile aleatoria precedentemente introdotta non ha distribuzione

infatti una T di student con 1 gradi di libert:


normale standard, e la variabilit aumenta di molto. La distribuzione di probabilit di tale variabile

f
~ Z
$

\Z
Infatti = ~ 0,1 , mentre = ~ Z
Z 2


e, siccome la variabile sopra riportata :


1

60, la densit T di student converge alla densit normale standard, perci lintervallo di
Possiamo semplicemente applicare la definizione di T di student. Si noti che, nel caso in cui si abbia

confidenza assume la stessa forma rispetto a quello che si ha nel caso in cui la varianza sia nota.
Nel caso generale, occorre utilizzare quantili della T di student. Abbiamo infatti:

f
< < =


Con:

f 1 1+ 1+
< =+ = = | }
2 2 Z
2


Da cui:

1+ f 1+
Z |
2
}< < Z |
2
} =


E quindi:

1+ 1+
| }<f < + | } =
Z
2 Z
2

Pag. 29
Appunti di Statistica

Intervallo di confidenza per la varianza del caso di campione gaussiano

, , , . . . ~ f,
Dato un certo campione gaussiano:

di appartenga a tale intervallo bilatero. In altri termini, lobiettivo quello di individuare due valori:
Vogliamo individuare una forbice di valori tale che si abbia un certo livello di sicurezza che il valore vero

, ,, , ,,

< < = , 0,1


Tali che:

Lintervallo che otterremo in questo modo sar detto intervallo di confidenza con livello di confidenza , il
pi possibile vicino ad 1.

Ipotizziamo che anche la media f sia incognita. In questo caso,


Caso 1: intervallo bilatero nel caso di media incognita

1 $
possiamo partire ricordando che:

~ Z

Vogliamo dunque trovare i valori e tali che:


La situazione sar allora quella rappresentata nella figura a lato.

1 $
< < =

1 $ 1 $ 1
E che:

= =
2
Di conseguenza, il quantile della distribuzione chi-quadro a 1 gradi di libert nel valore
Z
,
mentre il quantile valutato in + =
Z `

1 1+
:

= Z | } = | }
2 Z
2

1 1 $ 1+
Lintervallo di confidenza che otteniamo perci:

| }< < | }- =
Z
2 Z
2
Da cui:
$ 1 $ 1
< < =
1+ 1
Z W 2 X Z W 2 X
Indicata con la realizzazione di $ , lintervallo di confidenza con livello di confidenza sar allora:
1 1
;
1+ 1
Z W 2 X Z W 2 X

Pag. 30
Appunti di Statistica

Caso 2: intervallo unilatero nel caso di media incognita


Talvolta si interessati a calcolare un intervallo unilatero anzich bilatero, ovvero si vuole individuare

< =
una statistica del tipo:
a) Nel caso in cui si cerchi un intervallo del tipo lower bound:
E si avr cos:

1 $
< =

=
Perci:
Z

1 $ 1 $
E quindi:

< - = >
Z
Z

1
E concludiamo cos:

=
Z
b) Nel caso in cui si cerchi un intervallo del tipo upper bound: > =

1 $
Avremo cos:

> =

= Z 1
E perci:

1 $ 1 $
E quindi:

> 1 - = <
Z
Z 1

1
E concludiamo cos:

=
Z 1

Pag. 31
Appunti di Statistica

Consideriamo ora il caso in cui la media nota e si ha f = f5 . In questo caso, come risulta ovvio,
Caso 3: intervallo bilatero nel caso di media nota

A f5 B
conviene utilizzare una diversa statistica, che cos definita:

$5 =

$5
Si avr cos:

$5
Allora dobbiamo avere:

< < =

$5 $5 1
Imponendo inoltre:

= =
2

1 1+
Di conseguenza:

= | } = | }
2 2

1 $5 1+
Lintervallo di confidenza che otteniamo perci:

| }< < | }- =
2 Z
2
Da cui:
$5 $5
< < =
1+ 1
W 2 X W 2 X
Indicata con 5 la realizzazione di $5 , lintervallo di confidenza con livello di confidenza sar allora:

;
5 5
1+ 1
Z W 2 X Z W 2 X

Pag. 32
Appunti di Statistica

Metodi per la stima dei parametri: stima puntuale


Metodologie di stima dei parametri
Il metodo per analogia
Nei precedenti paragrafi abbiamo definito gli stimatori puntuali media campionaria e varianza campionaria;
tali stimatori sono stati introdotti di fatto con il cosiddetto metodo per analogia: i parametri sono infatti
stati stimati per mezzo delle grandezze empiriche corrispondenti alle caratteristiche stesse che volevamo
stimare.
Spesso per i parametri da stimare non sono media e varianza, perci non possibile ricorrere
semplicemente al loro significato ed utilizzare il metodo per analogia. perci necessario introdurre delle
metodologie diverse per eseguire la stima dei parametri.

Sia dato un campione casuale di 1 osservazioni, aventi una certa densit ':
Le metodologia di stima di parametri o caratteristiche della popolazione

, , . . . ~' , . , . , . , , , 1
Dove almeno uno degli , 1 parametri incognito. Si supponga di voler stimare i parametri incogniti (o il
parametro incognito) . con uno stimatore opportuno . , oppure di voler stimare una sintesi di tale
parametro, detta caratteristica della popolazione V, ovvero una funzione dipendente solo dai parametri in

V = V . , . , .
questione:

Mediante uno stimatore che indichiamo con V.


Le metodologie possibili per eseguire tali operazioni sono diverse, ma tutte tengono conto sia di
informazioni teoriche (come il tipo di densit in analisi), sia dei dati effettivamente raccolti. In particolare,
le metodologie che studieremo sono 2:
1. Il metodo dei momenti, introdotto da Karl Pearson alla fine dellOttocento
2. Il metodo di massima verosimiglianza, introdotto negli anni Venti del secolo scorso da Ronald Fisher.

Pag. 33
Appunti di Statistica

Il metodo dei momenti

f . , . , , . = ;! "
Indichiamo i momenti relativi al campione casuale dato mediante la seguente simbologia:

f . , . , , . = ;! "

f . , . , , . = ;! "
Come messo in evidenza, sono di interesse solamente i primi , momenti, dove , il numero di parametri
da stimare (si ipotizzato che si debbano stimare tutti i parametri della distribuzione di probabilit).
Lidea di base del metodo dei mementi quella di:

1
1. Stimare la media della distribuzione con il momento primo campionario (cio la media campionaria):

= <

2. Stimare il generico momento +-esimo della distribuzione con il momento campionario +-esimo:
1
<



Si usano cio le versioni empiriche dei momenti, dette appunto momenti campionari, per stimare i
momenti reali della distribuzione. Tali stimatori (anche se non lo dimostriamo) sono non distorti e

Una volta eseguita la stima di tutti i primi , momenti della distribuzione, possibile costruire un sistema
consistenti.

di , equazioni in , incognite, del tipo:


f . , . , , . =
k -
f . , . , , . =
Dove, naturalmente, le incognite sono i parametri . , . , . . Allora, se il sistema ammette soluzione, le
soluzioni del sistema sono delle funzioni dei momenti campionari, i quali sono per definizione delle
statistiche, perci chiaro che le soluzioni ottenute sono a loro volta delle statistiche, e di conseguenza

In altri termini, la soluzione del sistema (se esiste) . , . , , . costituita da statistiche, che prendono il
possono essere usate come stimatori dei parametri ignoti.

nome di stimatori di . , . , , . ottenuti con il metodo stimatore dei momenti.

Osservazioni
Si noti che le uniche informazioni che vengono usate in questo caso sono i momenti; pu tuttavia darsi che
delle distribuzioni molto diverse tra loro abbiano gli stessi momenti, e questo ci fa facilmente capire che il
metodo dei momenti, pur essendo un metodo molto semplice, un moto scarsamente preciso.

Pag. 34
Appunti di Statistica

Esempio di applicazione n. 1: distribuzione gamma

modellabili con variabili aleatorie indipendenti con distribuzione di probabilit , . Si ipotizzi inoltre
Si supponga di disporre di un campione di misurazioni, e si ipotizzi che le misurazioni siano tutte

che e siano parametri incogniti e che si desideri fornirne delle stime e .


Allora, seguendo il procedimento descritto poco fa, calcoliamo il momento primo e il momento secondo
(che saranno semplicemente dei numeri ottenuti a partire dai dati sperimentali), e costruiamo il

f , = -
sistema:


f , =

f , =
Ricordando che in una distribuzione gamma la media data dal prodotto tra i due parametri:

f , !f , " = ? + = f , = + !f , " = + E!X"


E che vale la relazione:

=
Dove, nel caso di distribuzione gamma:

= = =
Otteniamo:

- - -
+ E!X" = = E!X" =
Notando che:

<A B = < 2< + = 2 + =


=
Possiamo riscrivere il sistema come segue:

1 -
= <A B

1
Ricordando poi che lo stimatore varianza campionaria definito come:

$ = <A B
1

1$ = $ 1
Otteniamo facilmente:

=
=

1 - -

-
= $ 1 $
= = = 1 S

Pag. 35
Appunti di Statistica

Esempio di applicazione n. 2: distribuzione uniforme tra e .

distribuite nellintervallo !0, .", . > 0:


Un altro esempio possibile riguarda il caso in cui il campione dato sia costituito da variabili uniformemente

, , , . . . ~n 0, .
' ,.
1
.

momento primo, ovvero la media campionaria , e poniamo:


Se utilizziamo il metodo dei momenti, allora, avendo un solo parametro, calcoliamo solamente il

.
= . = 2
2

Esempio di applicazione n. 3: distribuzione uniforme tra . e .


Se invece il campione costituito da variabili uniformemente distribuite tra . e ., allora:
, , , . . . ~n ., .
' ,.
2. Z

. .

f . =0
Allora, in questo caso abbiamo necessariamente:

Di conseguenza, viene a mancare la dipendenza del momento primo dal parametro . stesso, e quindi non
lo si pu usare per il calcolo dello stimatore di .. In questo caso, si osserva inoltre che, detta una variabile

;! YZ " = 0, V
aleatoria con la distribuzione del tipo in analisi, si ha:

Possiamo per considerare un momento di ordine +, con un + pari. In particolare, il metodo prevede che si

2. .
scelga sempre il momento con ordine inferiore, perci in questo caso:

f . =? ! "+f . = =
12 3
Di conseguenza, calcoleremo dai dati sperimentali il momento secondo , e useremo lo stimatore:
. = 3
Questo esempio in ogni caso ci permette di dedurre che si ha una certa arbitrariet, in quanto sarebbe
teoricamente possibile utilizzare dei momenti qualsiasi per eseguire il calcolo degli stimatori, purch siano
in numero uguale al numero dei parametri da stimare.

Pag. 36
Appunti di Statistica

Il metodo di massima verosimiglianza


Introduzione
Lo stimatore di massima verosimiglianza, spesso indicato con lacronimo MLE (Maximum Likehood
Estimator), uno stimatore creato sulla base di un maggior numero di informazioni teoriche rispetto a
quelle utilizzate dal metodo dei momenti, in quanto si tiene conto del tipo di densit dei campioni.
Spiegazione del metodo

, , , . . . ~' ,
Si consideri il campione:

Dove con indichiamo un vettore di elementi, contenente i parametri della distribuzione:


= !. , . , , . "
Allora, la densit congiunta delle variabili aleatorie , , , :

' , ,, , = 'A , B

Si pu allora pensare a tale funzione non come ad una funzione di , , , , bens come ad una
funzione dei parametri incogniti, ovvero di . Tale funzione prende il nome di funzione di verosimiglianza
del campione, e viene indicata con:

, ,, = 'A , B

Si supponga che la distribuzione di probabilit ' sia una distribuzione discreta (questa scelta legata solo
al fatto che ci comporta maggiore semplicit espositiva, ma quanto diremo vale anche in caso di

, , , = = , = ,, =
distribuzioni continue). In tal caso, si ha:

Risulta quindi chiaro che opportuno stimare in modo tale che la funzione di verosimiglianza sia
massima, in quanto ci significa massimizzare la probabilit che le rilevazioni raccolte ( , , , ) siano
state ottenute dalla distribuzione di probabilit ' con parametri .
Si individua cos , dove lo spazio parametrico, ovvero linsieme dei possibili valori di , tale che:
max , , ,

, ,, , ,,
Definizione
Data la realizzazione campionaria di , sia

, ,, = 'A , B

La funzione di verosimiglianza; allora, se esiste = t , , ,
, , , = max , ,,
tale che:


(dove MLE sta per
viene detto stimatore di massima verosimiglianza di e viene indicato con
Maximum Likelihood Estimator) o (Maximum Likelihood). Se inoltre si desidera stimare una
caratteristica V = V della distribuzione, allora il suo stimatore di massima verosimiglianza

V = VA B
semplicemente dato da:

Pag. 37
Appunti di Statistica

Osservazioni
1. Lo stimatore si trova necessariamente nello spazio parametrico, quindi tutti i parametri assumeranno
sempre valori appartenenti al loro dominio. Questo non era invece garantito con il metodo dei

2. Se si ottengono le stesse osservazioni ma con un diverso ordine (ad esempio, i campioni < 1, 2, 3 > e
momenti.

< 3, 1, 2 >) allora la stima ottenuta la stessa. Questa propriet, valida anche per il metodo dei
momenti, viene detta propriet di simmetria e ci indica che a tutte le osservazioni viene attribuita
uguale importanza.
3. Il massimo della funzione di verosimiglianza potrebbe non esistere o non essere unico, perci lo
stimatore di massima verosimiglianza in tali situazioni non esiste o non unico.
4. Per individuare il massimo della funzione di verosimiglianza, utile tenere conto che:
a) Nel caso pi semplice, nel quale la funzione di verosimiglianza derivabile e dipende da una sola
variabile, basta calcolare la derivata, uguagliarla a zero e, utilizzando le semplici regole dellAnalisi
Matematica, verificare se si tratta di un punto di massimo, di minimo o di un flesso.
b) Siccome la funzione di verosimiglianza sempre positiva, talvolta utile cercare il massimo della

log , , ,
funzione:

Anzich quello di , , , stessa: essendo il logaritmo un operatore monotono, i punti di


massimo saranno necessariamente gli stessi. Questo aiuta soprattutto perch la funzione di
verosimiglianza viene ottenuta dal prodotto di molte funzioni.
c) In alcuni casi, la funzione non derivabile, e quindi opportuno appoggiarsi ad un grafico della
funzione di verosimiglianza.
d) Se la funzione di verosimiglianza dipende da pi parametri, allora lindividuazione del massimo
pi complessa, in quanto necessario valutate i punti nei quali si annullano le derivate parziali, e
quindi valutare lHessiano; tuttavia, nelle nostre applicazioni non verr mai richiesta la valutazione
dellHessiano.

Esempio di applicazione n. 1: distribuzione uniforme tra e .

!0, .", . > 0 (lo stesso esempio che abbiamo considerato parlando del metodo dei momenti):
Prendiamo come esempio un campione costituito da variabili uniformemente distribuite nellintervallo

, , , . . . ~n 0, .


In questo caso, abbiamo:

, ,, = 'A , .B =

1 1 1 1
= l!5," l!5," l!5," = l | max } =
. . . . !5," ,
1
= l . max% , , , &
. %1 ,1 ,,1 &; `^
Come si osserva dal grafico della funzione di verosimiglianza, il punto di massimo proprio coincidente

. = max% , , , &
con il massimo delle rilevazioni effettuate, quindi avremo:

Pag. 38
Appunti di Statistica

Confronto tra i due metodi


Come si osserva dallesempio relativo alla distribuzione uniforme tra 0 e ., gli stimatori che si ottengono
con i due metodi risultano talvolta completamente diversi tra loro. quindi opportuno domandarsi quale
dei due metodi risulti essere migliore.
Criterio di valutazione dellaccuratezza
Un possibile criterio da utilizzare quello che consiste nel valutare laccuratezza. Si vuole cio verificare se

A. . < B A. . < B
si ha:

Allora, significa che . fornisce una stima meno accurata di quella fornita da . , perci opportuno
utilizzate lo stimatore . .
Tuttavia, questo criterio di difficile applicazione nella pratica.
Confronto degli errori quadratici medi

$;I. J = ; @A. .B C
Un criterio diverso quello che consiste nel confrontare tra loro gli errori quadratici medi:

$;I. J = ; @A. .B C

$;I. J > $;I. J


Se si ha poi:

Allora preferibile utilizzare lo stimatore . .


Un caso concreto

$;I. J = ;! 2 . " = ? !2 ." + ; !2 ." = ? !2 " + ; !2 ." =


Tornando allesempio di partenza, si pu dimostrare che si ha:

1. .
= 4? ! " = 4 =
12 3

.
Si dimostra inoltre che si ha:

? I. J =
+1 +2
.
;I. J =
+1

2.
E quindi, eseguendo i conti:

$;I. J = ? I. .J + ; I. .J =
+1 +2

1. . distorto , perch la sua media non .. per asintoticamente non distorto (la sua media tende
Osserviamo allora che:

a ., per tendente allinfinito).


2. . consistente. Tuttavia, non detto che uno stimatore di massima verosimiglianza lo sia.
3. . da preferirsi a . perch il suo $; tende a zero pi rapidamente di quello di . .

Pag. 39
Appunti di Statistica

Ricerca dello stimatore ottimo


La ricerca dello stimatore con il minor MSE
Come abbiamo visto, il confronto tra due stimatori risulta talvolta complesso, e talvolta risulta del tutto
impossibile, in quanto lerrore quadratico medio potrebbe dipendere dai parametri incogniti.
Fatte queste considerazioni, risulta allora utile chiedersi se, considerando la classe di tutti i possibili
stimatori di un certo parametro o di una certa caratteristica, possibile individuare lo stimatore che ha
lerrore quadratico medio pi piccolo uniformemente rispetto al valore del parametro incognito (cio per

, , , . . . ~ ' ,
ogni valore ammissibile del parametro incognito stesso). In altri termini, dato il campione:

V=V
E data la caratteristica:

= %: E , E+) V D) ,,) ) $;&


Definiamo:

$; $; ,
Vogliamo individuare, se esiste, lo stimatore:

Si pu per dimostrare che questo problema non ammette soluzione.


Esempio

V=f
Consideriamo come esempio il caso in cui la caratteristica in analisi sia semplicemente la media:

Allora, come noto, possiamo scegliere di utilizzare come stimatore la media campionaria = . Lerrore


quadratico medio che si ottiene in tal caso, come gi dimostrato, pari a:

$; = >0

= 10.23
Tuttavia, possibile anche scegliere di utilizzare degli stimatori banali, come ad esempio lo stimatore:

senza neppure basarsi sui dati raccolti, ma rimane pur sempre, a livello formale, un possibile stimatore di f.
Questo stimatore nella pratica non ha chiaramente alcuna utilit, perch si tratta di una costante scelta

$; = ? + + ;! f " = ? + 10.23 + ;! ;!10.23" f " = ;! ;!10.23" f "


Lerrore quadratico medio in tal caso cos calcolabile:

Nellipotesi particolarmente fortunata in cui la media sia effettivamente 10.23, lerrore quadratico medio
di risulta quindi nullo, mentre abbastanza ovvio capire che se la media si discosta molto di tale valore,
lerrore quadratico medio di inferiore a quello di . In sostanza quindi non esiste alcuno stimatore che
abbia un errore quadratico medio inferiore a quello di per ogni possibile valore di f, ma lo stesso
stimatore di f ha un errore quadratico superiore a quello di altri stimatori per diversi valori di f.
Restrizione del problema
Per rendere risolvibile il problema allora necessario restringere la classe considerata, eliminando tutti gli

$; = ? + + !; ."
stimatori banali. Siccome sappiamo che, per un generico stimatore vale la relazione:

; = . $; = ?
E che, se lo stimatore non distorto:

Consideriamo solamente la classe degli stimatori non distorti:


= %: , E+) V ) ; = V &

ovvero, trovare quel tale che:


in modo che individuare lo stimatore ottimo si riconduca a ricercare lo stimatore con la minima varianza,

? ? ,
Questo problema, a differenza del precedente, ammette soluzione.

Pag. 40
Appunti di Statistica

Stimatore UMVUE

, , , . . . ~' , ,
Dato un campione

e dato lo stimatore della caratteristica V , diciamo che lo stimatore non distorto a varianza
uniformemente minima (UMVUE, Uniform Minimum Variance Unbiased Estimator) se soddisfa le due

1. non distorto per V


condizioni seguenti:

2. ? ? ,
Dove linsieme di tutti e soli gli stimatori non distorti di V a varianza finita:
= %: , E+) V ) ; = V &

Esistenza ed unicit dello stimatore non distorto


Per alcune caratteristiche, possibile che non esista alcuno stimatore non distorto. Ci naturalmente
non significa che non sia possibile stimare tale caratteristica. Consideriamo ad esempio un campione

~U 5, . , 0 < . < 1
costituito da un solo elemento:

1
E ipotizziamo di voler stimare la caratteristica:

V=
.

1
La cosa pi sensata da fare sarebbe quella di stimare:

.=

V=
E quindi stimeremo:

un numero intero, ovvio che non potr essere vero che, per ogni valore di ., la
media dello stimatore uguale a ., e quindi lo stimatore distorto.
Essendo per

Se uno stimatore non distorto esiste, possibile che ne esistano anche altri (possono anche essere

, , , ~ E . , . > 0
infiniti). Consideriamo ad esempio il seguente campione:

Come noto, il parametro . di una distribuzione di Poisson corrisponde sia alla media della variabile
casuale, sia alla sua varianza. Possiamo allora stimare . sia con la media campionaria, sia con la
varianza campionaria, e sappiamo dalle osservazioni precedenti che in entrambi i casi otteniamo degli
stimatori non distorti. Inoltre, possiamo considerare uno stimatore costruito come media pesata dei

= + 1 $ , 0 1
due precedenti, ovvero:

E si verifica facilmente che la media di risulta essere proprio uguale a .. Di conseguenza,


concludiamo che se per una caratteristica esistono almeno due stimatori non distorti, allora possibile
costruire infiniti stimatori non distorti di quella stessa caratteristica.

Pag. 41
Appunti di Statistica

Disuguaglianza di Frchet-Cramer-Rao
Esempio introduttivo

~ .
Si prenda in analisi un campione con distribuzione di Poisson, costituito da una sola variabile aleatoria:

Dove possiamo ad esempio ipotizzare che il campione rappresenti il numero di telefonate arrivate il primo
giorno. Possiamo poi chiamare e il numero di telefonare arrivate, rispettivamente, il secondo ed il
terzo giorno (che per non sono state rilevate, quindi non fanno parte del campione). Siamo quindi

V= ) 2 t E+ DD) R E ++ R D ) )'E = = 0, =0
interessati a stimare la seguente caratteristica:

Siccome siamo sotto lipotesi di indipendenza tra il numero di telefonate arrivate in ogni singola giornata,
e sono variabili aleatorie indipendenti e quindi la probabilit congiunta il prodotto delle singole

V= =0 = 0 = ' 0 ' 0 = ) Z ) Z = ) Z
probabilit:

Per stimare V dovremo usare un opportuno stimatore, che indichiamo con:


=t
Dove il valore realmente assunto dal numero di telefonate arrivate il primo giorno. Come abbiamo

; = )Z
visto, auspicabile che lo stimatore sia non distorto, perci possiamo imporre questa caratteristica:

Calcoliamo allora ; :
`^ `^
) Z . Y
; = < t V ' V = < ot V p
V!
Y5 Y5

`^
Sostituendo questo valore nella precedente uguaglianza:
) Z . Y
<o t V p = )Z
V!
Y5
Ora, dividendo entrambi i membri per ) Z , otteniamo:
`^
.Y
< o t V p = ) Z
V!
Y5

`^
Ricordando adesso la scomposizione della serie di Taylor di una funzione esponenziale:
.Y
) Z
= < o 1 Y
p
V!
Y5

`^ `^
La precedente uguaglianza diventa:
.Y .Y
< o t V p = < o 1 Y
p
V! V!
Y5 Y5
Da tale espressione ricaviamo in modo ovvio che lo stimatore deve essere (quando si ha un unico dato):
=t = 1 1

caratteristica V che, per sua natura, appartiene allintervallo 0,1 , con un valore che necessariamente
Lo stimatore cos ottenuto per uno stimatore completamente privo di senso, in quanto stima una

1 oppure 1. Nonostante questo, lo stimatore risulta essere formalmente ottimale, perch non distorto.
Di conseguenza, non risulta particolarmente interessante ai nostri scopi stabilire qual lo stimatore
ottimale. Ci concentriamo piuttosto su come sia possibile stabilire la varianza minima di uno stimatore per
la data caratteristica: in tal modo, potremo confrontare la varianza dello stimatore individuato con quella
minima per gli stimatori della caratteristica in analisi, e se le due varianze sono coincidenti o comunque
molto vicine, questo indice della bont dello stimatore considerato.

Pag. 42
Appunti di Statistica

La disuguaglianza

, , , . . . ~ ' , . , .
Sia dato un campione:

E si voglia stimare una caratteristica V della distribuzione dei dati:


V=V .
Sia inoltre uno stimatore non distorto di V:
; =V

? < +
Dotato di varianza finita:

1. un intervallo aperto.
Ipotesi

2. ' una funzione di densit il cui supporto (ovvero linsieme di valori di nei quali la densit non

$ = % ' , . > 0& indipendente da .


nulla) indipendente dai parametri della distribuzione stessa:

3. La funzione ' , , cio la ' letta come funzione di , derivabile rispetto al parametro
su tutto linsieme , per ogni valore di $.
4. La media della derivata logaritmica di ' costantemente nulla (ovvero, per ogni .):

; log ' ,. = 0 .
.
5. Si abbia inoltre:

0 < ; o|
log ' , . } p < +
.
6. V: una funzione derivabile su tutto linsieme si abbia:

V . = ; | log ,, } .
.
Tesi

AV . B
Allora, si ha:

? + .
.
Dove . , detta anche informazione di Fisher, definita come:

. = ; o|
log ' , . } p
.
Inoltre, la precedente disuguaglianza diventa unuguaglianza, del tipo:
AV . B
? + = .
.
Se e solo se esiste una funzione , . tale che:

log ,, = , . A V . B- = 1 .
.
Osservazione

dimensione del campione Z . Naturalmente, ci per vale solo a patto che valgano tutte le ipotesi
Da questa disuguaglianza si ricava di fatto che il tasso ottimale di decrescita della varianza in funzione della

precedentemente enunciate. Ad esempio, se la distribuzione fosse uniforme, tali ipotesi non

Z
risulterebbero verificate, e infatti in questa situazione si pu ottenere anche un tasso di decrescita del tipo
. Si nota inoltre che:

. = . = ; o| log , ,, ,. } p
.

Pag. 43
Appunti di Statistica

Limportanza delle ipotesi

densit ' , . con . .


Tutte le ipotesi che abbiamo introdotto sono delle ipotesi di regolarit che riguardano la famiglia di tutte le

Ipotesi 1
La prima delle nostre ipotesi risulta essere importante per la derivabilit della funzione: su un intervallo
chiuso infatti la funzione non risulta derivabile nellestremo dellintervallo stesso.
Ipotesi 2

' ,. = .
a) Consideriamo come esempio una distribuzione esponenziale:

$ = % ' , . > 0& = 0, +


Allora in questo caso il supporto della funzione :

Quindi, in questo caso, lipotesi risulta essere verificata, perch lintervallo indipendente da ..

' ,. = .
b) Prendiamo ora in analisi una distribuzione di Poisson:

$ = %0,1,2,3, & =
In tal caso, il supporto :

E quindi anche in tale situazione lipotesi verificata.

' , . = n 0, .
c) Se consideriamo invece una distribuzione uniforme:

$ = !0, ."
Abbiamo allora:

E perci lipotesi non soddisfatta (come avevamo gi accennato, per il modello uniforme non
possiamo applicare le conclusioni che derivano da questo teorema).
Ipotesi 3 e 4
Supponiamo che la variabile aleatoria in analisi sia assolutamente continua (cio che diremo vale per
anche per variabili discrete). Come noto, abbiamo:
`^
] ' ,. =] ' ,. =1
Z^ 2
Derivando entrambi i membri delluguaglianza:

] ' ,. =0
. 2
Siccome, in virt dellipotesi 2, lintervallo $ indipendente da ., possiamo spostare il segno di
derivazione allinterno del segno di integrale:

] ' ,. =0
.2
Stiamo inoltre considerando solo valori allinterno del supporto di ', perci possiamo dividere e
moltiplicare per ' , . , che certamente un quantit non nulla:
' ,.
] . ' ,. =0
2 ' ,.
Ricordando le propriet delle derivate, si ricava facilmente che la precedente uguaglianza equivale a:

] | log ' , . } ' , . =0


2 .
Da cui:

;| log ' ,. } = 0
.

Pag. 44
Appunti di Statistica

Stimatore efficiente
Uno stimatore non distorto si dice efficiente se la sua varianza uguale al confine di Frchet-Cramer-Rao.

Esempio
Testo

, , , . . . ~ .
Sia dato il seguente campione:

1. Si determini lo stimatore di . con il metodo dei momenti, ovvero . .


2. Se esiste, trovare uno stimatore di . non distorto con varianza uguale al confine di Frchet-Cramer-
Rao.
Soluzione

Per determinare lo stimatore . di . con il metodo dei momenti, dobbiamo semplicemente porre:
Punto 1

. = =
Punto 2
Verifichiamo che le ipotesi del teorema di Frchet-Cramer-Rao siano soddisfatte dalla distribuzione di

) Z . 1
probabilit di Poisson, ovvero:

' ,. = k ) - . > 0
!
0 + ,)
1. Il parametro . definito sullintervallo = 0, + , che un intervallo aperto, perci la prima

2. Il supporto di ' , . costituito dallinsieme dei numero naturale , perci anche la seconda
ipotesi risulta essere verificata.

3. Supponiamo di aver fissato un certo valore di appartenente al supporto $. Allora, risulta chiaro
ipotesi verificata.

che la funzione di distribuzione, considerata come una variabile di ., sar:


) Z . 1
' ,. =
!
Che chiaramente una funzione infinitamente derivabile rispetto a ., indipendentemente da
quale valore di appartenente ad $ stato scelto.
4. Calcoliamo ora:

; log ' ,.
.

) Z . 1
Prima di tutto, valutiamo:

log ' ,. = log '\ . = log =


. . . !
1 .
IlogA) Z B + log . 1 log !J = . + log . = 1 + =
. . . . .

. 1 1
Quindi possiamo calcolare:

; log ' ,. =; = ;! ." = !; ." = 0


. . . .
In quanto, essendo una distribuzione di Poisson con parametro ., ovvio che la sua media si ..

. 1 1 1 1
5. Calcoliamo ora:

. = ; o| log ' , . } p = ; o| } p= ;! . "= ? = .=


. . . . . .
Perci la quantit calcolata necessariamente maggiore di zero e finita.

Pag. 45
Appunti di Statistica

Proviamo ora a verificare se lo stimatore individuato al punto 1 soddisfa lipotesi numero 6:


V . = . V . = 1

) Z . 1 . 1 . 1 .
Calcoliamo ora la funzione di massima verosimiglianza:
\

,, = = )Z
= )Z
= )Z
! ! ! !

.
Quindi:
\
log ,, = log ) Z
= .+ log . log !
!


Da cui:

log ,, = +
. .


Quindi:

; | log ,, } = ; + - = ; + = ; + ;
. . . .

.
Se ricordiamo che:

? =; ; ; =? +; = +.

.
Otteniamo:

; | log ,, } = . + | + . } = . + 1 + . = 1
. .

A questo punto, possiamo osservare che, nel caso in cui si cerchi lo stimatore di ., il confine di Frchet-
E quindi anche lipotesi 6 effettivamente verificata.

!V . " .
Cramer-Rao (FCR) calcolabile come:

=
.
Che coincide con la varianza di :
.
? =
Perci la media campionaria uno stimatore efficiente della media reale (ovvero ha varianza
coincidente con il confine FCR) ed proprio lo stimatore cercato

Propriet degli stimatori di massima verosimiglianza


Propriet n. 1: stimatori MLE ed efficienza
Enunciato

, ,, . . .
Dato un certo campione:

E data la caratteristica V da stimare, se tutte le ipotesi del teorema di Frchet-Cramer-Rao sono


soddisfatte, si pu affermare che se esiste uno stimatore efficiente V di V, allora tale stimatore lo
stimatore di verosimiglianza.
Tuttavia, non detto che uno stimatore di massima verosimiglianza sia anche efficiente.

Pag. 46
Appunti di Statistica

Procedimento pratico che ne deriva


Se si cerca lo stimatore ottimo efficiente, si pu quindi individuare lo stimatore di massima verosimiglianza
della caratteristica in analisi e verificare se effettivamente lo stimatore cos trovato efficiente. In caso
contrario, significa che non esiste alcuno stimatore efficiente della caratteristica in analisi.

Dimostrazione

, , , . . .
Consideriamo il campione

E chiamiamo V la caratteristica da stimare. Ipotizziamo che siano verificate tutte le ipotesi della
disuguaglianza di FCR, e chiamiamo il limite di Frchet-Cramer-Rao. Sia inoltre V lo stimatore di V

1. Supponiamo ora che esista una stimatore efficiente per V. Allora, sfruttando la validit delle ipotesi
ottenuto con il metodo di massima verosimiglianza.

della disuguaglianza di FCR:

log ,, = , . . - = 1 .
.
Dove uno stimatore non distorto di . e , . unopportuna funzione.
2. Dire che V lo stimatore di massima verosimiglianza di V equivale ad affermare che:
V = VA. B
Sfruttando poi la regolarit derivante dalla validit delle ipotesi della disuguaglianza di FCR, possiamo
affermare che ci implica anche che:

log , , =0
.

3. Siccome la formula enunciata al punto 1 deve valere per ogni valore di ., vale certamente anche nel
caso . = . , perci possiamo sostituire , . . allinterno dellequazione appena scritta:
! , . . " =0

A , . B A . B = 0
Ovvero:

, . 0 per ogni valore di .. Infatti, se chiamiamo:


. = .
4. Possiamo dimostrare che

Abbiamo:

log ,, = log ' , . = < log ' , . =< log ' , .


. . . .

Quindi:

? | log ,, } = ? < log ' , . - = ? | log ' ,. } =


. . .

= ; o| log ' , . } p ; log ' ,.


. .
Ma, per lipotesi numero 4 della disuguaglianza di FCR (che abbiamo assunto essere valida:

; log ' ,. =0
.
Perci:

? | log , , } = ; o| log ' ,. } p = . = .


. .

Pag. 47
Appunti di Statistica

Come conseguenza dellequazione riportata al punto 1:

. =? log , , } = ? A
| ,. . B = ,. ?
.
Ma, per lipotesi numero 4 della disuguaglianza di FCR:

. = ; o| log ' ,. } p > 0


.

. = . > 0 ,. ? >0
E perci:

,. > 0
E da questa disuguaglianza, risulta ovvio che:

. = 0
5. Da quanto dimostrato ai punti 4 e 5 otteniamo:

= .
Ovvero:

Esempio n. 1

, ,, ~ E .
Consideriamo ad esempio:

. =
In questo caso, lo stimatore di massima verosimiglianza la media campionaria:

Che sappiamo essere uno stimatore non distorto e consistente per .:


.
; =. ? = =
Inoltre:
) Z . \
. = ; o| log ' , . } p = ; log = ; !. + log . log !" =
. . ! .

2 1 1
= ; o| 1} p = ; o| } + 1p = ;! "2+1= I? ! "; ! "J + 1 =
. . . . .
1 1 1
= I? ! "; ! "J + 1 = 1 + 1 =
. . .

V . 1 .
E quindi:

= = =
. 1
.

? = )'' D ) )
Perci:

Pag. 48
Appunti di Statistica

Esempio n. 2

V = 1 ) Z
Con riferimento al campione utilizzato nel precedente esempio, consideriamo ora:

V = 1 ) Z\
Allora, avremo:

La sua media :
;IV J = ;I1 ) Z\ J = ;!1" ;I) Z\ J = 1 ;I) Z\ J = 1 ; ) Z

\

\ = ;!) z\ "
Ricordando che la funzione generatrice dei momenti definita come:

1
Otteniamo:

;IV J = 1 ; )Z = 1 \ | }

\

Siccome le variabili sono tutte Poisson con media ., la loro somma sar una Poisson con media .:

< ~ E .

Perci la sua funzione generatrice dei momenti :
\ = I) A Z B
J =) A Z B

Perci:

;IV J = 1 )
Z

Abbiamo cos ricavato che questo stimatore distorto. Di conseguenza, lo stimatore non potr essere
efficiente;siccome non efficiente lo stimatore di verosimiglianza, possiamo concludere che la
caratteristica in analisi non ammette alcuno stimatore efficiente.

Propriet n. 2

Sia , , , .. una successione di variabili aleatorie indipendenti e identicamente distribuite con comune
Enunciato

funzione di densit ' , . , . . Sia inoltre % & la successione degli stimatori di massima
verosimiglianza di V . . Se le seguenti condizioni sono vere:
1. ' , . soddisfa le condizioni di regolarit imposte come ipotesi della disuguaglianza di FCR.
2. ' , . derivabile tre volte rispetto a . e le derivate prima, seconda e terza sono continue e limitate.

0. Per ogni , lo stimatore di massima verosimiglianza % & di V . esiste ed unico.


Allora:

1. La successione % & asintoticamente non distorta per V . . Quindi:


lim ; = V
`^
2. La successione % & consistente in media quadratica per V . :
lim ? =0
`^
3. La successione % & asintoticamente gaussiana con media asintotica V . e varianza asintotica
=
IY J

, cio:

V .
lim Q = Q , Q
`^ !V . "

.

Pag. 49
Appunti di Statistica

Applicazioni pratiche
1. Nelle applicazioni pratiche, il punto numero 3 che abbiamo appena indicato ha una particolare
importanza. Infatti, lasintotica normalit implica che, per abbastanza grande, si possa

!V . "
considerare:

~ V . ,
.
Dove la varianza tende a zero per +. Inoltre, evidente dalla proposizione precedente che,
siccome lo stimatore tende ad avere media V . e varianza
IY J

, gli stimatori di massima
verosimiglianza sono anche asintoticamente efficienti.

confidenza. Supponiamo ad esempio di voler individuare un intervallo di confidenza per V con livello di
2. Una particolare applicazione che se ne ricava quella relativa allindividuazione degli intervalli di

confidenza : come noto, questo significa individuare un valore di per il quale (nel caso bilatero):

V V
< <
!V . "

.

= Q `
Ma, in virt dellasintotica normalit, ci sar verificato se e solo se:

Si noti bene per che tutto questo vale solo nel caso di grandi campioni.
Esempio di applicazione

, , , . . . ~ E .
Consideriamo ad esempio il campione:

Supponiamo inoltre di voler trovare un intervallo di confidenza per la caratteristica:


V=.
Sappiamo gi che lo stimatore di massima verosimiglianza la media campionaria e conosciamo il limite di

.
FCR:
V = =
E che la media campionaria efficiente, perci la sua varianza data proprio da . Allora:

.
< <
.

Quindi, per lasintotica normalit:

. . .
Q ` < <Q ` Q ` <. < +Q `
.

!V . " .
Si noti per che:

=
.
unespressione nella quale compare ancora il valore .. Di conseguenza, gli estremi dellintervallo
dipendono ancora dallo stesso .. Per risolvere questo problema, si calcola il limite di FCR semplicemente
sostituendo nella sua espressione il valore del parametro stimato, e si ottiene cos:

Q ` <. < +Q `

Pag. 50
Appunti di Statistica

Il metodo della quantit pivotale


Introduzione
Gli intervalli di confidenza

, ,, . . . ~' , .
Sia dato un campione:

V=V .
E sia data una caratteristica da stimare:

Si supponga inoltre di disporre di una realizzazione , , ,


intervallo di confidenza bilatero per V un intervallo in cui cade V con una certa probabilit (detta
del campione dato. Come noto, un

confidenza e indicata con ), i cui estremi sono dipendenti solo dalla realizzazione del campione dato:
, ,, <V< , ,,

A , ,, <V< , ,, B .
In altri termini:

Dove e sono due opportune statistiche.


Finora, nel calcolo degli intervalli di confidenza abbiamo sempre sostituito la disuguaglianza debole
presente nella precedente relazione con un simbolo di uguaglianza. Se le osservazioni dovessero essere
discrete, sarebbe indispensabile utilizzare una disuguaglianza; tuttavia, nelle applicazioni che
analizzeremo, ci troveremo sempre (salvo rare eccezioni che analizzeremo di volta in volta) nel caso in cui
anche le distribuzioni discrete possono essere approssimate con una normale, perci possiamo continuare
ad utilizzare il simbolo di uguaglianza.
Il metodo

due statistiche un valore illimitato oppure un valore finito (ad esempio, = 0 oppure = 1, ).
Come abbiamo gi visto, lintervallo pu anche essere unilatero, semplicemente sostituendo ad una delle

Il metodo della quantit pivotale Q un metodo che pu essere utilizzato per la costruzione degli intervalli
di confidenza. In particolare, la quantit pivotale una funzione che dipende solamente dai dati: la sua

., , , ,
legge (funzione di distribuzione) non dipende dai parametri incogniti:

I passi da compiere
Vediamo ora quali sono i passi che occorre compiere per mettere in pratica il metodo:

< ., , , , < =
1. Si impone che si abbia:

E si determinano i valori di e che rispettino tale uguaglianza.

< ., , , , <
2. Si inverte la relazione individuata, ovvero si passa da una relazione del tipo:

<V<
Ad una relazione del tipo:

In altri termini, si cerca di ottenere dallintervallo relativo alla quantit pivotale , mediante una serie
di opportune trasformazioni algebriche, un intervallo relativo alla caratteristica di interesse.

Pag. 51
Appunti di Statistica

Esempio

, , , . . . ~ . , . > 0 DEt E
Sia dato un campione di osservazioni con distribuzione esponenziale:

Lo stimatore di massima verosimiglianza per . la media campionaria (per brevit omettiamo tutto il

. =
procedimento che ci consente di verificarlo):

Vogliamo ora trovare un intervallo bilatero per . con livello di confidenza . Per prima cosa, costruiamo la
quantit pivotale. Per farlo, dobbiamo sfruttare le informazioni relative alla statistica. Nel nostro caso,

1
abbiamo:

= <

.
Sulla base delle propriet relative alle distribuzioni esponenziali e gamma:

, ,, ~ . = 1, . < - ~ , . ~ | , }

1
Allora, possiamo considerare come quantit pivotale la statistica definita come:

~ | , }
.
La distribuzione di tale statistica infatti non dipende dal parametro .. Tuttavia, non sono note le tabelle

con distribuzione chi-quadro. Per farlo, sufficiente moltiplicare per 2 la quantit pivotale precedente:
relative alla distribuzione cos ottenuta; cerchiamo per tale ragione di ricondurci ad una variabile aleatoria

=2 ~ , 2 =
.

= < <
Possiamo allora scrivere:

1
1 1+ 1
E quindi:
2
= | } = | }
2 2 2

1 1+
E quindi:

= | }<2 < | }-
2 . 2

1 1 1 1 1+
A questo punto, non ci resta che eseguire il secondo passo, ovvero dobbiamo invertire lintervallo:

| }< < | }
2 2 . 2 2

2 2
Ovvero:

<.<
1+ 1
W 2 X W 2 X
Si noti che la struttura dellintervallo cos ottenuto di fatto analoga a quella dellintervallo per la varianza
di una popolazione gaussiana.

Pag. 52
Appunti di Statistica

La verifica di ipotesi
Introduzione
Introduzione alla verifica dipotesi
A questo punto, vogliamo passare ad un argomento profondamente diverso da quelli finora trattati, ma
che richiede come prerequisito i concetti precedentemente introdotti: la verifica dipotesi.
La verifica di ipotesi in sintesi un problema di tipo ipotetico: non siamo in questo caso interessati a
conoscere esattamente una caratteristica, oppure lintervallo nel quale tale caratteristica si trover con una
certa probabilit nota a priori; lobiettivo che vogliamo raggiungere in questo caso quello di verificare se
una certa congettura risulta essere soddisfatta, con un certo grado di probabilit, nonostante la
popolazione sia parzialmente incognita.

Esempio
Per comprendere meglio il problema che vogliamo affrontare, partiamo da un esempio. Unazienda che
produce delle cinghie di trasmissione ha brevettato un nuovo metodo di produzione che, sulla base di
quanto dichiarato dai laboratori che lo hanno ideato, dovrebbe aumentare la vita media delle cinghie
stesse, portandola da 50.000 km a 56.000 km. Prima di avviare la produzione secondo il nuovo brevetto,
lazienda vuole per verificare se effettivamente si ha il miglioramento sperato oppure no, in quanto tale
modifica comporta chiaramente dei costi di transizione.
La situazione appena illustrata un caso tipico nel quale si rende necessario eseguire un test dipotesi. A
tale scopo, lazienda testa il nuovo metodo di produzione, realizzando le cinghie che vengono montate su
un certo numero di automobili (ipotizziamo ad esempio che siano 35). Si ottiene cos un certo campione di
misurazioni della vita media delle cinghie. Lazienda decider poi se avviare oppure no la nuova modalit di
produzione: in particolare, sulla base di opportune politiche, lazienda considerer veritiere le dichiarazione
dei laboratori che hanno brevettato il nuovo metodo di produzione se e solo se la durata media rilevata sul
campione di 35 automobili risulter essere almeno pari a 57.000 km.

I concetti fondamentali della verifica dipotesi


Verifica di ipotesi
Eseguire la verifica dipotesi significa verificare una certa congettura, relativa ad un parametro o ad una
caratteristica di una popolazione, o relativa allintera distribuzione della popolazione.

Le ipotesi
Il primo elemento della verifica dipotesi rappresentato dalle ipotesi stesse. Si deve infatti definire una
certa ipotesi statistica, ovvero unaffermazione sul parametro, che traduca di fatto la congettura iniziale.

cinghie non superiore a 56.000 km, che si traduce in f 56.000 V,.


Nellesempio, la congettura la preoccupazione dellazienda fondata, ovvero la durata media delle

Tuttavia, per essere pi precisi, il test dipotesi richiede lesistenza di due diverse ipotesi:
1. Lipotesi nulla
Lipotesi nulla pu essere definita in modo informale come quellipotesi che vera fino a prova
contraria, e che si vorrebbe fosse falsa. Viene indicata con 5 .
2. Lipotesi alternativa
Lipotesi alternativa lipotesi che si vuole verificare. Viene indicata con .

Pag. 53
Appunti di Statistica

5 : f 56.000 V, : f > 56.000 V,


Nellesempio:

Si noti che lipotesi nulla e lipotesi alternativa non devono necessariamente essere complementari. Ad

5 : f = 56.000 V, : f > 56.000 V,


esempio, sarebbe stato accettabile anche formula le ipotesi nel modo:

5 : f < 56.000 V, : f > 57.000 V,


Oppure:

Si noti inoltre che lipotesi nulla e lipotesi alternativa non sono simmetriche: non infatti possibile
scambiarle, perch si otterrebbe altrimenti una soluzione diversa del problema.
Le ipotesi possono inoltre essere:
Ipotesi semplici
Lipotesi si dice semplice se specifica completamente la distribuzione di probabilit incognita. Ad

f = 56.000 V,
esempio, unipotesi del tipo:

unipotesi semplice
Ipotesi composta
Lipotesi si dice composta se non semplice, ovvero se non specifica completamente la distribuzione

f 56.000 V, f > 56.000 V,


di probabilit incognita. Ad esempio, ipotesi del tipo:

Sono ipotesi composte.


Tipicamente, le ipotesi vengono formulate allo scopo di scegliere tra una nuova metodologia e una vecchia
metodologia, e lipotesi nulla del tipo la nuova teoria non funziona meglio della vecchia e lipotesi
alternativa del tipo la nuova teoria funzione meglio della vecchia.
Una statistica si dice non parametrica (o distribution free) nel caso in cui non si conosca la distribuzione di
probabilit sottostante.
I dati
Un altro degli ingredienti fondamentali della verifica dipotesi sono i dati. Per eseguire la verifica dipotesi

, ,, . . .
infatti necessario raccogliere un certo campione di dati:

Del quali si otterr una certa realizzazione , , , .


La regola di decisione: regione critica
Il terzo elemento fondamentale del test dipotesi la regola di decisione. Infatti, data lincertezza dei dati
(si considera inevitabilmente solo un campione di dimensione finita), non possibile ottenere un risultato
assolutamente certo, cos come accade in genere nelle procedure di tipo induttivo.
Bisogna perci stabilire una regola di decisione, ovvero un criterio in base al quale stabilire quale decisione
prendere. Riprendendo lesempio iniziale, una possibile regola di decisione (quella indicata nellesempio di

57.000 V,
partenza) :

Tale scelta sensata, perch considerare falsa lipotesi nulla nel caso 56.000 V, significherebbe
prendere una decisione poco affidabile, in quanto la media reale potrebbe essere diversa da quella
campionaria.
In generale, la regola di decisione un insieme, che chiamiamo regione critica e indichiamo con , e che

= % ,, P)+ ) + ' E 5 &


definiamo come linsieme di tutti i risultati sperimentali per i quali ritritiamo lipotesi nulla:

Statistica test
Chiamiamo statistica test quella statistica sulla base della quale prendiamo le decisioni relative al test
dipotesi.

Pag. 54
Appunti di Statistica

Errori
Una volta presa la decisione, non detto che questultima sia corretta. possibile perci calcolare la
probabilit di errore. In particolare, i possibili esiti del test sono indicati in tabella:

Non rifiuto 5 Rifiuto 5


Decisione
Realt
5 vera Decisione giusta Errore di I tipo
5 falsa Errore di II tipo Decisione giusta
Gli errori possibili sono perci di due diverse tipologie:
Errore di I tipo
Si verifica quando lipotesi nulla vera, ma 5 viene rifiutata. In sostanza quindi i dati appartengono
alla regione critica, ma lipotesi nulla vera.
Errore di II tipo
Si verifica quando lipotesi nulla falsa, ma 5 viene accettata. In sostanza quindi i dati non
appartengono alla regione critica, ma lipotesi nulla falsa.

Sulla base di quanto abbiamo detto la probabilit di errore di primo tipo, che viene indicata con , la
Probabilit di errore di I tipo

probabilit che, sapendo che 5 vera, i dati appartengano alla regione critica; in simboli:
7
A ,, B

, , , ~' , .
Quindi, dato il campione:

5 : . 5 : .
E date le ipotesi:

. = 7
Abbiamo:

Si osserva perci che la probabilit di errore dipende anche dal valore vero (e incognito) del parametro .
relativamente al quale lipotesi viene formulata.

Analogamente, la probabilit di errore di secondo tipo viene indicata con v ed la probabilit che,
Probabilit di errore di II tipo

sapendo che 5 falsa, i dati non appartengano alla regione critica. In simboli:
v . = ~

v . =1 .
Si noti per che NON vale luguaglianza:

Perch le due probabilit vengono calcolate sulla base di valori di . appartenenti ad insiemi diversi.

Chiamiamo funzione di potenza del test la funzione . , che rappresenta la probabilit di rifiutare
Potenza del test

. =
lipotesi nulla nel caso in cui sia falsa:

. = 1 v . , .
In questo caso vale allora la relazione:

Possiamo allora affermare che la potenza del test rappresenta la probabilit di prendere la corretta
decisione di falsificare 5 .

Pag. 55
Appunti di Statistica

Osservazione
Se la regione critica viene scelta in modo tale da minimizzare lerrore di I tipo, si avr inevitabilmente un
aumento dellerrore di secondo tipo, e viceversa. Si tratta quindi del tipico problema della coperta troppo
corta.
Di conseguenza, per confrontare tra loro due diversi test, si utilizza in genere la potenza, preferendo i test
con potenza superiore, perch si considera pi importante minimizzare la probabilit di errore di primo
tipo.

Significativit
La significativit (level of significance, o ampiezza o dimensione) della regione critica lestremo superiore

= sup
della probabilit di errore di I tipo:

"7

Un test dipotesi si dice non distorto se la sua funzione di potenza . sempre maggiore della sua
Test dipotesi non distorto

significativit , per ogni 5 .


Il p-value
Definizione

significativit che porta a rifiutare lipotesi nulla 5 sulla base dei dati raccolti. Il p-value un valore
Nella verifica dipotesi, il p-value una statistica che rappresenta il pi piccolo valore del livello di

appartenente allintervallo !0,1".


Calcolo pratico del p-value

1. Si calcola il valore della statistica test con i dati raccolti , , , :


Nella pratica, per valutare il p-value si procede in questo modo:

= , ,,

PR ) = 7
2. Si calcola:

Distribuzione del p-value


Si dimostra che, se i dati sono continui (cio la densit di assolutamente continua), allora, la

0 ) P 0
distribuzione del p-value nel caso in cui lipotesi nulla sia vera :
1 ) 0 < P < 1-
P = k P ) 0 < P < 1- '$%7 = (
$%7
1 ) P 1 0 + ,)

~n 0,1
Ovvero:
7

Una volta che il p-value stato calcolato, pu essere confrontato con il livello di confidenza prefissato:
Uso del p-value

1. Se PR ) > , lipotesi nulla viene accettata;


2. Se PR ) , lipotesi nulla viene rifiutata.
In linea generale diciamo che:
Se il p-value minore dell1%, si ha forte evidenza contro 5 .
Se il p-value compreso tra il 2,5% e il 5%, si dice che si ha debole evidenza contro 5 e la decisione
presa dipende quindi dal livello di confidenza.
Se il p-value maggiore o uguale al 10%, allora si dice che dai dati non emerge contrariet ad 5 .
In ogni caso, la decisione viene presa sulla base del confronto col livello di confidenza.

Pag. 56
Appunti di Statistica

Esempio

5 : . 5 :.
Consideriamo il caso seguente:

, ,,
E ipotizziamo di avere raccolto i dati:

Ipotizziamo inoltre che il test in analisi abbia una regione critica descritta da una frase del tipo: rifiuto 5
se V, dove la statistica test. Potremo allora calcolare il p-value andando ad individuare il valore

= , ,,
della statistica test in corrispondenza dei dati raccolti:

PR ) = 7
Dopodich avremo:

Lemma di Neyman-Pearson
Introduzione
Ricapitolando quanto abbiamo finora visto, possiamo affermare che un buon test deve cercare di
minimizzare sia la probabilit di errore di I tipo, sia la probabilit di errore di II tipo, ma ci di fatto
impossibile, perci necessario individuare un compromesso soddisfacente.
Allora, per trovare la soluzione ottimale, si prevede che si fissi un limite massimo alla probabilit di errore
di I tipo, e che si scelga tra tutti i test con probabilit di errore di primo tipo non superiore a tale limite, quel
test che abbia la pi bassa probabilit di errore di secondo tipo. Il limite alla probabilit di errore di primo
tipo dato dallampiezza del test.

tra i test di ampiezza , dove lespressione uniformemente pi potente sta ad indicare che ci vale per ogni
Trovare un test che soddisfi queste ipotesi significa individuare il test che sia uniformemente pi potente

(si noti che lipotesi potrebbe essere sul modello e non sul parametro, ma tutto ci che diremo vale
in ogni caso).

Il lemma di Neyman-Pearson
Quando si usa
Il lemma di Neyman-Pearson ci consente di risolvere il problema appena illustrato in un caso particolare,

, , , ~ ' ,
ovvero nel caso in cui, dato il campione casuale:

E data la funzione di verosimiglianza , ,,


5 : . = .5 :. = .
, si abbia un test con le seguenti ipotesi:

uniformemente risulta essere di fatto inutile, in quanto un insieme contenente solo lelemento . .
Ovvero, sia lipotesi nulla che lipotesi alternativa sono semplici. Si noti inoltre che in questo caso il termine

Enunciato
Sotto le ipotesi appena descritte, il lemma di Neyman-Pearson afferma che il test pi potente per

,,
verificare le ipotesi date il test avente come regione critica:

= & , ,, : 7 '
, ,

Pag. 57
Appunti di Statistica

Osservazione

una distribuzione con il parametro . anzich con il parametro .5 : se ci vero, infatti, la funzione di
La regione critica cos definita impone in sostanza che sia pi probabile che i dati siano stati generati da

verosimiglianza valutata in . sar superiore di quella valutata in .5 , e quindi il rapporto sar piccolo,
perci i campioni probabilmente apparterranno alla regione critica, e lipotesi nulla verr rifiutata.
Dimostrazione


1. Partiamo da unosservazione. Dato un sottoinsieme di :

Se definita come sopra indicato, in ogni punto di (proprio perch tale punto appartiene anche a

7 , , , ,
) abbiamo:

Allora, se siamo nel continuo:

7 = 7 A , ,, B = ] 7 , ,, , .5
4
Sfruttando la precedente disuguaglianza:

7 = ] 7 , ,, , .5 ] , ,, , .5 =
4 4


Quindi:
7
In maniera del tutto analoga, possiamo verificare che, considerando U , otteniamo:
7 U U
2. Vogliamo ora considerare una regione critica di ampiezza minore o uguale allampiezza di , ovvero

7 7
tale che:

= =
Possiamo considerare che:

7 + 7 7 + 7
Perci la precedente disuguaglianza sar:

7 7
Da cui:

potenza di :
Lobiettivo quello di verificare la tesi, secondo la quale la potenza di maggiore o uguale alla


Cio:


Che equivale anche a dire:


Siccome:

1
Possiamo dire che:

7 7

7
Siccome abbiamo visto che dallipotesi consegue:
7

Pag. 58
Appunti di Statistica

1
Possiamo scrivere anche:

7
Ma, dal momento che :

7

1
Da cui otteniamo, sostituendo banalmente nella disequazione precedente:


Ovvero:

Che proprio la tesi che volevamo dimostrare.

Verifica dipotesi su popolazione gaussiana: gli Z-test e i T-test

, , , . . . ~ f,
Sia dato il campione:

1 1
Allora, la funzione di verosimiglianza sar data da:
1 Z
, ,, = ' , f, = o ) p =| } ) =
Z Z 1 Z


2 2
Gi in precedenza abbiamo dimostrato che:

< f =< + f = 1 $ + f

1
Da cui:
I Z 2 ` \Z J
, ,,
=| } )
Z
2
Questo significa che ci serve conoscere solo la media campionaria e la varianza campionaria per essere in
grado di calcolare la funzione di verosimiglianza.

Verifica di ipotesi sulla media con varianza nota: ipotesi nulla e alternativa semplici
Supponiamo di voler eseguire una verifica di ipotesi relativa alla media, conoscendo con esattezza la
varianza della distribuzione. Ipotizziamo anche di avere un test del tipo ipotesi semplice contro ipotesi

5 : f = f5 : f = f
semplice, ovvero:

Allora, le ipotesi del lemma di Neyman-Pearson sono verificate, perci il test pi potente sar quello la cui

1
regione critica data da:
I Z 2 ` \Z7 J
| } )
Z
7 , , ,
= 2
I \Z7 Z \Z J
= ) =
Z
, , , 1 ! Z 2 ` \Z "
| } )
Z
2
\
\ ` \
= ) 7 ) = ) 7 )
Z I Z J
Z 7 Z Z I Z J 7 Z

Dove il primo fattore di fatto un valore costante, che non dipende dai dati:

D=)
Z I 7 Z J

Pag. 59
Appunti di Statistica

Se ipotizziamo ad esempio di avere f5 > f , allora la funzione cos ottenuta una funzione monotona
crescente in . Allora vale:
7 , , ,

, , ,

V
Se e solo se si ha:

Dove V un opportuno valore ricavato da e che dipende da :


= f5 = 7 + ' E 5 = 7 V
Quindi:
V f5 V f5
= = Q

Siccome per una probabilit di errore, il suo valore sar in genere piccolo (comunque minore di un

V f5
mezzo), perci pi pratico per ricercare i valori sulle tavole riscrivere la relazione precedente come:

= Q Z


Dalla quale ricaviamo:
V = f5 Q Z

Abbiamo cos concluso che il test pi potente di livello del tipo ipotesi semplice contro ipotesi
semplice, entrambe relative alla media di una gaussiana, nel caso f < f5 , il test che ha regione critica:

= , ,, : f5 Q Z +

Con un procedimento del tutto analogo si ricava invece che, nel caso f > f5 , si ha invece:

= , ,, : f5 + Q Z +

Si pu notare che la regione critica non dipende esplicitamente da f , ma solo da f5 (salvo il fatto che la
regione critica cambia se f diventa inferiore o superiore di f5 ). Di conseguenza, la regione critica:

= , ,, : f5 Q Z +

5 : f = f5 : f = f
Identifica il test ottimo per ogni test dipotesi del tipo:

Con f5 > f ; analogamente, la regione critica:



= , ,, : f5 + Q Z +

Identifica il test ottimo per ogni ipotesi nulla dello stesso tipo appena illustrato, ma con f5 < f . I test di
questo tipo, siccome utilizzano i quantili della normale standard, vengono detti anche z-test.

Si usano gli Z-test per la media anche nel caso in cui si abbiano grandi campioni (in genere 30) ma non
Nota

di tipo gaussiano, perch si sfrutta lipotesi di asintotica gaussianit della media campionaria. In questo
caso ovviamente si tratter per non di un test esatto, bens di un test asintotico.

Pag. 60
Appunti di Statistica

Verifica di ipotesi sulla media con varianza nota: ipotesi nulla e alternativa composte

5 : f = f5 : f < f5
Consideriamo ora il caso:


In questo caso il test ottimo ancora quello con regione critica:
= , ,, : f5 Q Z +

5 : f = f5 : f > f5
Analogamente, se consideriamo ora il caso:


In questo caso il test ottimo ancora quello con regione critica:
= , ,, : f5 + Q Z +

5 : f f5 : f < f5
Se consideriamo invece il caso:

Si pu dimostrare che in questa situazione non esiste un test pi potente in assoluto. Allora, si cerca il
test ottimo limitando la ricerca ai soli test non distorti. In tale situazione, si verifica che la regione


critica che identifica il test ottimo ancora una volta:
= , ,, : f5 Q Z +

ipotesi nulla e alternativa sopra riportate, limitatamente ai test di ampiezza e non distorti.
Possiamo quindi affermare che tale regione critica identifica il test pi potente per il problema con le

5 : f f5 : f > f5
In maniera analoga, considerando:

Si pu dimostrare che non esiste un test pi potente in assoluto, perci si limita il campo di ricerca ai


soli test non distorti e si verifica che la regione critica che identifica il test ottimo :
= , ,, : f5 + Q Z +

ipotesi nulla e alternativa sopra riportate, limitatamente ai test di ampiezza e non distorti.
Possiamo quindi affermare che tale regione critica identifica il test pi potente per il problema con le

Anche i test di queste tipologie sono detti z-test, perch, come i precedenti, si basano sulluso della
distribuzione normale standard e dei suoi quantili.
Test del rapporto di verosimiglianza
Tutti i risultati finora ottenuti sono legati direttamente o indirettamente al lemma di Neyman-Pearson.
Tuttavia, esistono anche delle situazioni nelle quali tale lemma non applicabile.

5 : . 5 : .
Consideriamo ad esempio il problema (relativo sempre ad una popolazione gaussiana) con ipotesi:

sup , ,
Possiamo ora considerare:

=
"7
sup , ,
"
E utilizzare una regione critica tale per cui si rifiuti 5 se :
= % , ,, : &
Dove viene fissato in modo tale che:
sup
"7
Questo test per potrebbe non essere il test pi potente per la risoluzione del problema di verifica di
ipotesi dato.

Pag. 61
Appunti di Statistica

5 : . = .5 : . .5
Un caso particolare del problema in analisi quello in cui si ha:

7 , , 7 ,,
In tale situazione:

= =
sup , , ,,
"
Nel caso particolare in cui il parametro . sia la media:
5 : f = f5 : f f5

1
Otteniamo:
\Z7 J
| } )
Z I Z 2`
, , 2 \Z7
= = =)
Z

,, 1 \Z\ "
| } )
Z ! Z 2`
2
Quindi la regione critica sar:
\Z7
=& , ,, :) '
Z

La disequazione appena scritta equivale a:

f5 f5 f5 f5
ln 2 ln 2 ln 2 ln
2

| f5 |
Da cui ricaviamo infine:

2 ln

Il valore di in realt non ha alcuna importanza, perci potremmo sostituire il secondo membro della
precedente disuguaglianza con un generico . In sostanza, rifiutiamo 5 se:
| f5 |

Dove deve essere tale che:

| f5 | | f5 |
= sup = 7


7

Ma, sotto lipotesi 5 (che per il calcolo di questa probabilit deve essere considerata vera), la variabile

= Q Z
aleatoria che appare al primo membro della disequazione una normale standard, perci:

Il caso a varianza incognita


Se ipotizzassimo invece che la varianza fosse incognita, tutti i risultati finora individuati rimangono
sostanzialmente invariati, salvo il fatto che anzich utilizzare la varianza effettiva si utilizzer la varianza
campionaria e, anzich utilizzare i quantili della distribuzione normale standard, si utilizzeranno quelli della
T-student. Proprio per questa ragione, i test di questo tipo vengono chiamati T-test.

Pag. 62
Appunti di Statistica

Verifica dipotesi su popolazione gaussiana: test chi-quadro sulla


varianza (metodo degli IC) caso a media incognita
Il tipo di test

,, ~ f,
Sia dato il campione gaussiano:

5 : = 5 : 5
E si voglia eseguire un test del tipo:

La media f pu essere nota oppure incognita. Iniziamo considerandola incognita. Si noti che quanto
diremo ora vale solo nel caso in cui il campione sia esattamente gaussiano, e non nel caso in cui sia
approssimativamente gaussiano.
Idea di base

1 1
Lidea di base del test quella di partire dallintervallo di confidenza bilatero della varianza:

< <
1+ 1
Z W 2 X Z W 2 X
Se non appartiene allintervallo di confidenza, possiamo considerare questo dato come indicatore del
fatto che lipotesi nulla falsa.

rifiuto 5 : = 5 a favore di qualunque altro valore (ovvero : 5 ) se 5 K


Si usa allora la regola:

Questa regola equivale a imporre la regione critica:


1 1
= ,, : 5 EPP +) 5 .=
1+ 1
Z W 2 X Z W 2 X
1+ 1 1 1
=& ,, : | } EPP +) Z | } '
Z
2 5 2 5
Statistica test

$ 1
Si pu quindi usare come statistica test la statistica:

5
Dove si ricorda che $ la varianza campionaria e 5 il valore che stiamo testando.

Generalizzando, possiamo considerare un test su una certa caratteristica V di una distribuzione di


Generalizzazione

5 : V = V5 : V V5
probabilit, dove il test del tipo:

Si costruisce quindi un intervallo di confidenza bilatero per V, ovvero K V , con livello di confidenza :
<V<
Il test corrispondente prevede che si rifiuti 5 se V5 oppure V5 , e il suo livello = 1 .

Pag. 63
Appunti di Statistica

Test simili
Il modo di procedere finora illustrato si usa non solo nel caso in cui le ipotesi siano del tipo uguale contro

5 : 5 : > 5
diverso:

5 : = 5 : > 5
5 : = 5 : = , 5
Costruiamo in particolare il test relativo al primo di questi casi; supponiamo di volere un test a livello .
Costruiamo allora un IC per la varianza, K , del tipo D, + con:
=1

1
Ovvero:

; +
Z
In sostanza, quanto finora scritto significa che siamo certi al 95% che il valore vero della varianza
. Quindi, se 5 K , significa che i valori di che sono indicati in
Z
superiore a
/ 5 , ovvero quelli

inferiori a 5 , sono incompatibili con i dati. Si usa quindi la regola di rifiuto:


se 5 /
Z
5

rifiuto

=1
Possiamo verificare che questo test effettivamente a livello:

$ 1
Infatti:

= sup 5 = sup W$ 1 5 X=
0 607 Z 0 607
Z

$ 1 5
= sup
Z
0 607
ha distribuzione Z . chiaro che la probabilit che una
2 Z

Si nota poi che chi-quadro sia superiore

aumenta allaumentare di (pensando al grafico della


7 /


ad un numero funzione di ripartizione,

superiore si ha quando = 5 ; quindi:


spostiamo pi a sinistra la soglia, perci larea a destra diventa pi grande). chiaro allora che il limite

$ 1 5 $ 1 $ 1
= = -= 1 -
Z
5 5 5 Z
5 Z

Nota
A differenza degli Z-test sulla media, i chi-quadro test sulla varianza non possono essere utilizzati se il
campione fornito non ha distribuzione normale: in assenza di un campione gaussiano, anche di grandi
dimensioni, questi test non valgono.

Pag. 64
Appunti di Statistica

Verifica dipotesi su popolazione gaussiana: test chi-quadro sulla


varianza (metodo degli IC) caso a media nota
Il tipo di test

,, ~ f,
Sia dato il campione gaussiano:

5: 5 :
E si voglia eseguire un test del tipo:

Dove 5 ed sono due insiemi disgiunti:


=
Si ipotizzi ora che la media f sia nota, e uguale ad un certo valore f5 .
Statistica di test

$5
La statistica di test un questo caso:

1
Dove si ricorda che:

$5 = <A f5 B


I quantili che si usano in questo caso sono quelli del tipo:

Dove ad esempio 1 se il test del tipo contro , e cos via, seguendo per il resto le stesse
regole che abbiamo visto nel caso a media incognita.
Osservazione
Si osserva allora che si ha un rapporto biunivoco tra il concetto di stima intervallare e quello di test
dipotesi. Trovare un intercallo di confidenza di un certo parametro e trovare una regione critica per
eseguire un test su quel parametro sono due problemi duali, ma non sono uno la negazione dellaltro,
perch vivono in mondi diversi.

Pag. 65
Appunti di Statistica

Test sui dati accoppiati test di omogeneit sulle medie


I campioni accoppiati

appartiene, si misurano due diverse grandezze ed F. Si ottengono cos dei campioni, detti accoppiati, del
I test sui dati accoppiati sono test nei quali si individua una popolazione e, per ogni individuo che vi

,F ,, ,F
tipo:

,F ,, , F . . . ~' , g,
Ogni coppia indipendente dalle altre, ovvero:

Si noti per che non si ha necessariamente indipendenza tra i due elementi di ciascuna coppia.

1. Confrontare e F e scoprire cos se seguono lo stesso modello unidimensionale. Questo significa


Dati di questo tipo possono essere raccolti per diversi scopi:

verificare se le rilevazioni riguardanti sono omogenee rispetto a quelle di F, ovvero se le funzioni di

2. Per verificare se ed F sono indipendenti, ovvero se:


ripartizione sono uguali.

' , g, = '1 , 'h g,


Il test di omogeneit sui dati accoppiati
Il test di omogeneit il primo dei due test prima descritti. Abbiamo vari casi:

5: = [ : [
1. Le ipotesi sono:

5: 3 [ 3 P)+ Et 3 : > [ P)+ D) 3


2. Un altro caso quello in cui le ipotesi sono:

(e per almeno un 3 la disuguaglianza stretta)


Questo significa in sostanza che, siccome la funzione di ripartizione di minore della [ di F, in
generale si ha buona probabilit che assuma valori superiori ad F, ovvero tende ad assumere valori
pi grandi di F.

5 : [ P)+ Et 3 : < [ P)+ D) 3


3. Il terzo caso :

(e per almeno un 3 la disuguaglianza stretta)


In questo caso, significa che tende ad assumere valori pi piccoli di F.
Osservazione

noto che ed F hanno andamento normale con ugual varianza e medie incognite, allora confrontare le
Speso per determinare lomogeneit dei dati si esegue il confronto tra due semplici valori. Se ad esempio

3 f1 3 fh
loro due funzioni di ripartizione equivale a confrontare tra loro i due valori:
W X W X

Ovvero, equivale a confrontare tra loro le due medie. Notiamo perci che i test sulla media sono in realt
casi particolari di test di omogeneit.

Pag. 66
Appunti di Statistica

Il test di omogeneit sulle medie per dati accoppiati

5: = [ : [
Cerchiamo ora di capire meglio questo test. Abbiamo:

5 : f1 = fh : f1 fh
Ovvero:

5 : f1 fh : f1 < fh
Unaltra alternativa quella di avere:

Lidea base

5 : f1 = fh + : f1 fh +
Dato il problema:

5 : f1 fh = : f1 fh
Possiamo riscriverlo nella forma:

,F ,, , F . . . ~' , g,
dato inoltre il campione di dati accoppiati:

5 ,,5
Possiamo analizzare solo le differenze tra gli elementi di ogni singola coppia:

5 = F
Dove:

5 ,5 ,,5 . . .
Si otterr in questo modo, siccome ogni coppia indipendente dalle altre, un campione:

La media delle 5 sar, naturalmente:


f = f1 fh

5 : f = : f
Il problema diventa allora:

Questo problema gi stato analizzato:

6 |
|5
1. Se i dati sono numerosi, possiamo usare il test del tipo:

Q
$
Z

rifiuta 5 se:

Dove di solito si considerano campioni numerosi i campioni con 30 (ma non una regola fissa).
2. Se i dati sono poco numerosi, ma possiamo ipotizzare che le 5 abbiano distribuzione gaussiana, allora

6 |
|5
adottiamo la regola:

Z W1 X
$ 2

rifiuta 5 se:

Il modello tipico per i dati accoppiati la distribuzione normale bidimensionale, e ogni sua

delle 5 effettivamente gaussiana.


trasformazione lineare ancora una variabile aleatoria gaussiana,a perci in molti casi la distribuzione

Pag. 67
Appunti di Statistica

Test sui dati accoppiati test di indipendenza (dati gaussiani)


Campione gaussiano bidimensionale e coefficiente di correlazione

,F ,, , F . . . ~Af1 , fh , 1 , h , 7B
Un campione accoppiato gaussiano bidimensionale un campione del tipo:

Si ricorda il concetto di coefficiente di correlazione lineare 7 tra due variabili aleatorie e F:


DER , F
7=
1 h
Si ricorda inoltre che |7| 1. Valgono le seguenti propriet:
1. Se |7| = 1, allora con probabilit 1 le due variabili sono una la trasformazione lineare dellaltra:
F= +1
2. Se 7 = 0, allora le due variabili e F sono dette scorrelate.

Se e F sono indipendenti, allora: ;! F" = ;! " ;!F" 7 = 0


Infine, si ha la seguente propriet:

Non per vero il viceversa.


Si ha allora:
1 Z
1Z 1Z: 1Z 1Z:
oW 9 X `| } Z 8| 9 }p
'\,i ,g = ) Z8 9 : 9 :

2 1 h 1 7
Nel caso in cui il coefficiente di correlazione lineare fosse nullo:
1 1Z 1Z:
1 1
1Z9 1Z:
Z oW 9 X `| } p Z | }
'\,i ,g = ) = ) )
Z W X :
9
2 1 h
9 :

2 1 2 h
Si identificano cio i due fattori, che sono le distribuzioni di due gaussiane. Si nota quindi che, nel caso in

ed F sono indipendenti se e solo se 7 = 0.


cui si abbia un campione congiuntamente gaussiano (ma non nel caso generale):

Di conseguenza, per eseguire un test di indipendenza tra due variabili aleatorie gaussiane sufficiente
eseguire un test dindipendenza sul loro coefficiente di correlazione.
I vari casi di test dindipendenza su gaussiane
Possiamo avere diversi tipi di ipotesi:

5: 7 = 0 :7 0
1. Caso 1:

5: 7 = 0 :7 > 0
2. Caso 2:

Si noti che testare 7 > 0 (dipendenza positiva) significa andare a verificare se, allaumentare di ,
aumenta anche F. Esiste anche un caso simile (risolto con lo stesso test):

5: 7 0 :7 > 0
2.1 Si ha:

5: 7 = 0 :7 < 0
3. Caso 3:

Esiste anche un caso simile (risolto con lo stesso test):

5: 7 0 :7 < 0
3.1 Si ha:

Pag. 68
Appunti di Statistica

Per prima cosa, vediamo come stimare 7. Per analogia rispetto allo stimatore $ per la varianza, possiamo
Statistica test

pensare di stimare la covarianza tra ed F mediante lo stimatore:


A BAF FB
DER
; ,F = <
1

1 = $1 h = $h
Siccome inoltre stimiamo:

A BAF FB
Avremo:

A BAF FB

DER
; ,F 1
7< = = = =

1 h
A B AF FB A B AF FB


1 1

| |1
Continua a valere la propriet:

Possiamo inoltre introdurre la statistica test:

$ = 2
1
Che, nel caso in cui valga lipotesi 5 , si dimostra avere una distribuzione t-Student:

$ = 2~ Z , 3
1
Ci conviene perci adottare proprio ST come statistica test. Si noti inoltre che $ pari.
Come eseguire il test
Possiamo allora adottare le seguenti regole per eseguire i test:

5: 7 = 0 :7 0
1. Caso 1:

Allora la regola da seguire :


Rifiuto lipotesi nulla 5 se
|$| W1 X
Z
2

5: 7 = 0 :7 > 0
2. Caso 2:

Allora la regola da seguire :


5
$ Z 1
Rifiuto lipotesi nulla se

5: 7=0 :7 < 0
3. Caso 3:

Allora la regola da seguire :


Rifiuto lipotesi nulla 5 se
$ Z 1

Pag. 69
Appunti di Statistica

Test sui dati accoppiati: Test di Wilcoxon (omogeneit)

, ,, ,F . . .
Sia dato un campione di dati accoppiati:

5: = [ : [
E si voglia risolvere un problema del tipo:

Dove la funzione di ripartizione di e [ quella di F, e dove, come gi accennato, [ significa che


tende ad assumere valori superiori rispetto ad F.
Ipotizziamo che non ci sia alcuna ripetizione nei dati, n allinterno di una coppia, n allesterno di una
coppia. In questo caso, possiamo applicare il test di Wilcoxon.
Si noti che lipotesi imposta risulta essere verificata se si ipotizza che la distribuzione congiunta sia

A = F B = A = B = AF = F B = 0 = 1, , , = = 1, , ,
assolutamente continua:

(escludendo naturalmente i casi in cui dalle due parti delluguale si ha la stessa variabile).
In ogni caso, questo non lunico caso in cui lipotesi risulti verificata. Si noti comunque che questa lunica
ipotesi che occorre imporre.

Lipotesi nulla 5 : = [. Come abbiamo ipotizzato, si ha:


Idee base

=F =0

>F = <F
Inoltre, siccome le due funzioni di ripartizioni sono uguali, varr anche:

1
Unendo tali condizioni si ricava in modo ovvio:

P= >F = <F =
2

1 1
Quindi possiamo riscrivere il problema nella forma:

5: >F = : >F >


2 2
Statistica test

$ = DEPP ) DE > F
La statistica test :

Si avr cos, nellipotesi che 5 sia vera:


1
$~U | , }
2
Regola
La regola di decisione la seguente:
Rifiuto 5 se
$ > 1
> W , X

Tuttavia, le tavole della binomiale non sono disponibili durante lesame. Si deve quindi lavorare utilizzando
il p-value.
P-value


1 1
Sia il valore della statistica test. Abbiamo:

PR )= $ > = |U | , }> }=1 |U | , } } = 1 < W X PY 1 P ZY


=
2 2 V
Y5

1 1 Y ZY
1
= 1 < W X| } | } =1| } <W X
V 2 2 2 V
Y5 Y5

Pag. 70
Appunti di Statistica

Caso di grandi campioni (approssimazione con la normale)

$~A P, P 1 P B
Se grande, approssimativamente:

Perci, sotto 5 :
$~ W , X
2 4
E quindi usiamo la regola:
5
n
Rifiuto se

$ > 1 Q +
> W , X 4 Z
2
Ipotesi diverse

5: = [ : [
Se consideriamo il caso in cui le ipotesi siano:

Allora la regola diventa:


5
$ <
Rifiuto se
> W , X

Z
E il p-value in questo caso:
1 1
PR )= |U | , }< }=| } <W X
2 2 V
Y5

Test di Wilcoxon-Mann-Whitney (0mogeneit dati non accoppiati)

, , , . . . ~
Si considerino ora due campioni indipendenti:

F , F , , F . . . ~[

5: = [ : [
E si voglia ancora una volta eseguire un test del tipo:

A = F B = A = B = AF = F B = 0 , =
Nel caso in cui si ipotizza che non ci siano ripetizioni sui dati:

(escludendo naturalmente i casi in cui dalle due parti delluguale si ha la stessa variabile).
In particolare, questa ipotesi certamente verificata se le distribuzioni F e G sono continue.
Statistica test

? = DEPP ) D , tt E+) F ) , DEPP ) A , F B, P)+ = 1, ) = = 1,


Introduciamo la statistica:

, , ,+ +1
Nel caso in cui lipotesi nulla sia vera, ci si aspetta di avere (lo si pu verificare, non lo facciamo):
;5 !?" = ? !?" =
2 5
12
Sulla base di ? possiamo allora costruire la nostra statistica test, ovvero:
1 = + + +
Dove viene ottenuto considerando la graduatoria finale che si ottiene ordinando tutti i valori di e di
F secondo lordine crescente, e rappresenta in particolare la posizione dell -esima che si incontra
scorrendo la graduatoria dal pi piccolo valore al pi grande.

Pag. 71
Appunti di Statistica

, ,+1
Avremo allora:

min \ = 1 + 2 + + , =
2
, ,+1
max \ = +1 + + 2 + + + , = , + 1 + 2 + + , = , + =
2
,+1
= ,| + }
2

?= 1 + 2 + + , = + ++ 1 +2 + + , =
Si pu inoltre osservare che:

, ,+1 , ,+1
= \ \ = ? +
2 2

, ,+1 , , ,+1 , ,+ +1
Perci:

;5 !\ " = ;5 !?" = =
2 2 2 2
, ,+ +1
? 5 !\ " = ? 5 !?" =
12
La regola di rifiuto

Rifiuto 5 se: \ > , 1


Possiamo allora usare la seguente regola:

Dove , un valore che si trova sulle tavole di Mann-Whitney, che per riportano solamente valori

Nel caso in cui i valori , e siano grandi (in genere , > 7 e > 7), sotto lipotesi nulla si ha:
piccoli.

, ,+ +1 , ,+ +1
\ ~ ,
2 12
E perci si usano i quantili della normale:
Rifiuto 5 se:

\ > +Q Z
` ` ` `

1. Un basato su i porterebbe alle stesse conclusioni alle quali porta il test basato su i . Infatti:
Osservazioni

,+ ,+ +1
i + \ = 1 + 2 + + , + =
2
Quindi possiamo dire che \ una trasformazione lineare di i . Questo vale perch abbiamo
ipotizzato che non ci siano ripetizioni nei campioni dati.
2. Se si hanno poche ripetizioni, si usa lo stesso meccanismo, ma si assegnando agli elementi che
occupano la stessa posizione un valore intermedio. Ad esempio, se si hanno 3 elementi in 6 posizione,

3. La tavola di Mann-Whitney contiene direttamente i valori in funzione di non superiori al 10%, perci
si associa a ciascuno di essi il 7 posto, e al successivo si assegna il 9.

se si cercano i valori 1 superiori al 10%, occorre utilizzare la relazione (riportata anche sulle tavole):
3 = , , + + 1 3 Z

Pag. 72
Appunti di Statistica

Test di omogeneit su campioni gaussiani indipendenti

, , . . . ~ f\ , \ F , , F . . . ~ fi , i
Siano dati due campioni gaussiani indipendenti:

f\ = fi
-
Si voglia eseguire un test che permetta di stabilire se le due distribuzioni sono uguali, ovvero:

5 : = : f\ fi EPP +) \ i
\ i
Il test da eseguire sequenziale, ovvero:
1. Eseguiamo il test sulla varianza; se non rifiutiamo lipotesi secondo la quale le due varianze sono uguali
2. Eseguiamo il test sulla media; se non rifiutiamo lipotesi secondo la quale le due medie sono uguali,
allora non rifiutiamo nemmeno lipotesi che le due distribuzioni siano uguali.
Se anche solo una delle due ipotesi nulle viene rifiutata, concludiamo che i due modelli sono diversi.
Quindi dobbiamo eseguire:

5 : \ = i : \ i
1. Il test di confronto sulle varianze:

Chiamiamo il livello di significativit col quale eseguiamo tale test.

5 : f\ = fi : f\ fi
2. Il test di confronto sulle medie:

Ma solo a patto che, con livello non sia stata rifiutata lipotesi 5 : \ = i . Il secondo test viene
eseguito con un certo livello di significativit che indichiamo con .

1 1 1 = 1 1 + = + +
Il livello di significativit complessivo del test :

Vediamo ora nel dettaglio i due passi.


Passo 1 test sulla varianza (anche nel caso generale slegato dal problema in analisi) F-test

5 : \ = i : \ i
Si considerano, come abbiamo gi visto:

, , . . . ~ f\ , \ F , , F . . . ~ fi , i
Con dati:

E con livello di significativit . Le medie sono incognite. Tuttavia, potremmo considerare questo
problema isolatamente rispetto al contesto in cui stiamo operando, perci considereremo in seguito anche

5 : \ i : \ > i
il caso di medie note, e analizzeremo anche alcuni particolari problemi simili, come:

:
5 \ i : \ < i
che prevedono luso della stessa statistica test. Restiamo per al caso di medie incognite:
Statistica test

5 : \ = i : \ i
Concentriamoci ancora sul problema:

\ \
In questo caso, possiamo riscrivere in maniera ovvia il problema come:

5: =1 : 1
i i
Perci possiamo cercare di stimare il rapporto tra le due varianze. Sappiamo che la stima per \ $\ e che
la stima per i $i , perci ovvio usare lo stimatore:
$\
$ =
$i
Che ricopre anche il ruolo di statistica test.

Pag. 73
Appunti di Statistica

Nota: La F-Fisher

variabili aleatorie e indipendenti:


Introduciamo ora una distribuzione che ci sar utile per eseguire questo test: la F di Fisher. Siano date due

~e ~d
E sia la variabile aleatoria cos definita:


= =

Allora 0 e una variabile aleatoria continua; la sua densit detta F di Fisher con gradi di libert al

~ e,d
numeratore e gradi di libert al denominatore, e la si indica:

Il quantile di ordine P di tale distribuzione di probabilit si indica con:


e,d P
Se si conosce il valore e,d 1 P e si vuole determinare e,d P , si pu seguire il procedimento cos

d
descritto:

1
P = W e,d P X = e.d P =
d e.d P

1
Da cui si ricava:

1P = | }
d,e
e.d P

1
E quindi:

1P =
d,e
e.d P

1
O, equivalentemente:

P =
e,d
d,e 1P
Distribuzione della statistica test

$\ , 1 $i 1
Sappiamo che:

~Z ~
\ i Z

$\ , 1 1
Quindi, dalla definizione fornita di F di Fisher discende che:

,1
\ i $\
= ~ Z , Z
$i 1 1 \ $i
1
i
Nel caso in cui 5 sia vera, abbiamo i = \ , perci ricaviamo che in questo caso:
$\
$ = ~ Z , Z
$i
La regione critica
Si rifiuta lipotesi nulla 5 se:
$ W X $ W1 X
Z , Z
2 Z , Z
2
oppure

Pag. 74
Appunti di Statistica

Il caso di test unilatero

5 : \ i : \ > i
Consideriamo ora il caso in cui il test sia unilatero:

Rifiuto 5 se $ Z , Z 1
In questo caso la regione critica viene cos modificata:

Calcolo della potenza

$\ $\ 1
In un F-test sempre possibile calcolare in maniera analitica la potenza del test. Ad esempio:

1 - = 1 -
@ A
$i Z , Z @ A
2$i 2 Z , Z

Il caso a medie note


Nel caso in cui le medie siano note, si procede come finora visto, utilizzando per la seguente intuitiva
tabella delle sostituzioni:

$\ , $i $5 \ , $5 i
Al posto di Si usa

Z , Z ,
Osservazione
Questi test possono essere eseguiti solo se i campioni sono effettivamente gaussiani.
Passo 2 test sulla media (anche nel caso generale non legato a questo problema)

, , . . . ~ f\ , \ F , , F . . . ~ fi , i
Prendiamo adesso in analisi il test sulle medie. Abbiamo ancora 2 campioni gaussiani indipendenti:

Anche in questo caso, le varianze possono essere note o incognite. Nel problema che stiamo analizzando
(quello del test di omogeneit su due distribuzioni gaussiane) sono incognite, ma lo vediamo qui nel caso
generale.

5 : f\ = fi : f\ fi
Possiamo scrivere il test da eseguire, ovvero:

5 : f\ fi = : f\ fi
Come:

Dove un numero prefissato. Iniziamo analizzando il caso a varianze note.

1. Stimiamo la differenza tra le medie, f\ fi , con:


Idee base

F ~Af\ fi , \Zi B
2. Abbiamo:

\ i
Dove:

\Zi = ? F = ? +? F 2DER , F = ? +? F = +
,

F f\ fi
Perci:

~ 0,1
\ + i
,

Sotto lipotesi nulla, abbiamo f\ fi = , perci possiamo definire la statistica test:


Statistica test

F
$ =
\ + i
,
Il cui andamento, come abbiamo appena dimostrato quello di una gaussiana standard.

Pag. 75
Appunti di Statistica

Regione critica
Di conseguenza, utilizziamo la seguente regola di decisione:
Rifiuto 5 se
|$| Q W1 X
2
Osservazione
Questo test pu essere utilizzato anche nel caso in cui i dati raccolti non siano normali, ma si hanno grandi
campioni, sempre a patto che siano note le varianza.
Il caso a varianze incognite

F
1. Nel caso in cui le varianze siano incognite, la statistica test pu essere scelta come:

$ =
$\ + $i
,

Rifiuto 5 se |$ | Q ZB
Solo a patto che si abbiano grandi campioni. In questo caso:

2. Nel caso in cui , e/o siano piccoli, questo test non va bene, neppure nel caso in cui la loro
distribuzione sia effettivamente una gaussiana. Il problema di individuare un test per questo caso
tuttoggi aperto, anche se sono state proposte varie soluzioni valide in casi diversi (tra queste per non
ancora emersa alcuna).
3. Nel caso particolare in cui si sia a conoscenza del fatto che le due varianze, pur essendo incognite, sono
uguali tra loro, possiamo costruire un ottimale nella classe dei test non distorti. Per questo motivo
necessario eseguire prima il test sulla varianza e solo in seguito il test sulle medie.

= \ = i
In particolare, in questo caso, detta:

F F
Abbiamo:

= ~ 0,1

+ 1 1
\ i W, + X
,
Naturalmente rimane il problema che incognita. Possiamo allora stimarla partendo dalla quantit:

E,,) = < + < F F



Affinch < non sia distorto, dobbiamo calcolare:
;! E,,)" = ;! , 1 $\ + 1 $i " = , 1 + 1 = , + 2

, 1 $\ + 1 $i
Quindi possiamo costruire lo stimatore seguente:

$C D =
,+ 2
Che, per come stato costruito, uno stimatore non distorto di . Possiamo ora sfruttare lipotesi di

$C D , + 2 , 1 $\ + 1 $i , 1 $\ 1 $i
normalit del campione; infatti abbiamo:

= = +

Ovvero abbiamo ottenuto la somma tra una Z e una Z , indipendenti tra loro (a seguito del fatto

$C D , + 2
che sono le varianze campionarie di campioni indipendenti). Perci:

~` Z

Pag. 76
Appunti di Statistica

F
Usiamo quindi come statistica test:

$ =
$C 1 1
W + X
D ,

$C ,+ 2
E usiamo come quantit pivotale:

~` Z
D

Sotto lipotesi nulla 5 , notiamo che numeratore e denominatore di $ sono indipendenti, perch la

$~ ` Z
media e la varianza campionaria di un campione gaussiano godono di tale propriet. Perci:

In conclusione, con livello adottiamo la seguente regione critica:


F G
= , ,, , F , F , , F | W1 X
1 1
`Z
2 F
$C D W, + X
E
Osservazioni

cui si abbiano tanti dati, perch si dovrebbe ipotizzare f\ fi , e quindi in tal caso si otterrebbe
1. Se la varianza incognita, non possiamo calcolare la potenza del test sulle medie, salvo che nel caso in

una distribuzione t-student non centrata, e operare con tale tipo di distribuzione richiede strumenti
che in questo corso non vengono introdotti.
2. Se si hanno dati la cui distribuzione non gaussiana con certezza, pi opportuno utilizzare il test di
Wilcoxon-Mann-Whitney, mentre nel caso in cui i dati sono certamente normali meglio utilizzare il
test appena introdotti.

Pag. 77
Appunti di Statistica

Test chi-quadro di Pearson per il buon adattamento (goodness of fit)


I test di buon adattamento
I test di buon adattamento sono test che vengono utilizzati per validare un modello probabilistico, ovvero

5 : ~ 5 . , , . : 5 . , , .
per verificare se tale modello si adatta ad un set di dati di cui si dispone. Le ipotesi sono allora:

,, . . .
Per eseguire il test, disponiamo di un campione di dati:

Se supponiamo che sia vera lipotesi nulla, allora il modello pu essere completamente specificato oppure
no, in quanto possibile che lipotesi nulla specifichi solamente una certa famiglia di modelli, e non un
particolare modello specifico. Ad esempio, lipotesi nulla potrebbe essere del tipo ha andamento
normale, senza per specificarne media e varianza. Si hanno allora due diversi casi:
5 semplice: 5 completamente specificata, cio indica un valore per ciascuno dei parametri
. , , . .
1.

2. 5 composta: almeno un parametro della distribuzione di probabilit 5 non fissato da 5 .


Si noti che i dati possono essere:
a) Discreti
b) Continui
c) Categorici (ad esempio, fasce di et)
Proprio a seguito della possibilit di avere dati categorici, si parla di modello probabilistico e non di
funzione di ripartizione, in quanto nel caso di dati categorici non esiste un ordinamento tra i dati stessi, e
perci non esiste il concetto di funzione di ripartizione.
Il test chi quadro di Pearson
Il test chi quadro di Pearson un test asintotico (valido cio solo per grandi campioni), anche se ne
esistono varianti anche per piccoli campioni (che per non verranno qui analizzate).

5 : ) :
Supponiamo ad esempio che lipotesi nulla sia del tipo:

Y
Densit '5 '5J

'5 = A = B
Abbiamo allora:

1
Consideriamo in particolare:

'5 = P)+ Et = = 1, , V
V

: '5 ' P)+ ,) E =


Consideriamo invece come ipotesi alternativa:

Statistica test
La statistica test pu essere costruita contando quante volte ogni possibile modalit si ripete nei dati


raccolti:
Y
Densit 5 = '5 '5 '5J
'5 '5 Y
Freq. reali K K KY
Freq. attese

Dove K il numero di osservazioni su nelle quali si ha = . Sappiamo che:


K ~U ,'

K ~U A , '5 B
In particolare, sotto lipotesi nulla, avremo:

Pag. 78
Appunti di Statistica

;!K " = '5


Da cui ricaviamo facilmente:

Possiamo allora aggiungere alla precedente tabella una riga contenente la misura della distanza dal valore


atteso per la frequenza di ogni diversa modalit:
Y
Densit 5 = '5 '5 '5J
'5 '5 Y
Freq. reali K K KY
Freq. attese

WK '5 X AK '5 B AKY '5 Y B


.
'5 '5 '5 Y
Definiamo a questo punto la statistica:

WK '5 X
Y

= <L M
'5

Che rappresenta proprio la statistica test del test chi-quadro di buon adattamento di Pearson.

K + '5 2 '5 K
Si noti che, anche se definito dalla precedente espressione, pu anche essere calcolato come:
Y Y Y Y
K K K
= < = < + '5 2K = < + 2 =<
'5 '5 '5 '5

La regione critica

Rifiuto 5 se N , dove N : 7 + ' E 5 =


Il test prevede che:

Per meglio definire la regione critica, quindi necessario valutare N , che si ricava facilmente essere:
N = O%7 1

lim =
Siccome si ha:

P`^ /J
Possiamo affermare che, allaumentare delle osservazioni, il modello simile al modello chi-quadro; per

N = O%7 1 YZ 1
sufficiente grande, avremo allora:

Condizione pratica per luso del test

30
Nella pratica si pu usare questo test se valgono le seguenti ipotesi:

'5 5 per ogni =.

Alcuni libri di testo usano una diversa condizione pratica, imponendo '5 1 per ogni = e '5 > 5 per
almeno l80% delle modalit.
Dati non categorici ipotesi nulla semplice
Fino ad ora abbiamo considerato solamente dati categorici. Tuttavia, abbiamo gi affermato che si pu in
realt trattare anche di dati continui o discreti, per i quali definito il concetto di funzione di ripartizione. In

5 : ~ 5 A.5 , , .5 B
tal caso, avremo unipotesi nulla del tipo:

Dove una variabile aleatoria continua o una variabile aleatoria discreta numerabili. Considereremo
inizialmente solo ipotesi nulle semplici.

Pag. 79
Appunti di Statistica

numero V di intervalli del tipo:


In questo caso, si parte dai dati grezzi, i quali vengono discretizzati tramite la costruzione di un certo

Y
5 , " , " YZ , Y "
Si noti che lestremo superiore Y pu anche essere infinito.

analogamente a quanto visto nel caso precedente, chiamiamo K tale quantit.


Dopo tale operazione, si contano quante osservazioni cadono in ciascuna delle classi cos individuate e,

Si calcolano poi le probabilit che una distribuzione del tipo specificato dallipotesi nulla assuma un valore,
di volta in volta, in ciascuno degli intervalli :
'5 = 7
A B = 5 A B A Z B


Si ottiene cos una tabella del tipo:
Y
K K K KY
'5 '5 '5 '5 Y
'5 '5 '5 '5 Y
A questo punto possiamo procedere esattamente come descritto nel caso con modalit.
Osservazioni
1. Alcune classi possono in realt essere dei valori singoli, altre possono essere intervalli limitati o
illimitati.

canto per se V troppo grande, si ha il rischio di avere classi con un numero di elementi troppo bassi,
2. La scelta nel numero di classi un punto critico: pi classi si costruiscono, pi il test affidabile; daltro

al punto da far cadere la validit delle approssimazioni asintotico.


3. Il posizionamento dei tagli un altro punto difficile da risolvere. Se lintervallo limitato, allora
possibile posizionare i tagli tra i vari intervalli in modo da ripartire uniformemente lo spazio dei valori
che possono essere assunti; altrimenti, si sceglie in genere una ripartizione uniforme in termini di
probabilit (calcolate ovviamente sotto lipotesi di validit di 5 ).
Dati non categorici ipotesi nulla composta

5 : ~ 5 A.5 , , .5 B
Nel caso in cui lipotesi nulla sia composta, ovvero del tipo:

'5 = 5 A B 5 A Z B
Con almeno uno dei parametri incogniti, chiaro che le quantit:

Dipendono da parametri incogniti; si stimeranno perci tali parametri con opportuni stimatori . , e quindi

'5 = 5 A ; . , . , . B 5 A Z ; . , . , . B
si potr calcolare:

Dopodich il modo di procedere lo stesso descritto nei precedenti casi, salvo il fatto che al termine la
statistica test da considerare :

WK '5 X
Y

$ = < L M
'5

$ YZ 1
E che lipotesi nulla viene rifiutata nel caso:
Z
Dove + il numero di parametri stimati sotto 5 .

Pag. 80
Appunti di Statistica

Test chi-quadro di indipendenza


Abbiamo gi introdotto in passato il T-test di indipendenza, valido per campioni gaussiani. Cerchiamo ora

e F, che possono essere discreti, categorici o continui.


di introdurre un test pi generico che ci consenta di capire se si pu escludere lindipendenza tra 2 caratteri

5 : ) F E E P) ) : ) F E E E P) )
Avremo allora:

Supponiamo che e F possano assumere rispettivamente le modalit e in tabella; nella tabella sono
Dati categorici

,F ,, ,F . . .
indicate anche le frequenze. In particolare, si ha a monte un campione accoppiato bidimensionale:

E quindi possiamo contare quante sono le coppie K nelle quali la ha modalit e la F ha modalit ,
e cos via:

K
Y

K K K K = <K

K K K K = <K

K K K K = < K

K K = < K K = < K . K = < K



Nella tabella sono riportate inoltre le somme per righe e per colonne. Ovviamente:

< < K =

5 : A = , F = B = P = = AF = B, , =
Possiamo inoltre tradurre lipotesi iniziale scrivendola come:

Quindi, calcoliamo il numero atteso di coppie , F su nelle quali si ha = e F = sotto lipotesi che
5 sia vera; tale quantit sar:
P
Se P incognito, possiamo stimarlo con:
= K
P = =

F = K
E, allo stesso modo:

< = =

, F su che hanno = e F = pari a:


K K K K
Perci, il numero di coppie

P < = =

Pag. 81
Appunti di Statistica

5 per , F ed i dati, si calcola:


K K
Per valutare la distanza tra il modello specificato dalla

|K }
$ = < <
K K

che ricopre il ruolo di statistica test.

Se sufficientemente grande, rifiuto 5 a livello se


Regione critica

$ 1 = Z Z#ee z zez 1

stimato tutte le marginali P e , per un totale rispettivamente di + e + parametri; tuttavia, lultima


In particolare, per valutare il numero ei parametri stimati, dobbiamo ricordare che in sostanza abbiamo

#P + ,) + , =+ 1++ 1
marginale pu sempre essere ottenuta come differenza tra uno e la somma delle precedenti, quindi:

+ + 1+ +1+ +1= + + + +1+ = + + 1 + 1 = + 1 + 1


E in conclusione il numero di gradi di libert sar:

Affinch il test possa essere eseguito necessario in pratica che si abbia 30 e che si abbiano almeno 5
Condizione pratica

osservazioni in ogni classe.


Caso continuo
Nel caso in cui le variabili aleatorie di partenza siano continue, anche in questo caso dobbiamo

test di buon adattamento.


semplicemente eseguire dei raggruppamenti in intervalli opportunamente scelti, cos come nel caso del

Osservazioni
Il test appena introdotto un test non parametrico, perch confronta la statistica test con lo stesso
quantile, che dipende solamente dal livello di significativit del test. Questi tipi di test sono anche detti
distribution-free.

Test di Kolmogorov-Smirnov (buon adattamento)


Il test

5: ~ 5 : 5
Il test di Kolmogorov-Smirnov un test di buon adattamento:

, , . . . ~
Che si esegue partendo da un campione del tipo:

Si noti che la distribuzione indicata nellipotesi nulla deve essere una distribuzione di probabilit continua
completamente specificata.
Lidea di base: funzione di ripartizione empirica


Il test si basa sulluso della funzione di ripartizione empirica, ovvero:
=

Pag. 82
Appunti di Statistica

La funzione di ripartizione empirica gode delle seguenti propriet:


1. Siccome la variabile aleatoria:

U A , B
una variabile binomiale con distribuzione binomiale:

U A , B
Abbiamo:

;I J = ; o p= =

Possiamo quindi affermare che si tratta di uno stimatore puntualmente non distorto.

A1 B A1 B
2. La varianza della funzione di ripartizione campionaria (per lo stesso motivo):

? I J = =
Quindi si nota che la varianza tende a 0 per +: si ha di conseguenza anche la propriet di

3. Per il teorema centrale del limita, la legge asintotica di ;


consistenza in media quadratica.


A1
B

,

4. Definito con 5 il numero:


sup 5

limP`^ 5 = 0 con probabilit 1


Vale il teorema di Glivenko-Cantelli:

costante a tratti e monotona crescente, continua da destra, con asintoto a 0 per e ad 1 per
5. Se si rappresenta il grafico della funzione di ripartizione,s i ottiene necessariamente una funzione

+. In sostanza quindi il grafico rispetta il tipico andamento di una funzione di ripartizione di


variabile aleatoria discreta.
I salti si hanno sempre e solo nei punti che corrispondono ai valori dei dati del campione considerato. Il
salto ha ampiezza pari alla frequenza relativa. Lunica informazione che viene persa rappresentando il
grafico della funzione di ripartizione rispetto a fornire tutti i dati del campione lordinamento dei dati,
che per nel nostro caso non ha alcuna importanza.
Statistica test

5 = sup
La statistica test :

Se 5 la vera funzione di ripartizione che ha generato i dati, allora 5 non dipende da 5 ed quella
Risultati

tabulata nelle tavole dei quantili di Kolmogorov-Smirnov.

Rifiuta 5 se 5 > T2 1
Possiamo allora utilizzare la regione critica descrivibile mediante la frase:

Per il calcolo pratico di 5 sufficiente valutare ci che accade a sinistra e a destra dei punti nei quali si
Osservazione


hanno i salti, ovvero calcolare per ogni dato le differenze:

Z
E

Si individua poi il massimo tra tutti questi valori.

Pag. 83

Vous aimerez peut-être aussi