Académique Documents
Professionnel Documents
Culture Documents
2011
Statistiques 3
1
2
Cours de Statistiques 3
Ecrit et paginé par
Sylvain Plasman
Remerciements spéciaux à :
Serghei Podorvaniuc,
Katarina Palusekova,
Maria Camila Porras Rivera,
et Victor Pluskwa
Sans qui le cours serait incomplet...
Merci de les signaler sur le forum de la faculté de sciences économiques de l'UM1, à cette
adresse :
2
3
Sommaire
Chapitre I P.008
Chapitre II P.023
Convergences statistiques
I. Convergence en probabilité P.023
A. Définition P.023
B. Condition de convergence en probabilité P.023
II. Convergence en loi P.024
A. Définition P.024
B. Cas particuliers de convergence en loi P.025
Echantillonnage
I. Définition P.027
A. Echantillon Théorique Aléatoire Probabilisé P.027
B. Echantillon Théorique ou Observé P.027
3
4
Chapitre IV P.036
L’estimation ponctuelle
I. Notations et définition P.036
II. Les propriétés de l’estimateur P.036
A. Estimateur sans biais (sans distorsion, centré) P.036
B. Estimateur convergent P.037
C. Estimateur efficace (Inégalité de Fréchet Rao Cramer Darmois P.037
– FRCD)
D. Estimateur exhaustif P.038
III. La méthode du maximum de vraisemblance P.038
IV. Les théorèmes de Dugué P.038
Chapitre V P.042
4
5
Chapitre VI P.055
5
6
Test paramétriques
I. Test de significations des paramètres P.066
A. Problématique P.066
B. Test de signification de la moyenne d'une loi normale lorsque P.067
l'écart type de la population est connu
C. Test de signification de la moyenne d'une loi normale lorsque P.069
la variance est inconnue
D. Test de signification de la variance de la loi normale P.070
E. Test de signification d'une proportion P.072
II. Test de comparaison ou d'égalité des paramètres P.073
A. Problématique P.073
B. Test de comparaison des moyennes de deux lois normales P.073
lorsque les variances sont connues
C. Test de comparaison des moyennes lorsque les variances sont P.077
inconnues
D. Test de comparaison de variances de deux lois normales P.079
E. Test de comparaison de deux proportions P.080
III. Test de comparaison sur plus de deux paramètres P.082
A. Test de comparaison de plusieurs moyennes P.082
B. Test de comparaison de plusieurs variances P.089
C. Test de comparaison de plusieurs proportions P.090
6
7
7
8
Chapitre I
Les lois de la distribution statistique : les modèles continus
S’applique à une variable statistique qui est la résultante d’un nombre de causes indépendantes
dont les effets s’additionnent et dont aucune n’est prépondérante.
Ex :
Changement de variable
2 2
8
9
Calcul de
La fonction est paire si je change ua-u, la fonction ne change pas. Donc l’intégrale d’une
fonction faire est égale à 2 fois l’intégrale sur la moitié du domaine.
Si impaire :
Changement de variable
2
2
appel : 2
ici 2
2
or
2 2
u m
2
9
10
2 2
2 2
2 2 2
2 2 2 2 2
2 2
2
2 2
2 2
Rappel : n n
2
2 2
10
11
après changement de variable la probabilité que u se trouve dans l’intervalle de u u du est égale à
avec
2
2 2
2
:
2 2 2 2
11
12
2
’’ –
2 2
’’
2
Médiane :
Fonction répartition
Toutes les tables de la loi normale se ramènent à celle de la variable normale centrée réduite U
Cette table donne la densité de probabilité f(u) correspondante aux valeurs positives de la
variable normale centrée réduite
12
13
2 2
On procède par interpolation linéaire lorsque l’on a besoin de calculer des densités
correspondantes à des valeurs u intermédiaires à celle correspondant, grâce à la continuité (loi
normale)
Pour
2
2
13
14
Cette table donne pour toutes valeurs positives de la variable normale centrée réduite la
valeur correspondante de la fonction de répartition .
Pour
2 2
2 2 2
2 2
2 2
Cette table permet de trouver la valeur d’une variable aléatoire normale centre réduite en
fonction de la probabilité P de déplacement ou de la probabilité complémentaire
14
15
lecture directe de
D. Conditions d’application
2 .
15
16
Rappel :
Rappel :
indépendant
16
17
indépendantes
Leur espérance mathématique est leur variance existe
o
o
Le rapport de la variance d’un élément particulier de la suite à la somme des variances
tend vers 0 quand n tend vers +
o quand
o Cette condition peut s’interpréter cette façon : la variabilité dû à un facteur de
fluctuation particulier est faible par rapport à la variabilité totale de x dû à
l’ensemble des facteurs
On suppose :
On suppose que les moyennes sont égales et que les variances soit égales et que ces
variables aléatoires suivent des lois de mêmes natures, de même moyenne et de même
écart-type
On suppose que les variables aléatoire suivent des lois de même nature, même moyenne
et même écart-type et suivent des lois indépendantes. La somme des est
asymptotiquement normale de moyenne mn et d’écart type sigma racine n :
o
17
18
Les phénomènes qui peuvent être considéré comme engendré par un grand nombre de causes
élémentaires de fluctuation agissant de façon indépendants seront susceptibles d’être
représentés par la loi normale. La loi normale est l’approximation de la loi binomiale lorsque la
taille de l’échantillon tend vers .
I. Loi du Khi² ( )
A. Définition
Loi de probabilité
Ӿ² a un degré de liberté : Ӿ
Ӿ 2
Ӿ 2
Ӿ
18
19
La somme de n variables aléatoire centrée réduite constitue la loi du Khi² à n degré de liberté
Ӿ
.
2 2
Ӿ
Ӿ 2
La loi de distribution du Khi² est une loi de distribution dissymétrique avec étalement sur la
droite, toutefois elle tend à devenir symétrique quand le nombre de degré de liberté qui
augmente.
La variable aléatoire du Khi² à n degré de liberté a été défini comme la somme des carrées de n
variables aléatoires normales centrés réduites, considéré n VANCR indépendantes revient à se
placer en n dimensions. Le nombre de degré de liberté suivit par cette somme correspond au
nombre de dimension de l’espace dans lequel se situe les points représentatifs des valeurs du
Khi².
La distribution du Khi ne dépend que d’un seul paramètre le nombre de degré de liberté.
La table est un tableau à double entrée. En colonne, la probabilité, en ligne, le degré de liberté.
Ӿ Ӿ
Ӿ.
Ӿ. 2
19
20
Lorsque , on admet 2Ӿ 2
Soit
Ӿ
.
Ӿ
Rappel : Ӿ t 2it
2 2
2 2
2 2
A. Définition
Rapport entre une loi normale centrée réduite et la racine carrée d’un Khi sur son degré de
liberté.
2 2
20
21
2 2 2
. 2
2 2 2
. 2 .
2 2
et
Exemple :
à gauche à droite
A. Définition
La variable de Fisher-Snedecor est constituée par le rapport de deux Khi² rapportées à leur
degré de liberté (Les Khi² étant indépendants)
21
22
Ӿ
Ӿ
22
23
Chapitre II
Convergence statistiques
Définition :
Une suite numérique converge vers une limite lorsqu’il existe un seuil au delé duquel
les sont proches de la limite. Une suite de variables aléatoires peut converger lorsque
augmente indéfiniment soit vers un nombre certain et donc on parlera de convergence en
probabilité, soit vers une autre variable aléatoire : convergence en loi.
I. Convergence en probabilité
A. Définition
Une suite de variable aléatoires définies sur le même espace fondamentale par ou
ou bien par converge en probabilité vers le nombre certain si
tend vers
Théorème de Bienaymé-Tchebychev
Définition : Pour une suite de variable aléatoire converge en probabilité vers un nombre
certain et qu’il suffit que l’espérance mathématique de tend vers et que la variance de
tend vers lorsque tend vers
2ème condition
Théorème de Bernoulli
répétitions
23
24
Caractéristique de :
3ème condition
Notée :
Conséquence : Si une suite de variables aléatoires converge en moyenne quadratique vers elle
converge aussi en probabilité vers quand
4ème condition
Théorème de Slutsky
A. Définition
Notée :
24
25
Remarque :
Première convergence :
2ème convergence
3ème convergence
4ème convergence
5ème convergence
Degré de Liberté
25
26
6ème convergence
Ӿ 2Ӿ 2
26
27
Chapitre III
Echantillonnage
I. Définition
Soit une variable aléatoire (notée : ) définie dans une population. Elle est caractérisée par
sa loi de probabilité.
.
Ӿ
27
28
A. Etude de
B. Etude de
: :
appel:
28
29
S variable d’échantillon est appelé estimateur avec biais de la variance de population. Le biais
étant égale à . Cependant est dit estimateur sans biais de la variance de population.
Démonstration à savoir refaire on s’en sert de cette démonstration pour montrer que la
variance d’échantillon d’une loi normale possède un biais
29
30
: : :
or
30
31
2
.
Cas particulier
III. Loi de probabilité de variable d’échantillonnage fondée sur l’hypothèse de normalité : cas
d’un échantillon
Echantillon IID
A. Loi de
31
32
Rappel :
C. ???
Hypothèse :
A. Loi de la différence de moyenne lorsque les variances des populations sont connus
32
33
D’ s t Chap.1 I.D.
Ӿ
Ӿ 2
Ӿ
Hypothèse :
Ӿ 2
33
34
Ӿ
.
Ӿ
Ӿ
.
Ӿ
.
Ӿ
.
Ӿ
.
34
35
35
36
Chapitre IV
L’estimation ponctuelle
I. Notations et définition
Soit une population caractérisée par une variable aléatoire , cette variable dépend d’un
paramètre . On prélève un échantillon IID é
Sans biais
Convergent
Efficace
Exhaustif
est dit estimateur sans biais si l'espérance de l'estimateur est égale à sa vraie valeur
36
37
B. Estimateur convergent
L’estimateur qui définit une loi est dit convergent si converge en probabilité vers sa vraie
valeur
et
bsolument convergent
Cette inégalité permet de rechercher un estimateur efficace sous des conditions très générales
(Existence de dérivés sous l’opérateur et continuité de la fonction)
et de inconnu
Estimateur ef icace
37
38
Pour démontrer l’efficacité d’un estimateur si cet estimateur est sans biais il suffit de montrer
qu’il atteint la borne de l’inégalité Fréchet ao Cramer Darmois )
D. Estimateur exhaustif
Un estimateur exhaustif s’il résume toute l’information relative aux paramètres disponibles sur
l’échantillon. On recherche alors la famille des estimateurs exhaustifs tels que l’on ait la
décomposition suivante :
exp ou exp
Cette méthode est une méthode d’estimation ponctuelle. Elle permet de déterminer
l’estimateur d’un paramètre inconnu d’une loi définie dans une population. Cette fonction de
vraisemblance se calcule à partir de l’échantillon empirique.
V discrète
ou V continue
On calcule alors :
38
39
1)
39
40
(Rappeler la loi)
2)
On sait que
Si bsolument convergent
3)
40
41
Estimateur ef icace
4)
exp ln exp
ln
ln
pour
est exhaustif.
41
42
Chapitre V
Estimation par intervalle de confiance
Il s’agit ici de trouver une estimation par intervalle de confiance d’un paramètre , c'est-à-dire
de construire « une fourchette de valeurs numériques permettant de situer ».
On dispose toujours d’un échantillon IID et d’un estimateur , d’un paramètre inconnu vérifiant
les 4 propriétés du chapitre précédent.
m m
IC
IB (Intervalle Bilatéral)
2 IBS (Intervalle Bilatéral Symétrique)
IUD (Intervalle Unilatéral Droit)
IUG (Intervalle Unilatéral Gauche)
42
43
Problème :
IB
43
44
ou
1) IBS
2
.
2)
2 .
. 2
2 2
. 2
IUG(BS)
IUD (BS)
44
45
inconnu
Problème :
IB
IBS
IUD
45
46
IUG
Problème :
IB
Ӿ Ӿ Ӿ
Ӿ Ӿ
Ӿ Ӿ
IBS
Ӿ Ӿ Ӿ
Ӿ Ӿ
Ӿ Ӿ
IUD
46
47
Ӿ Ӿ
IUG
BS
Ӿ Ӿ
Problème :
IB
47
48
Méthode de l’estimateur
IBS
2
2
IBS
48
49
Les points qui satisfont à cette inégalité sont les points intérieurs d’une ellipse dont l’équation
est la suivante :
Intervalle :
IBS
49
50
IBS
50
51
En valeur absolue
1ère Population :
51
52
2ème Population :
Problème :
IB
IBS
IUG
IUD
B. Intervalle de confiance de la différence des moyennes lorsque les variances des populations
sont inconnues
inconnu 2
52
53
Hypothèse :
IB
IBS
Problème :
IBS
Pour obtenir l’encadrement soit on inverse l’intervalle soit on constitue la loi de Fisher
53
54
Problème :
IB
IBS
Trois méthodes :
Par excès :
Estimateur :
Abaque :
54
55
Chapitre VI
Construction d’un test d’hypothèse : Aspect méthodologique
D s it d t, sq ’ f si t v sd fi , d s
paramètres de population avec les intervalles de confiance. A partir de ce chapitre, on connait a
priori les paramètres de population, donc on va tester ces valeurs supposées connues.
O d i y t s q ’ t . L t st b td s ’ d q ti d
cette hypothèse à la réalité observable (c'est-à-di s s t ts d is ’ ti ).
L v d θ st i is id d t
O t st ’ y t s id d i
O d it i isq d’ isq d i s , t
Décision
du
test
55
56
Un test est considéré comme très précis lorsque sa puissance est grande
O d fi it gi itiq t gi d’ t ti :
s d fi i , d à d t d ’ sti t d t inconnu de la
population dont les bornes seront formées à partir des hypothèses.
I t v d t t
D fi i s ti g d’ ti ( x-post).
O ’i t v d’ t ti t d d isi à ti d’ v
particulière de la statistique retenue.
56
57
U t st st dit t iq sq ’ t t d t x i ’ y t s st f
termes qualitatifs. 2 types de tests non paramétriques :
o L s t sts d’ d q ti :
O t st is s d’ v i b t i de population .
Lois utilisables : Loi Normale, Loi Binomial, Loi de Poisson, Bernoulli
o L s t sts d’i d d :
O t st ’i d d d d x t s iss s d’ ê ti .
exemple, le rapport accident de la route/âge
Tests paramétriques
2 types de tests paramétriques :
o Les tests de signification :
On teste la signification du paramètre
La démarche suivante est la même pour tous les tests énoncés précédemment.
Niveau population :
Enoncer les hypothèses
Loi de la variable aléatoire dans la population
57
58
Chapitre VII
Test du Khi deux
I. Test d’adéquation
A. Données du problème
continue discrète
Classes Effectifs
B. Construction du test
1. La formulation de l’hypothèse
58
59
On va tester o
Pour pouvoir tester cette hypothèse il faut prendre l’estimateur de paramètre de la loi si ces
paramètres ne sont pas connus)
Les estimateurs pris dans le test seront les estimateurs issus de la méthode de maximum de
vraisemblance possédant les 4 propriétés requises.
Comme on suppose cette hypothèse comme vraie, on peut calculer les probabilités rattachées
à chaque classe :
Dans le cas d’une continue,
Dans le cas d’une discrète,
2. La fonction discriminante
L’adéquation entre et l’observation est mesurée par une distance entre la distribution
empirique et la distribution théorique, c'est-à-dire par une fonction des écarts entre les et
les
59
60
Ceci est une statistique d’échantillonnage puisque les sont associés à l’échantillon prélevé.
Cette statistique d’échantillonnage est retenue comme fonction discriminante du test
d’adéquation d’une distribution empirique.
Pearson a démontré que cette statistique convergeait vers un Ӿ dont le degré est , avec
: nombre de classes
: nombre de paramètres à estimer (2,1 ou 0)
Ӿ Ӿ avec vraie
3. La région critique
Ӿ Ӿ
rejeter vraie
Ӿ Ӿ
4. La règle de décision
60
61
C. Considérations pratiques
Si on a des clases avec de très faibles probabilités les seront petits aussi donc les vont
augmenter artificiellement la du Ӿ
A. Données du problème
On a un échantillon aléatoire de taille prélevé dans une population dont les individus
possèdent 2 caractères et
A\B . .
.
. .
. . . .
61
62
B. Construction du test
1. La formulation de l’hypothèse
: Indépendance entre et
possède modalités
possède modalités
Dépendance entre et
2. Fonction discriminante
On calcule une distance entre les effectifs observés et les effectifs théoriques correspondant au
cas de l’indépendance.
Le test du Ӿ d’indépendance est donc constitué à partir du calcul de leur distance
Fonction discriminante :
Ӿ Ӿ vraie
: Effectifs observés
Effectifs théoriques correspondant au cas de l’indépendance
Nombre de classes
Nombre de paramètres à estimer
A\B . .
.
. . .
.
. . . .
. paramètres à estimer
. paramètres à estimer
62
63
Simplification de l’expression du Ӿ
. .
On sait que . et . et . .
. .
. .
. .
. .
. .
. .
. . . .
2
. . . . . .
2 . .
. .
2 . .
. .
63
64
2
. .
. .
Ӿ Ӿ vraie
. .
C. Considération pratique
A\B . .
.
.
. .
.
. . . .
Ӿ
. .
64
65
A\B . .
.
.
. . . .
Peut-on considérer que tous ces échantillons sont issus de la même population ?
Si oui on dira qu’il y a homogénéité dans la population
Si non on dira qu’il y a hétérogénéité
Ӿ Ӿ vraie
. .
RDD
65
66
Chapitre VIII
Tests paramétriques
2 catégories de test :
Test de signification
Test de comparaison
A. Problématique
est connu
Fonction discriminante
Région critique
Règle de décision
66
67
B. Test de signification de la moyenne d’une loi normale lorsque l’écart type de la population
est connu
est vraie
RDD
accepter vraie
67
68
vraie
vraie
RDD
68
69
vraie
RDD
vraie
RDD
C. Test de signification de la moyenne d’une loi normale lorsque la variance est inconnue
inconnu
69
70
vraie
RDD
Remarque :
70
71
Ӿ Ӿ Ӿ
Ӿ Ӿ
Ӿ Ӿ
RDD
Ӿ Ӿ
Ӿ Ӿ
71
72
2 modalités
RDD
72
73
A. Problématique
inconnus
fonction discriminante
B. Test de comparaison des moyennes de deux lois normales lorsque les variances sont connus
IID
connus
73
74
vraie
RDD
accepter vraie
vraie
74
75
75
76
RDD
RDD
76
77
RDD
inconnus
77
78
2 2
RDD
78
79
inconnus
79
80
à utiliser si
vraie
RDD
et
événement
2 modalités mutuellement exclusives
événement
et
événement
2 modalités mutuellement exclusives
événement
80
81
vraie
(Pas eu le temps de tout noter : Il s'agit de la démonstration prouvant que la méthode par estimation
ne peut être utilisé dans ce cas)
Estimateur commun
81
82
82
83
s’assurer qu’il existe une hétérogénéité des moyennes considérées globalement. On utilise
l’analyse de la variance ) pour comparer les moyennes de plus de deux
populations. On parle d’ à un facteur lorsque les groupes analysés se distinguent par
qu’un seul facteur qualitatif d’ à deux facteurs si les groupes se distinguent par deux
facteurs qualitatifs
Généralités sur l’
Le problème est le suivant : Il faut comparer les moyennes de plus de deux populations. Il est
incorrect de se contenter de comparer les échantillons deux à deux par un test de Student (si les
écarts types sont inconnus ou de la loi normale si les écarts types sont connus . Si l’
permet de s’assurer que l’ensemble des moyennes n’est pas homogène on peut uniquement
dans ce cas comparer des moyennes deux à deux.
Notations
La SCE factorielle est du à la dispersion des échantillons les uns par rapports aux autres,
elle permet de calculer une variance interclasse
La SCE résiduelle est du à la dispersion des observations au sein des différents
échantillons. Elle permet de calculer une variance intraclasse
83
84
Estimation des
La Somme des écarts total et la somme des écarts de toutes les observations à la
moyenne générale
avec
La Somme des carrés des écarts résiduelle est la somme des carrés des écarts au sein de
chaque échantillon (somme cumulée)
La Somme des carrés des écarts factorielle est la différence entre la Somme des carrés
des écarts total et la Somme des carrés des écarts résiduelle. n’utiliser que pour
vérifier.
A la Somme des carrés des écarts total, on lui associe une variance totale
A la résiduelle on lui associe une variance intra échantillon que l’on appelle aussi carré
moyen résiduel
intra
la SCE factorielle on lui une variance inter échantillon que l’on appelle aussi carré moyen
factoriel
inter
84
85
On effectue un test de Fisher pour comparer les différentes moyennes, la valeur de Fisher
calculée sera notée
obs
intra
inter
RDD
Le test de Scheffé permet de comparer des moyennes deux à deux. On l’utilise après avoir fait le
test de Fisher et si le test de Fisher montre qu’il y a hétérogénéité.
intra
Si vraie
intra
RDD
85
86
Exercice :
On examine la production laitière journalière de 5 vaches de 3 races différentes
La production de lait d’une vache dépend elle de sa race ?
1)
ace : 2
ace 2 : 2
ace :
2 2 2
2
86
87
2)
résiduelle 2 2
2 2 2 22
3)
Factorielle
2 2 2 2 2
Totale
intra 2
F
inter 2
inter 2
2
intra 2
RDD
87
88
. 2 2
Comme on vient de montrer que l’hypothèse d’homogénéité des moyennes est rejetée on peut
effectuer des comparaisons de moyennes deux à deux.
Test de Scheffé
Sous 2
intra
2 2 2
2 2 2
88
89
Test de Bartlett
Conditions d’utilisation
populations inconnues
La distribution de la variable aléatoire dans chacune des populations suit une loi
normale
échantillon aléatoire ind
Statistiques d’échantillon
Ӿ ln ln
Ӿ Ӿ
Test
RDD
89
90
Exercice :
2 2
2
2
22
2
2 2
2
2
Ӿ 2 ln 2 ln ln 2 ln 2
Ӿ. Ӿ. 2
Test de Marascuilo
populations échantillons
Effectif empirique
n. .
Effectifs théorique espéré
Ӿ Ӿ
90
91
RDD
Exercice :
On veut savoir si le pourcentage d’étudiants qui songe à s’inscrire est identique à chaque UF
30 29,33 0,02
32 36,49 0,55
25 21,18 0,69
60 60,67 0,01
80 75,51 0,27
40 43,82 0,33
Ӿ. Ӿ. 2 Ӿ. 2
La proportion d’étudiant désirant s’inscrire en cours de Statistique est donc la même dans
chaque UFR.
91
92
Signé par :
(^)(^)
^ ^
(= - =)
(‘’) (‘’)
POOKIPOOKI votre fidèle serviteur …
92
93
93
2010
94
2011
Statistiques 3
94