Académique Documents
Professionnel Documents
Culture Documents
Cours (1e Partie) PDF
Cours (1e Partie) PDF
Page 1
LICENCE Scientifique
Cours Henri IMMEDIATO
Statistiques
1. Gnralits.
2. Statistique descriptive univarie.
2.1. Reprsentation graphique.
2.2. Paramtres caractristiques.
2.2.1 Paramtres de position
2.2.2 Paramtres de dispersion
2.2.3 Paramtres de forme
5. Rgression multiple.
5.1. Position et rsolution du problme.
5.2. Coefficient de corrlation multiple.
5.2.1 Dfinition.
5.2.2 Proprits.
5.2.3 Application : technique de la rgression pas pas.
Page 1
LICENCE Scientifique
Cours Henri IMMEDIATO
STATISTIQUE
Chapitre I - GENERALITES.
I. 1. OBJET DE LA STATISTIQUE
Le but de la statistique est de dgager les significations de donnes, numriques ou non, obtenues au
cours de l'tude d'un phnomne.
Il faut distinguer les donnes statistiques qui sont les rsultats d'observations recueillies lors de
l'tude d'un phnomne, et la mthode statistique qui a pour objet l'tude rationnelle des donnes.
La mthode statistique comporte plusieurs tapes.
I. 2. VOCABULAIRE STATISTIQUE
I. 2. 1. Population
C'est l'ensemble des units ou individus sur lequel on effectue une analyse statistique.
? = {? 1, ... , ? N} avec card(? ) = N fini
Ce vocabulaire est hrit du 1er champ d'application de la statistique : la dmographie (Vauban
(1633-1707) effectua des recensements pour des tudes conomiques et militaires).
Page 2
Exemples de populations.
Les vhicules automobiles immatriculs en France
La population des P.M.E. d'un pays
Les salaris d'une entreprise
Les habitants d'un quartier
I. 2. 2. Echantillon
C'est un ensemble d'individus prlevs dans une population dtermine
Exemple d'chantillon.
L'chantillon des vhicules automobiles immatriculs dans un dpartement.
I. 2. 3. Caractre
C'est un trait dtermin C prsent chez tous les individus d'une population sur laquelle on effectue
une tude statistique.
- Un caractre est dit quantitatif s'il est mesurable.
Exemples de caractres quantitatifs.
La puissance fiscale d'un vhicule automobile.
Le chiffre d'affaire d'une P.M.E.
L'ge, le salaire des salaris d'une entreprise.
- Un caractre est dit qualitatif s'il est reprable sans tre mesurable.
Exemples de caractres qualitatifs.
La couleur de la carrosserie d'un vhicule automobile
Le lieu de travail des habitants d'un quartier
Le sexe et la situation matrimoniale des salaris d'une entreprise
I. 2. 4. Modalits
Ce sont les diffrentes situations Mi possibles du caractre.
Les modalits d'un caractre doivent tre incompatibles et exhaustives ; tout individu
doit prsenter une et une seule modalit.
Les modalits d'un caractre qualitatif sont les diffrentes rubriques d'une
nomenclature ; celles d'un caractre quantitatif sont les mesures de ce caractre.
L'ensemble des modalits est not E.
Pour un caractre quantitatif, la mesure du caractre peut tre un nombre entier pris parmi un
ensemble limit ; nous dirons qu'il est discret.
Exemple de caractre quantitatif discret.
Le nombre d'enfants d'une famille (fratrie)
Page 3
Dans certains cas la mesure du caractre peut tre un nombre dcimal pris parmi un ensemble de
valeurs possibles trs important (plusieurs dizaines ou plusieurs centaines).
Pour permettre une tude et notamment une reprsentation graphique plus simple, nous sommes
conduits effectuer un regroupement en classes (5 20 classes) ; nous dirons alors que le caractre
est continu.
Dans ces deux situations, nous dirons que le caractre quantitatif est dfini par ses modalits (valeurs
discrtes ou classes).
Les modalits d'un caractre quantitatif peuvent tre prises dans
ou
Ai = ? .
Page 4
= fi, N =
ni.
La notion d'effectif d'une modalit est une notion absolue, elle ne permet pas directement les
comparaisons.
La notion de frquence est une notion relative, elle permet directement les comparaisons.
Remarque.
Si le caractre C ne prsente qu'une modalit a dans la population, on parle de variable, ou de
distribution, statistique constante {(a, ? , N)}.
Page 5
a) Diagramme en btons.
Nous portons en abscisse les modalits, de faon arbitraire.
Nous portons en ordonne des segments dont la longueur est proportionnelle aux effectifs (ou aux
frquences) de chaque modalit.
Nous appelons polygone statistique, ou diagramme polygonal, la ligne obtenue en joignant les
sommets des btons.
b) Tuyaux d'orgue.
Nous portons en abscisses les modalits, de faon arbitraire.
Nous portons en ordonnes des rectangles dont la longueur est proportionnelle aux effectifs, ou aux
frquences, de chaque modalit.
c) Secteurs.
Les diagrammes circulaires, ou semi-circulaires, consistent partager un disque ou un demi-disque,
en tranches, ou secteurs, correspondant aux modalits observes et dont la surface est
proportionnelle l'effectif, ou la frquence, de la modalit.
Ces diagrammes conviennent trs bien pour des donnes politiques ou socio-conomiques.
d) Exemple.
En 1982, les recettes du budget de l'Etat se prsentaient de la faon suivante (en milliards de francs) :
Le caractre tudi, la nature des recettes du budget de l'Etat, est un caractre qualitatif.
Page 6
Dans la reprsentation en tuyaux d'orgue, les diffrentes modalits du caractre (les diverses
sources de recettes du budget de l'Etat) sont reprsentes par des segments sur l'axe des ordonnes.
Pour chaque abscisse on porte un rectangle dont la longueur est proportionnelle au montant
correspondant de la recette (effectif).
Dans la reprsentation par diagramme en btons, les diffrentes modalits du caractre (les diverses
sources de recettes du budget de l'Etat) sont reprsentes par des points sur l'axe des ordonnes.
Pour chaque abscisse, on porte un segment vertical dont la longueur est proportionnelle au montant
correspondant de la recette (rectangle de largeur nulle).
Dans le diagramme circulaire, chaque secteur a une surface proportionnelle l'importance de la
recette dans le budget. L'angle au centre reprsentant une modalit est donc proportionnelle
l'importance de la recette dans le budget.
Page 7
e) Cartogrammes.
Un cartogramme est une carte gographique dont les secteurs gographiques sont coloris avec une
couleur diffrente suivant l'effectif ou suivant la frquence du caractre tudi.
Page 8
Exemple.
En vue d'tablir rationnellement le nombre de postes de travail ncessaires pour assurer sa clientle
un service satisfaisant, une agence de voyage a fait relever, minute par minute, le nombre d'appels
tlphoniques reus au cours d'une priode de 30 jours. Cette opration a fourni, pour la tranche
horaire de pointe qui se situe entre onze heures et midi, les rsultats suivants :
La population tudie est celle des 1 800 minutes composant la dure totale des appels dans la
tranche horaire de onze heures midi pendant 30 jours.
Le caractre observ est le nombre d'appels tlphoniques : c'est un caractre quantitatif et la
variable statistique correspondante, qui ne peut prendre que des valeurs entires, est discrte.
La reprsentation des effectifs est identique celle des frquences : seule change l'chelle verticale.
La reprsentation graphique diffrentielle correcte est le diagramme en btons.
A chaque valeur xi de la variable, porte en abscisse, on fait correspondre un segment vertical de
longueur proportionnelle la frquence fi de cette valeur.
Le regroupement des valeurs extrmes de la variable en une seule classe (nombre d'appels suprieur
ou gal 8) interdit normalement la reprsentation graphique de ce dernier segment.
Mais, tant donne la frquence quasi ngligeable de cette classe, l'inconvnient n'est pas bien grand
et l'on pourra reprsenter par un segment l'abscisse 8, la frquence des appels de dure 8 ou plus.
Page 9
La reprsentation graphique intgrale correcte est la courbe en escalier : les frquences des diverses
valeurs de la variable statistique correspondent aux hauteurs des marches de la courbe en escalier.
Page 10
Exemple.
La Fdration nationale de la rparation et du commerce de l'automobile a effectu une enqute
auprs de ses adhrents visant mieux connatre la structure de ce secteur. Cette opration a fourni la
rpartition suivante des entreprises de la rparation de du commerce de l'automobile selon leur
chiffre d'affaires annuel.
La masse de chiffres d'affaires correspondant aux entreprises de la premire et de la dernire classes
s'lve respectivement 1 714 et 110 145 millions de francs.
Page 11
Comme la variable statistique est continue, on tracera une courbe cumulative continue, et non une
courbe en escalier, de faon qu' une valeur de frquence cumule corresponde une et une seule
valeur de variable.
Entre deux points exprimentaux, on trace un segment de droite reprsentant l'interpolation linaire,
ou bien une courbe lisse, asymptotiquement tangente l'horizontale d'ordonne 100.
Page 12
II. 2. 1. 1. Le mode
Le mode, not Mo, est la modalit qui admet la plus grande frquence :
f (Mo) = Max (fi) ; i [ 1, p ]
Il est parfaitement dfini pour une variable qualitative ou une variable quantitative discrte.
Pour une variable quantitative continue nous parlons de classe modale : c'est la classe dont la densit
de frquence est maximum.
Si les classes ont mme amplitude la densit est remplace par l'effectif ou la frquence et nous
retrouvons la dfinition prcdente.
Nous dfinissons le mode, pour une variable quantitative continue, en tenant compte des densits de
frquence des 2 classes adjacentes par la mthode suivante.
Mo = xi +
(xi + 1 xi).
Page 13
Remarques.
Lorsque les classes adjacentes la classe modale ont des densits de frquences gales, le mode
concide avec le centre de la classe modale.
Le mode dpend beaucoup de la rpartition en classes.
Une variable statistique peut prsenter plusieurs modes locaux : on dit alors qu'elle est plurimodale.
Cette situation est intressante : elle met en vidence l'existence de plusieurs sous-populations, donc
l'htrognit de la population tudie.
II. 2. 1. 2. La mdiane
La mdiane Me est telle que l'effectif des observations dont les modalits sont infrieures Me est
gal l'effectif des observations dont les modalits sont suprieures Me.
Cette dfinition n'a de sens que si les modalits sont toutes ordonnes.
Dans le cas d'une variable qualitative il est parfois possible de choisir un ordre.
Exemple : niveau d'tudes scolaires : cole primaire < 1er cycle < CAP < BEP < Bac < BTS <
DEUG < ....
Une variable quantitative X doit tre dfinie dans .
Page 14
Remarques
La mdiane ne dpend que de l'ordre des modalits , elle n'est donc pas influence par les
observations aberrantes.
La mdiane partage l'histogramme des frquences en 2 parties d'aires gales.
II. 2. 1. 3. La moyenne
La moyenne
ni xi =
, la moyenne
X (), avec N =
ni.
q
ni
est la moyenne
, la moyenne
est
Exemple.
L'tude de 21 familles a conduit la distribution suivante suivante le nombre d'enfants dans la
famille :
Nombre d'enfants xi
Nombre de familles ni
ni x i =
(0 5 + 1 3 + 2 6 + 3 1 + 4
3 + 5 3) =
Page 15
Naturellement, cette moyenne ne reprsente pas une "famille moyenne" mais donne une estimation
du nombre d'enfants dans une famille dont est extrait l'chantillon : nous pourrons dire que, dans
cette population, il faudra, en moyenne, 7 familles pour avoir 15 enfants, ou que 100 familles auront,
en moyenne, 214 enfants.
a) Proprits de la moyenne.
Somme.
La somme X + Y de deux variables statistiques X et Y est dfinie par :
(X + Y) () = X () + Y (), pour tout .
Nous avons alors crire :
=
(X + Y) () =
(X () + Y ()) =
X () +
Y () =
X () =
( X) () =
(X
) () =
(X ()
)=
X ()
=0
=0
b) Moyenne conditionne.
Soit * une sous-population de (exemple : nombre d'enfants d'une fratrie d'origine trangre dans
une population donne).
Soit X* la restriction *.d'une variable statistique X = {(xi, Ai, ni)}, i [ 1, p ], sur .
On pose : Ai* = Ai f *, ni* = Card (Ai*) = Card (Ai f *), n* = Card (*).
X* = {(xi, Ai*, ni*)}, i [ 1, p ].
Page 16
ni* xi =
X* () =
X ().
ni j, i [ 1, p ].
La moyenne de Xj est
ni j, j [ 1, s ].
ni j xi.
On peut alors dfinir une nouvelle variable statistique sur , qu'on appelle la moyenne conditionne
de X pour la partition {1, ... , s} :
MC (X) = {( , j, n. j)}, j [ 1, s ].
La moyenne de cette variable statistique est :
=
n. j
ni j x i =
ni j x i =
=
ni xi =
[ ei, ei + 1 [, fi =
Page 17
ni
fi
(ei + ei +
ni xi = xi
fi
fi x i
Deuxime hypothse.
Dans chaque classe, la rpartition des observations est uniforme.
Alors, par raison de symtrie, la moyenne d'une classe est la valeur centrale xi =
classe.
On a encore :
=
fi
(ei + ei + 1) de la
fi x i
Conclusion : dans le cas d'une variable statistique continue, pour effectuer le calcul du point moyen,
l'hypothse de rpartition uniforme dans chaque classe est quivalente l'hypothse d'une
concentration de toutes les modalits d'une classe au centre de la classe.
ni (xi).
est un nombre rel, compris entre la valeur minimum et la valeur maximum de (xi), i [ 1,
p ].
Comme est une injection continue, il existe un unique
)=
Page 18
Exemples de -moyennes.
1. Si est l'application identique dfinie par (x) = x, la -moyenne de X est la moyenne
arithmtique de X, c'est la moyenne au sens ordinaire.
2. Si est dfinie par (x) = x 2, nous obtenons la moyenne quadratique q de X, dfinie par
2
q
ni xi 2.
3. Si est dfinie par (x) =
ni
de X, dfinie par
)=
ni ln (xi), soit
de X, dfinie par
xi
Page 19
II. 2. 2. 1. Etendue
Soit X une variable statistique relle discrte.
L'tendue de X est la diffrence entre la plus grande valeur de X et la plus petite valeur de X.
= xmax xmin
Ce paramtre est souvent utilis dans les contrles de fabrication, pour lesquels on donne, a priori,
des marges de construction.
Son intrt est limit par le fait qu'il dpend uniquement des valeurs extrmes, qui peuvent tre des
valeurs aberrantes.
Page 20
c) Dciles et percentiles.
Les 9 dciles sont les nombres rels qui partagent l'tendue en dix intervalles de mme effectif.
Utilisation : en matire de salaires, le rapport
est un paramtre de dispersion frquemment
utilis.
Les 99 percentiles sont les nombres rels qui partagent l'tendue en cent intervalles de mme effectif.
ni | xi
On pourrait aussi dfinir l'cart absolu moyen de X par rapport sa mdiane, ou par rapport un
nombre rel a quelconque.
e=
ni | xi a |
On peut dmontrer que l'cart absolu moyen par rapport un nombre rel a est minimum lorsque a
est gal la moyenne de X.
b) Calcul pratique.
Lorsque les observations sont groupes par classe, on adopte gnralement pour valeur de variable
statistique le centre de chaque classe.
L'cart absolu moyen prsente un inconvnient majeur : il ne se prte pas facilement aux calculs
algbriques, cause de la valeur absolue.
(X ()
)2 =
ni ( xi
ni ( xi
)2
)2
En dveloppant le carr ( xi
Page 21
ni xi 2
s 2 (X) =
Cette formule (la variance est gale la moyenne du carr moins le carr de la moyenne) est appele
formule de la variance, ou formule de Knig.
Elle peut s'crire sous la forme :
s 2 (X) =
ni x i 2
ni xi
c) Gnralisation R q.
Dans R, la distance euclidienne d (X (),
que la variance peut tre crite :
) entre X () et
s 2 (X) =
(d (X (),
|, de sorte
)) 2.
) entre X () =
et
, par
la formule
(d (X (),
)) 2 =
( Xj ()
)2 =
(d (Xj (),
)) 2
La variance d'une variable statistique valeurs dans R q, est alors dfinie par :
s 2 (X) =
(d (X (),
=
=
Si X prsente p modalits xi =
Card () =
ni :
( Xj ()
)2
(d (Xj (),
)) 2
s 2 (Xj)
=
=
)) 2
( ) 2)
s 2 (X) =
ni
Page 22
)2
( xi j
ni ( xi j
)2
ni ( xi j
)2
s 2 (X) =
s 2 (Xj) =
)2
ni ( xi j
d) Proprits de la variance.
1. La variance est toujours un nombre rel positif.
En effet, c'est une somme de carrs.
2. La variance est nulle si, et seulement si, X possde une seule valeur.
En effet, une somme de carrs s 2 (X) =
(d (X (),
=
(
2
s (a + b X) =
s 2 (a + b X) = b 2 s 2 (X).
Puis, si X est valeurs dans R q, on a :
s 2 (a + b X) =
s 2 (a + b Xj) =
b 2 s 2 (Xj) = b 2
s 2 (Xj) = b 2 s 2 (X).
Ia (X) =
L'inertie de X par rapport au point moyen
est la variance de X.
Proprit.
L'inertie Ia (X) est minimale lorsque a est gal
Page 23
de X, d'effectif ni, i [ 1, p ].
(d (X (), a)) 2 =
ni ( xi j aj ) 2
aj
Il vient alors :
( xi j aj ) 2 = (xi j
)2 + (
Ia (X) =
ni (xi j
= s 2 (X) +
Par dfinition de
aj) 2 + 2 (xi j
)2 +
aj) 2 + 2
, on a
ni (xi j
ni
(
)(
aj)
aj) 2 + 2
aj)
ni (xi j
ni
(xi j
)(
aj)
) = 0.
Posons :
d2 =
aj) 2
Il reste :
Ia (X) = s 2 (X) + d 2.
s 2 (X) est un nombre rel positif qui ne dpend pas de a.
d 2 est un nombre rel positif, sa valeur minimum est 0.
Ia (X) est minimum lorsque d 2 est nul, c'est--dire lorsque aj =
f) Variance conditionne.
Considrons maintenant une partition de en s sous-populations 1, ... , s.
Soit X = {(xi, Ai, ni)}, i [ 1, p ], une variable statistique quantitative discrte sur
, valeurs dans R.
Chaque sous-population j, j [ 1, s ], dfinit une variable statistique Xj sur j,
qui est la restriction de X j.
Page 24
ni j, j [ 1, s ].
On a ni = Card (Ai) =
ni j, pour tout i [ 1, p ].
La moyenne de Xj est
ni j xi.
ni j xi 2
ni j xi
n. j
Sa variance est :
s 2 (MC (X)) =
n. j
n. j
ni j xi
ni j xi
ni j xi
ni x i
On peut dfinir une nouvelle variable statistique sur , qu'on appelle la variance conditionne de X
pour la partition {1, ... , s} :
sC 2 (X) = {(s 2 (Xj), j, n. j)}, j [ 1, s ], avec N =
n. j s 2 (Xj).
n. j (s 2 (Xj)) 2
n. j s 2 (Xj)
On a alors :
N
n. j s 2 (Xj) =
ni j xi 2
n i j xi 2
ni j xi
ni xi 2
=
=
ni j xi
ni j xi
ni xi 2
ni j xi
n. j
+ s 2 (MC (X)) =
ni xi 2
ni xi
Page 25
= s 2 (X)
La relation :
s 2 (X) =
+ s 2 (MC (X))
La variance de X s'obtient :
en calculant la variance si 2 (X) de X dans chaque classe,
en faisant la moyenne de ces variances (moyenne de la variance conditionne) :
fi si 2 (X)
fi (
)2
fi si 2 (X) +
fi (
)2
fi (xi
) 2. On retrouve la formule
du cas discret.
s 2 (X) = s 2 (U)
o xi =
p}.
est le centre de la classe d'indice i et U est la variable statistique {(xi, ni)}, i {1, ... ,
2/ Dans l'hypothse o la rpartition des valeurs de X dans chaque classe est uniforme, au terme
fi (
)2 =
fi (xi
Page 26
Dmonstration du lemme.
On peut utiliser la formule de la variance : la variance est gale la moyenne du carr
moins le carr de la moyenne.
La moyenne du carr est
x 2 dx =
[ (ei + a) 3 ei 3 ] =
(3 ei 2 a + 3 ei a 2 + a 3)
+ ei 2 + ei a
ei +
+ ei 2 + ei a.
+ ei 2 + ei a
+ ei 2 + ei a
fi si 2 (X) =
Dans le cas o toutes les classes ont la mme amplitude ei + 1 ei = a, le terme correctif est :
fi si 2 (X) =
fi =
fi (xi
)2 +
= s 2 (U) +
s 2 (X) = s 2 (U) +
o xi =
p}.
est le centre de la classe d'indice i et U est la variable statistique {(xi, ni)}, i {1, ... ,
Page 27
Le coefficient de variation est un nombre sans dimension qui permet de comparer deux variables
statistiques de natures diffrentes.
On remarquera que, au signe prs, c'est l'cart-type de la variable statistique
ou
.
II.2.2.6. Moments.
Soit X une variable statistique quantitative relle.
On appelle moment d'ordre r de X, la quantit :
mr =
[X ()] r =
ni xi r
Pour r = 0 : m0 = 1.
Pour r = 1 : m1 = . Le moment d'ordre 1 est la moyenne.
Pour r = 2 : m2 = .
On appelle moment centr d'ordre r de X, la quantit :
r =
[X ()
]r =
ni (xi
)r
Pour r = 0 : 0 = 1.
Pour r = 1 : 1 = 0.
Pour r = 2 : 2 = s 2 (X) = m2 m1 2. Le moment centr d'ordre 2 est la variance.
II.2.2.7. Conclusion.
Centrer et rduire une variable statistique quantitative X consiste la remplacer par
a pour moyenne 0 (elle est centre) et pour cart-type 1 (elle est rduite).
Page 28
(loi de Gauss),
sa moyenne est 0 et son cart-type est 1 : c'est une variable centre rduite et la courbe de densit de
frquence associe est appele la courbe en cloche, ou courbe de Gauss.
Un problme intressant sera de comparer la courbe de densit de frquence d'une variable
statistique quantitative cette courbe en cloche.
Page 29
Le coefficient d'asymtrie de Yule fait intervenir la mdiane et les quartiles, il est dfini par
Y=
Le coefficient d'asymtrie de Fisher fait intervenir les moments centrs, il est dfini par
F=
Lorsque le coefficient d'asymtrie est positif, la distribution est plus tale droite : on dit qu'il y a
oblicit gauche.
Lorsque le coefficient d'asymtrie est ngatif, la distribution est plus tale gauche : on dit qu'il y a
oblicit droite.
Oblicit gauche :
Oblicit droite :
On utilise souvent un coefficient d'asymtrie de Pearson bas sur les moments centrs : 1 =
Page 30
Mo = 1 ; 3 =
xi
ni
(4 ( 1) + 1 4 ) = 12 ; 2 =
P=
F=
(4 ( 1) + 1 4 ) = 4.
1 =
= .
Mo = 1 ; 3 =
xi
ni
(1 ( 4) + 4 1 ) = 12 ; 2 =
P=
F=
(1 ( 4) + 4 1 ) = 4.
= .
.
3.
Page 31
Il est alors naturel, pour comparer l'applatissement d'une distribution statistique l'aplatissement
d'une variable de Gauss, d'introduire le coefficient F 2 = 2 3.
Si F 2 est gal 0, le polygone statistique de la variable rduite a le mme aplatissement qu'une
courbe en cloche, on dit que la variable est msokurtique.
Si F 2 est > 0, le polygone statistique de la variable rduite est moins aplati qu'une courbe en cloche,
on dit que la variable est leptokurtique.
Si F 2 est < 0, le polygone statistique de la variable rduite est plus aplati qu'une courbe en cloche, on
dit que la variable est platykurtique.
Page 32
qi =
fk xk =
fk
(p i + 1 p i) (q i + 1 + q i) = 1
f i + 1 (q i + 1 + q i)
Page 33
Dire que g = 0, c'est dire que la courbe de Lorenz concide avec la diagonale du carr (galit
absolue).
Dire que g = 1, c'est dire que la courbe de Lorenz longe d'abord l'axe des p, puis la droite p = 1
(ingalit maximale).
De faon gnrale, l'indice de Gini peut tre interprt comme ayant une valeur d'autant plus grande
que l'ingalit est grande : il constitue donc une bonne mesure de l'ingalit.
Applications.
L'indice de Gini permet de mesurer les ingalits scolaires, les ingalits de statut, les ingalits de
salaires, etc.
c) Mdiale.
La mdiale d'une variable statistique X est la valeur de X qui partage la masse globale en deux
parties gales.
Sur la courbe de Lorenz, la moiti de la masse globale correspond l'ordonne .
Le point d'ordonne
Si la variable statistique X est dfinie par {(xi, ni)}, i [1, p], soit
ni xi, avec N =
ni.
. On a :
ri = 1.
Dans notre exemple, ri reprsente la fraction de la masse salariale globale gagne par les personnes
dont le salaire est xi.
La mdiale de X est la mdiane de la variable statistique {(xi, ri)}, i [1, p].
La mdiale n'est pas le salaire gagn par l'employ qui est "au milieu de la file", mais le salaire gagn
par le salari qui permet d'atteindre la moiti de la masse salariale totale.
La comparaison des valeurs de la mdiale et de la mdiane constitue une mesure de la concentration.
Lorsque l'cart entre la mdiale et la mdiane est important par rapport l'tendue de la distribution
de la variable, la concentration est forte.
Si la distribution est galitaire, la concentration est faible et l'cart entre la mdiale et la mdiane est
faible.
Page 34
La mdiale est toujours suprieure la mdiane, puisque 50 % des effectifs cumuls croissants ne
permettent jamais d'atteindre 50 % de la masse totale.
Page 35
III.1. DEFINITIONS.
III.1.1. Variable statistique deux dimensions.
Considrons une population finie (Card () = N) sur laquelle nous tudions deux caractres
(qualitatifs ou quantitatifs rels) A et B.
Dsignons par A i, i [1, p], les modalits observes du caractre A, par B j, j [1, q], les modalits
observes du caractre B.
Appelons C ij l'ensemble des prsentant, la fois, la modalit A i du caractre A et la modalit
B j du caractre B.
Appelons n ij le cardinal de C ij.
N=
n ij.
On appelle variable statistique deux dimensions l'ensemble Z des triplets ((A i, B j), C ij, n ij), pour
i [1, p] et j [1, q], pour lesquels n ij n'est pas nul.
Les C ij forment une partition de .
Le nombre n i. =
Page 36
f ij.
f ij.
f ij =
f i. =
f .j = 1.
C ij et n i. =
n ij, et
C ij et n .j =
n ij.
Les variables statistiques X et Y ainsi dfinies sont appeles les variables marginales de Z.
Leur distribution est reprsente par les marges du tableau de contingence.
Page 37
Ce tableau reprsente une variable statistique dont les modalits sont les A i ,
i [1, p] pour lesquels les n ij ne sont pas nuls.
A ces modalits, est associe une partition de C .j =
Remarque.
Si les deux variables X et Y sont quantitatives et jouent des rles symtriques, il est intressant
d'tudier les variables conditionnelles des deux types.
Exemple : taille et poids d'tudiants.
Si l'une des variables est qualitative et l'autre quantitative, alors seul le conditionnement par la
variable qualitative prsente un intrt.
Page 38
Exemple.
III.2.2.2. Strogramme.
Dans certains cas, on peut faire une reprsentation dans R :
- strogramme en btons pour une variable discrte.
- strogramme en histogramme pour une variable continue.
Exemple : Mariages clbrs en 1962, suivant l'ge des poux (1e colonne : ge de l'poux, 1e ligne :
ge de l'pouse).
Page 39
Page 40
Dans cette reprsentation, les cts du triangle correspondent la valeur 0 de l'une des trois
composantes.
Les sommets du triangle correspondent la valeur 0 de deux des trois composantes.
Les milieux des cts correspondent la valeur 0 de l'une des trois composantes et la valeur 50 %
des deux deux autres composantes.
Le centre du triangle correspond l'galit des trois grandeurs reprsentes.
Les hauteurs du triangle correspondent l'galit de deux des trois facteurs, ce qui permet de diviser
l'aire du triangle en zones caractrises par un critre prcis.
Exemple.
A une date donne, on rpartit les diffrents secteurs d'activit selon le pourcentage d'entreprises
escomptant une augmentation, une diminution, ou une stabilit, de leur activit pour la priode
venir. La reprsentation du point dans un diagramme triangulaire, permet de suivre travers le temps
l'volution des pronostics pour une mme branche d'activit (analyse des rponses des chefs
d'entreprise l'enqute trimestrielle sur la conjoncture conomique).
Page 41
n.j yj .
ni. (xi
)2 =
s 2 (Y) =
n.j (yj ) 2 =
ni. xi 2
ni. xi
n.j yj 2
n.j yj
avec
nij = N
Page 42
Cette notation simplifie sera utilise systmatiquement : dans le cas d'une moyenne, l'indice
reprsente toujours le conditionnement.
=
nij yj =
)=
nij (xi
)2 =
nij xi 2
nij xi
= sj 2 (X)
s 2 (Z
)=
nij (yj
)2 =
nij yj 2
nij yj
= si 2 (Y)
III.3.3. Covariance.
Pour une variable statistique quantitative Z deux dimensions, de variables marginales X et Y, on
dfinit la covariance de X et Y par l'expression :
Cov (X, Y) =
nij (xi
)(yj )
ni. xi = N
nij yj =
n.j yj = N
nij xi yj
nij xi
nij yj
Proprits de la covariance.
Cov (a X + b, c Y + d) = a c Cov (X, Y), pour a, b, c, d dans
Page 43
En effet :
= a + b,
= c + d,
=ac
+ad
Cov (a X + b, c Y + d) =
+bc
+ b d.
=ac
+ad +bc
=ac
+ad +bc
=ac(
)
= a c Cov (X, Y)
+ b d (a + b)(c + d)
+bdac
bc ad
bd
ni. xi =
nij xi =
nij xi =
n.j
De mme :
=
ni.
III.3.4.2. Variance.
La variance marginale est la somme de la moyenne pondre des variances conditionnelles et de la
variance pondre des moyennes conditionnelles.
s 2 (X) =
)2 =
nij (xi
nij (xi
)2 +
nij (xi
nij (
et l'on a :
nij (xi
) 2 = n.j sj 2 (X)
nij = n.j
nij (
)2 =
n.j (
)2 = N
)2 +
)2
nij (xi
)(
nij (xi
)(
)=
nij xi
)(n.j
n.j
nij (xi
Page 44
nij
) = 0.
nij (xi
s 2 (X) =
n.j sj 2 (X) +
)2 +
nij (
n.j (
)2
)2
ce qui traduit le rsultat annonc, qui peut s'crire aussi (Thorme de la variance conditionne,
II.2.2.4.f) :
s 2 (X) =
+ s2 ( )
ni. si 2 (Y) +
s 2 (Y) =
ni. (
)2
+ s2 ( )
Remarque.
La variance traduit la dispersion de la distribution.
La dispersion de la distribution marginale de X rsulte de deux facteurs :
La dispersion des distributions conditionnes autour de leurs moyennes : c'est le premier terme,
ni. si 2 (Y) , qu'on appelle la variance intra-population, et qu'on note sw 2 (Y) (w pour within).
La dispersion des moyennes conditionnelles autour de la moyenne : c'est le deuxime terme,
ni. (
Page 45
III.4.1.2. Proprits.
a) Le point moyen de la variable de rgression de Y en X est le point moyen de Z.
En effet :
fi. xi = et fi.
b) Cov (X,
En effet :
fi. (xi ,
) = ( fi. xi , fi.
)=( , )=
) = fi. (xi
Cov (X,
)(
= fi. xi
fi. xi
= fi. xi
Page 46
fi.
+ fi.
=
Cov (X,
=
) = fi. xi
fi. xi
yj
= Cov (X, Y)
c) s 2 (
) = sb 2 (Y).
En effet, comme on a
= , il rsulte de la dfinition :
) = fi. (
s2 (
) 2 = sb 2 (Y)
Notons que sb 2 (Y), variance inter-population, n'est pas la variance marginale s 2 (Y) de Y.
Alors la variance inter-population sb 2 (Y) sera faible et la courbe de rgression de Y en X variera peu
autour de .
Inversement, si les
sont trs disperss autour de , la variance inter-population sb 2 (Y) sera
grande, ce qui veut dire que la courbe de rgression de Y en X variera en grandes dents de scie autour
de .
Autrement dit, la valeur de la variance inter-population sb 2 (Y) influence directement la courbe de
rgression.
Nous dirons que sb 2 (Y) est la part de la variance marginale s 2 (Y) qui est explique par la
rgression de Y en X.
Nous parlerons simplement de variance explique.
Page 47
Le terme sw 2 (Y), quant lui, est d'autant plus faible que les si 2 (Y) sont faibles, donc que les valeurs
de Y varient peu, pour chaque xi, autour de .
Ce terme n'a pas d'influence sur la courbe de rgression de Y en X (qui fait intervenir seulement les xi
et les ) : nous l'appelons la variance rsiduelle.
a) Dfinition.
Le rapport entre la variance explique sb 2 (Y) et la variance marginale totale s 2 (Y) est appel
rapport de corrlation.
On le note 2Y | X :
2Y | X =
Il peut aussi tre calcul par la formule :
2Y | X = 1
b) Proprits.
1. 0
2Y | X
1.
et de la formule s 2 (Y)
= , i [1, p].
Dans un tel cas, chaque valeur xi de X correspond une valeur et une seule de Y : il y a une liaison
fonctionnelle Y = f (X) entre X et Y.
Si, de plus, on a aussi 2X | Y = 1, la liaison fonctionnelle entre X et Y est biunivoque.
4. En pratique, nous aurons toujours 0 < 2Y | X < 1.
Dans ce cas, plus 2Y | X est voisin de 1, plus la dpendance de Y par rapport X est forte et,
Page 48
inversement, plus 2Y | X est voisin de 0, moins la dpendance de Y par rapport X est forte.
Le rapport de corrlation 2Y | X ne caractrise que l'intensit de la corrlation de Y par rapport X et
non le sens de la liaison entre les deux.
Il reste invariant si l'on effectue sur Y un changement d'origine ou d'chelle.
En effet : sb 2 (a Y + b) = a 2 sb 2 (Y) et s 2 (a Y + b) = a 2 s 2 (Y), de sorte que le rapport
ne
change pas.
Comme ce rapport ne tient pas compte de la nature de la courbe de rgression, son emploi reste
valable quelle que soit la nature de cette courbe de rgression.
= ... =
, i [1, p]
= ... =
= ... =
, j [1, q]
Y est indpendante de X.
Au lieu de dire "X est indpendante de Y", on peut donc dire "X et Y sont indpendantes", la relation
est symtrique.
Proprits.
a) Courbes de rgression de variables indpendantes.
sb 2 (Y) = fi. (
)2 = 0
2Y | X =
=0
Page 49
)2 = 0
=0
Ainsi, dans le cas o X et Y sont indpendantes, la courbe de rgression de Y en X est une parallle
l'axe des x et la courbe de rgression de X en Y est une parallle l'axe des y.
On notera que si l'indpendance a pour consquence le paralllisme des courbes de rgression aux
axes de coordonnes, en revanche, les courbes de rgression peuvent tre parallles aux axes de
coordonnes sans que, pour autant, les variables soient indpendantes.
Il ne suffit pas que les moyennes conditionnelles soient identiques pour assurer l'indpendance, il
faut encore que les distributions conditionnelles soient identiques. Or plusieurs distributions peuvent
avoir la mme moyenne sans ncessairement tre identiques.
L'absence rciproque de corrlation n'entrane pas l'indpendance.
Les proprits du rapport de corrlation peuvent tre rsumes dans le tableau suivant, qui est un
tableau d'quivalence (il se lit dans les deux sens).
b) Critres d'indpendance.
1- Pour que X et Y soient indpendantes, il faut et il suffit que l'on ait :
nij =
Page 50
, fi. =
, f.j =
fij xi yj =
fi. f.j xi yj =
fi. xi
f.j yj =
Page 51
), i [1, p].
S=
nij (y'i
nij (y'i
nij (
S=
yj) 2
)2 +
nij (y'i
)(
yj) 2 =
yj) =
(y'i
nij (
nij (y'i
yj) =
)(
yj)
(y'i
) (ni.
ni.
)=0
ni. si 2 (Y)
nij (y'i
)2 =
ni. (y'i
ni. (y'i
)2 +
ni. si 2 (Y)
Le terme
yj) 2 + 2
nij (
)2
ni. (y'i
Page 52
C'est donc celle qui ajuste au mieux une courbe au nuage de points (xi, yj).
Pour cette courbe, le carr moyen (CM, en abrg), prend aussi sa valeur minimum, qui est donne
par :
ni. si 2 (Y) = sw 2 (Y)
CM =
S=
nij (a + b xi yj) 2
fij (a + b xi yj) 2
+ s 2 (Y)
= s 2 (X) b
+ s 2 (Y) 1
+ s 2 (Y)
Or, la variance b 2 s 2 (X) 2 b Cov (X, Y) + s 2 (Y) de b X Y est positive pour tout b , puisque
toute variance est positive.
Donc le discriminant rduit de ce polynme de degr 2 en b est ngatif : Cov 2 (X, Y) s 2 (X) s 2 (Y),
et, dans l'expression
s 2 (X) b
+ s 2 (Y) 1
le terme s 2 (Y) 1
La conclusion est que le carr moyen s'crit finalement comme somme de trois termes positifs dont
le troisime ne dpend ni de a ni de b :
CM = (a + b
) 2 + s 2 (X) b
+ s 2 (Y) 1
Cette somme prend sa valeur minimum lorsque les deux premiers termes sont nuls :
a+b =0
Page 53
b=
L'quation de la droite ajuste par la mthode des moindres carrs est donc :
(y ) = (x
+ s 2 (Y) 1
Nous noterons (X, Y | X) la variable statistique {((xi, a + b xi), fi.)}, i [1, p].
Cette variable statistique est appele la variable statistique de rgression linaire de Y en X.
La reprsentation graphique de cette variable est donne par la droite ajuste par la mthode des
moindres carrs ordinaires.
Cette droite est parfois appele la droite de rgression de Y en X.
Le coefficient b est alors appel le coefficient de rgression de Y en X.
Il vaut mieux rserver ces dnominations la droite de rgression du modle thorique probabiliste
associ la population et parler, ici, seulement de droite ajuste par la mthode des moindres carrs
ordinaires.
fi. (xi
fi. (xi
)(a + b xi (a + b
))
)2
= b s 2 (X)
= Cov (X, Y)
puisque b =
Y | X) = b 2 s 2 (X) s 2 (Y).
3. s 2 (
En effet, par dfinition : s 2 ( Y | X) = s 2 (a + b X)
et comme on a toujours s 2 (a + b X) = b 2 s 2 (X), il vient s 2 ( Y | X) = b 2 s 2 (X) =
Page 54
, donc :
=0
=
> 0.
< 0.
) = (y )
s 2 (X)
Il dtermine la part de variance de Y qui est explique par la rgression linaire de Y en X (ou,
respectivement, la part de variance de X explique par la rgression linaire de X en Y).
Le coefficient de dtermination joue donc, pour la rgression linaire de Y en X, le mme rle que le
Page 55
(1 2Y | X) s 2 (Y)
(1 2Y | X)
r2
2Y | X
(1 r 2) s 2 (Y)
(1 r 2)
s 2 (Y)
1.
+ s 2 (Y) 1
droite ajuste par la mthode des moindres carrs : il existe une relation fonctionnelle linaire entre X
et Y, Y = a + b X, avec b > 0 si r = 1, et b < 0 si r = 1.
Plus r est proche de 1 ou de 1, plus la corrlation linaire est forte.
Page 56
Nous avons :
m(
) = et m ( Y | X) =
) = sb 2 (Y) = 2Y | X s 2 (Y) et s 2 ( Y | X) = r 2 s 2 (Y)
s2 (
= 2Y | X
Plus le rapport est proche de 1, plus la variance du prdicteur est proche de la variance de Y, donc
plus la variance rsiduelle est faible et moins le nuage de points est dispers autour du prdicteur,
donc meilleur est le prdicteur.
2Y | X ou r 2 mesure donc la prcision du prdicteur et nous pouvons dire que
est un prdicteur
meilleur que Y | X, puisque 2Y | X est plus grand que r 2.
, soit y = y0 x b.
Page 57
La mise en vidence de ce modle est obtenue en utilisant un papier log-log, avec une chelle
logarithmique en abscisses et une chelle logarithmique en ordonnes.
Un tel modle est, lui aussi, trs utilis en matire conomique : tude des dpenses pour un poste
particulier relativement aux dpenses totales du mnage.
Page 58
x1 ... xn
n lignes et 1 colonne.
1 ligne et n colonnes.
Les oprations dans R n sont alors dfinies par des oprations sur les matrices :
Addition :
x1 ... xn
x1 ... xn
= x1 ... xn
Dans R n, les n lments ei, i {1, ... , n}, dont toutes les coordonnes sont nulles, sauf la ie qui vaut
Page 59
xi ei
4.1.2.1. Dfinition.
On appelle produit scalaire dans R n toute application de R n R n dans R qui possde les
proprits suivantes :
a) Bilinarit.
Linarit par rapport la premire variable :
(X + X', Y) = (X, Y) + (X', Y) et ( X, Y) = (X, Y), quels que soient dans R, X, X' et
Y dans R n ;
cette proprit s'crit aussi
< X + X' | | Y > = < X | | Y > + < X' | | Y >
Linarit par rapport la deuxime variable :
(X, Y + Y') = (X, Y) + (X, Y') et (X, Y) = (X, Y), quels que soient dans R, X, Y et
Y' dans R n ;
cette proprit s'crit aussi
< X | | Y + Y' > = < X | | Y > + < X | | Y' >
b) Symtrie.
(X, Y) = (Y, X), quels que soient X et Y dans R n :
<X||Y>=<Y||X>
c) Positivit.
(X, X) est un nombre rel suprieur ou gal 0, quel que soit X dans R n :
<X||X>0
d) Non dgnrescence.
(X, X) = 0 entrane X = 0 :
Page 60
< X | | X > = 0 X = 0.
Autrement dit, le vecteur 0 = (0, ... , 0, ... , 0) de R n est l'unique solution de l'quation (X, X) = 0.
On dit aussi qu'un produit scalaire sur R n est une forme bilinaire symtrique positive non
dgnre.
Le mot "forme" fait simplement rfrence au fait que les valeurs sont des scalaires.
Lorsqu'il est muni d'un produit scalaire, R n est appel un espace vectoriel euclidien.
4.1.2.2. Exemples.
a) Produit scalaire canonique.
L'application de R n R n dans R dfinie par :
< X | Y > = tX Y =
x1 ... xj ... xn
xi yi
(X, Y)
< X | M | Y > = tX M Y =
x1 ... xj ... xn
= ij mij xj yi = i mii xi yi
est un produit scalaire sur R n. La matrice M est appele la matrice des poids (les "poids" sont les
lments de la diagonale).
En effet, les proprits de bilinarit, de symtrie, de positivit et de non dgnrescence sont
pratiquement videntes vrifier.
Le produit scalaire canonique correspond au cas o la matrice M est la matrice unit In (tous
les lments de la diagonale sont gaux 1 et les lments en dehors de la diagonale sont 0) :
tous les poids sont gaux 1.
Autre exemple : M = D = In. Tous les poids sont gaux et la somme des poids vaut 1.
Page 61
4.1.2.3. Proprits.
a) Matrice d'un produit scalaire.
Pour tout produit scalaire sur R n, on peut crire :
La matrice M = [ (ei, ej)] s'appelle la matrice du produit scalaire dans la base canonique.
Cette matrice est une matrice symtrique : (ei, ej) = (ej, ei).
Les lments de sa diagonale sont des nombres rels strictement positifs : (ei, ei) > 0.
Remarquons ces proprits ne sont pas suffisantes : une matrice symtrique dont les lments de la
diagonale sont des nombres rels strictement positifs ne dfinit pas forcment un produit scalaire.
Par exemple, la matrice
(x1, x2)
qu'elle dfinit n'est pas un produit scalaire car le "produit scalaire" du vecteur propre (1, 1) pour la
valeur propre ngative, par lui-mme, est un nombre rel strictement ngatif ((1 1)
= 2).
La matrice
n'est donc pas la matrice d'un produit scalaire sur R , bien qu'elle soit symtrique et
s'appelle la -norme de
X, ou -longueur de X.
Quand il n'y a pas de confusion craindre, on parlera simplement de norme ou de longueur, qu'on
notera || X || au lieu de || X ||.
On dit qu'un vecteur est norm pour si sa -longueur est 1.
Par exemple, dans R muni du produit scalaire canonique, la longueur de X = (x1, x2) est || X || =
et le vecteur (1, 0) est norm.
c) Angle de deux vecteurs.
Etant donns deux vecteurs X et Y de R n et un produit scalaire sur R n, pour tout nombre rel , on
a:
Page 62
(X + Y, X + Y) = || X + Y || 0
La base canonique de R n muni du produit scalaire canonique est forme de vecteurs norms
orthogonaux deux deux : on parle alors de base orthonorme.
e) Projet orthogonal.
Soient X et Y deux vecteurs non nuls de R n et un produit scalaire sur R n.
Il existe un unique vecteur Z de R n, proportionnel Y et tel que X Z soit orthogonal Y.
Dmonstration.
Pour tout vecteur Z on peut crire :
Page 63
.
Y, proportionnel Y et tel que X Z soit orthogonal Y, s'appelle le
Page 64
Les n valeurs Y () de Y pour les n individus de la population peuvent tre considres comme les
coordonnes d'un vecteur de R n.
Ce vecteur est not encore Y =
= < X | D | Y > = i
xi y i =
i xi y i =
<X|Y>
On note 1 n =
i 1 1 =
n = 1.
X () =
i x i =
X0 =
X = X0 +
Page 65
=X
1 n = X0 + < X | 1 n >
1 n.
1n
i (xi
) = < X0 | D | X0 > = || X0 ||
s (X) = || X0 ||
La variance de X est le carr de la norme de la variable centre.
4.2.5. Covariance.
La covariance de deux variables quantitatives relles X et Y dfinies sur est la moyenne du produit
des variables centres :
Cov (X, Y) =
i (xi
rXY =
Page 66
i (Y0i b X0i) = || Y0 b X0 ||
= s (Y b X) = s (Y a b X) = s (Y Y*) = s (Y0
Y0*)
= || Y0 b X0 + b X0 ||
s (Y) = S min + b || X0 ||
= S min +
= || Y0 b X0 ||
+ || b X0 ||
s (X) = S min +
s (Y)
Page 67
4.3.1. Introduction.
Nous cherchons alors dans R une droite (D) qui minimise la somme S des carrs des distances
des points du nuage de points la droite.
La solution est donne par la droite de rgression orthogonale.
a) Calcul du terme constant a.
L'quation de la droite de rgression orthogonale est de la forme y = a + b x.
b est la tangente de l'angle de la droite avec l'axe des abscisses :
b = tan .
|| Mi mi || = cos (yi a b xi) =
(yi a b xi)
En introduisant le point moyen ( , ), on peut crire :
|| Mi mi || =
(yi b (xi
)+( ab
))
=
+2
Les relations
yi et
(yi b (xi
( ab
)) +
(yi b (xi
( ab
Il reste :
|| Mi mi || =
(yi b (xi
)) +
( ab
Quel que soit la valeur de b, cette somme sera la plus petite possible lorsque le deuxime terme est
nul : = a + b .
Ce rsultat signifie que le point moyen est sur la droite de rgression orthogonale et que, lorsque
b est connu, le terme constant a est donn par :
a=
Puisque le point moyen G = ( , ) est sur la droite de rgression orthogonale, nous le prendrons
comme origine dans R .
La droite de rgression orthogonale a une quation de la forme
Page 68
y0 = b x0,
avec y0 = y
et x0 = x
, avec + = 1.
.
> = 0, soit x0 + y0 = 0.
Etant donn un point Mi du nuage de points et sa projection orthogonale mi sur la droite D, le vecteur
est le projet orthogonal de
||
sur le vecteur u :
( xi0 yi0)
|| = ( xi0 + yi0) ( )
|| Mi mi || =
=<
= ( xi0 + yi0)
La recherche de la droite de rgression orthogonale se ramne donc une question que l'on peut
envisager d'un double point de vue :
soit rechercher, dans l'espace des individus
, un vecteur unitaire u1 =
, avec + = 1, qui
minimise la somme
S =
|| Mi mi || =
( xi0 + yi0) ,
soit rechercher, dans l'espace des variables R n, un vecteur X0 + Y0, combinaison linaire
fictive des deux variables centres X0 et Y0, avec + = 1, qui minimise || X0 + Y0 || , c'est-dire un vecteur de l'hyperplan dfini par X0 et Y0, de norme minimum pour le produit scalaire dfini
par la matrice diagonale D , sous la contrainte + = 1.
Sous la deuxime forme, la rsolution du problme est appele l'analyse en composantes
principales.
Page 69
4.3.2. Dfinitions.
Appellons Z la matrice
a) Inertie totale.
On appelle inertie totale du nuage de points de R par rapport l'origine G des axes, la quantit :
IT =
||
|| =
b) Inertie statistique.
On appelle inertie statistique du nuage de points de R par rapport une direction de R dfinie
par un vecteur unitaire u, la quantit :
IS (u) =
o
Le rapport
||
||
sur u.
Par exemple, l'inertie statistique du nuage de points par rapport l'axe des x est la variance de X et
l'inertie statistique du nuage de points par rapport l'axe des y est la variance de Y.
c) Inertie mcanique.
On appelle inertie mcanique du nuage de points de R par rapport une direction dfinie par un
vecteur unitaire u, la quantit :
IM (u) =
o
||
||
sur u.
Par exemple, l'inertie mcanique du nuage de points par rapport l'axe des x est la variance de Y et
l'inertie mcanique du nuage de points par rapport l'axe des y est la variance de X.
Le thorme de Pythagore ||
|| = ||
|| + ||
|| entrane :
IM (u) = IT IS (u).
d) Axes principaux, ou factoriels.
On appelle premier axe factoriel du nuage de points de R , l'axe dont la direction dfinie par un
vecteur unitaire u maximise l'inertie statistique IS (u).
Page 70
La direction dfinie par le vecteur u est appele la direction principale, ou direction factorielle.
On remarquera que, comme le premier axe factoriel maximise IS (u), il minimise IM (u) : il donne
donc la solution de notre problme, c'est--dire la droite de rgression orthogonale.
e) Matrice des variances-covariances.
Pour u =
||
|| s'crit, avec
=<
, sous la forme :
( xi0 yi0) =
IS (u) =
xi0 +
yi0 2
xi0 yi0
yi0 = s (Y),
= tu A u
La matrice
A=
A=
Z Z = tZ D Z
et l'inertie totale est la trace de cette matrice, somme des lments diagonaux s (X) et s (Y) :
IT = Tr (A)
1 e remarque : valeurs propres.
La matrice des variances-covariances A est, comme on le voit, symtrique relle.
Une valeur propre de A est un nombre rel tel qu'il existe un vecteur v non nul vrifiant A v = v.
Les valeurs propres de A sont donc les nombres rels tels que le noyau de l'endomorphisme
Page 71
s (X) + s (Y) +
2 =
s (X) + s (Y)
Page 72
|| u1 || = 1, || u2 || = 1, < u1 | u2 > = 0.
Ces vecteurs propres peuvent se calculer.
Soit une valeur propre. On a :
=
=0
donc le vecteur
Le carr de la norme de ce vecteur pour le produit scalaire canonique est donn par :
(s (Y) Cov (X, Y))
On peut donc prendre pour vecteur norm relatif la valeur propre , le vecteur
u=
Le produit scalaire des deux vecteurs propres ainsi obtenu est nul, parce que la relation 1 + 2 = s
(X) + s (Y) entrane :
(s (Y) 1
= (2 s (X)
= Dt (A 2 I2) =
0
Les deux vecteurs
et
u1 =
u2 =
forment donc une base propre orthonorme de R .
Remarquons que, au lieu de prendre pour vecteur propre pour la valeur propre , le vecteur
, on aurait pu prendre aussi le vecteur
qui lui est proportionnel (le dterminant
de la matrice de ces vecteurs est le dterminant de la matrice A I2).
Page 73
Soit V =
= tV
V u1 = V 1 u1 = e1 ; t V u2 = V 1 u2 = e2
Page 74
le vecteur u1 =
le vecteur u2 =
le vecteur e1 =
le vecteur e2 =
vecteurs propres.
t
R , { e1, e2 }
R , { u1, u2 }
R , { u1, u2 }
Page 75
A = tV V.
On dit qu'on a diagonalis la matrice A.
v2)
= 1 v1 + 2 v2,
avec v1 + v2 = 1
Le problme de la recherche de la droite de rgression orthogonale se ramne maintenant la
rsolution du problme suivant :
Maximiser 1 v1 + 2 v2, sous la contrainte v1 + v2 = 1, avec 1 > 2 > 0.
C'est maintenant un problme facile rsoudre :
IS (u) = 1 v1 + 2 v2 = 1 (1 v2) + 2 v2 = 1 (1 2) v2
La quantit 1 (1 2) v2 avec 1 > 2 atteint sa valeur maximum 1 lorsqu'on prend v2 = 0, donc |
v1 | = 1.
La direction du premier axe factoriel est donc dfinie par le vecteur v de coordonnes
dans la base
{ u1, u2 } : v = u1.
IS (u1) = 1
D'o le rsultat, qu'on peut noncer sous forme de thorme :
La direction du premier axe factoriel est dfinie par le vecteur propre associ la plus grande
valeur propre de la matrice des variances-covariances.
Le premier axe factoriel est la droite de rgression orthogonale.
Comme corollaire, la direction perpendiculaire au premier axe factoriel dfinit le deuxime axe
Page 76
factoriel : elle est dfinie par le vecteur propre associ la plus petite valeur propre de la matrice des
variances-covariances.
Le deuxime axe factoriel minimise l'inertie statistique IS (u) : IS (u) = 2 lorsque | v2 | = 1, donc v1 =
0 et v =
= u2 par exemple (on pourrait prendre aussi, bien sr, v = u2, la direction dfinie serait la
mme).
IS (u2) = 2
Le taux d'inertie totale explique par le premier axe factoriel est le rapport
.
Le taux d'inertie totale explique par le deuxime axe factoriel est le rapport
.
La relation 1 + 2 = s (X) + s (Y) (la somme des valeurs propres est la trace de la matrice des
variances-covariances) s'crit :
IS (u1) + IS (u2) = IT.
La somme des inerties statistiques par rapport aux deux axes factoriels est l'inertie totale du nuage de
points.
Chaque valeur propre de la matrice des variances-covariances correspond l'inertie explique par
l'axe factoriel correspondant.
| u1 > u1 + <
| u2 > u2
| e1 > e1 + <
d'o :
<
<
Page 77
= tV
= tV
= tV
muni de la
Les relations :
(<
| u1 > <
| u2 >) =
L=
est la matrice, n lignes et 2 colonnes, dont les lignes sont les coordonnes factorielles du nuage de
points dans R muni de la base { u1, u2 },
Z=
est la matrice, n lignes et 2 colonnes, dont les colonnes sont les variables centres X
et Y ,
V=
est la matrice des coordonnes des vecteurs propres orthonorms { u1, u2 } de la matrice des
Page 78
L1 =
u1 =
L2 =
u2 =
A=
Z Z = tZ D Z =
des variances-covariances :
1 =
s (X) + s (Y) +
2 =
s (X) + s (Y)
< Z u1 | 1 n > =
Z 1n =
u1
=0
(Z u1) 1 n =
=
u1 tZ 1 n
= < L2 | D | 1 n > =
< Z u2 | 1 n > =
(Z u2) 1 n =
Page 79
u2 tZ 1 n =
u2
= 0.
s (L1) = || L1 ||
t
= < L1 | D | L1 > =
L1 L1 =
u1 tZ Z u1
ZZ=A
L2 L2 =
u2 tZ Z u2
= tu2 A u2 = tu2 2 u2 = 2 || u2 || = 2
c) Les composantes principales sont non corrles.
Cov (L1, L2) = < L1 | D | L2 > =
=
u1 A u2 =
L1 L2 =
u1 tZ Z u2
< u1 | u2 > = 0
| u1 > u1 + <
| u2 > u2.
Les projets orthogonaux de ces vecteurs sur l'axe principal dfini par u1 sont les vecteurs :
=<
Les vecteurs
| u1 > u1 = <
points dans R .
Les points mi sont les projections orthogonales des points Mi sur la droite de rgression orthogonale.
L'quation de la droite de rgression orthogonale, sur laquelle se situe l'approximation de rang 1
du nuage de points, peut prendre l'une des formes quivalentes :
<
| u2 > = 0
(x
(x
(x
(x
Page 80
Page 81
[1, n].
Nous considrons Z0 comme la variable expliquer et X0 et Y0 comme les variables explicatives.
Nous supposons que les observations laissent penser que le nuage de points dans R pourrait tre
modlis par un plan.
Le problme de la rgression linaire multiple de Z0 en X0 et Y0 consiste trouver un prdicteur
0
0i
= a X0 + b Y0
nuage de points (x0i, y0i, z0i), i [1, n], au sens des moindres carrs.
||
= a X0 + b Y0
tel que S
soit minimum.
de Z0 sur .
u1 = < Z 0 | u 1 >
u2 de Z0 sur u2.
de tel que Z0
soit orthogonal
Page 82
Dmonstration.
Notons
u1 + < Z0 | u2 >
vecteurs u1 et u2.
< Z0
| u1 >
= < Z0 | u1 >
= < Z0 | u1 >
= < Z0 | u1 >
< Z0 | u1 >
<
| u1 >
u1 + < Z0 | u2 >
u2 | u1 >
< u2 | u1 >
= < Z0 | u1 >
< Z0 | u1 >
=0
< Z0
| u2 >
= < Z0 | u2 >
= < Z0 | u2 >
= < Z0 | u2 >
< Z0 | u1 >
= < Z0 | u2 >
< Z0 | u2 >
<
| u2 >
u1 + < Z0 | u2 >
u2 | u2 >
< u2 | u2 >
=0
Ainsi, Z0
sur u1 est
<
Le projet orthogonal de
| u1 >
u1 = < Z 0 | u1 >
u1.
| u2 >
u2 = < Z 0 | u2 >
u2.
sur u2 est
<
= < Z0 | u1 >
u1 + < Z 0 | u 2 >
u2 = <
| u1 >
u1 + <
| u2 >
u2.
u1 + < Z | u2 >
u2 = < Z0 | u1 >
u1 + < Z0 | u2 >
u2 = 0.
= < Z0 | u1 >
Page 83
u1 + < Z0 | u2 >
u2
orthogonal de Z0 sur .
La relation :
0
=<
u1 + <
| u1 >
| u2 >
u2
= < Z0 | u1 >
u1 + < Z0 | u2 >
|| Z0 Z ||
= || Z0
Z ||
Z ||
|| Z0 Z ||
= || Z0
= || Z0
||
||
+ ||
+ ||
0
est orthogonal
Z ||
Z ||
||
lorsque Z =
||
est le projet
Page 84
u1 =
On a, en effet : s (X) = || X0 ||
X0 et Y0
Y0
X0
= || Y0 ||
= s (Y) s (Y)
|| X0 ||
.2
< Y0 | X0 >
= s (Y) (1 rXY) =
On peut donc prendre dans le plan , pour vecteur norm u2 orthogonal u1, le vecteur :
u2 =
Y0
X0 =
Y0
Les vecteurs :
u1 =
u2 =
Y0
X0
= < Z0 | u1 >
u1 + < Z0 | u2 >
u2
u1 = < Z0 |
>
X0
X0
Page 85
u2 = < Z0 |
Y0
Y0
X0
>
X0
< Z0 | Y0 >
Y0
< Z0 | X0 >
Y0
X0
X0
=
=
X0 +
Y0
Cov (X, Z)
X0
Cov (X, Y)
X0 +
Y0
=
X0 +
Y0
X0 +
Y0
Formellement, la relation
X0 +
=0
Y0
Page 86
; rXZ =
; rYZ =
deviennent :
=
et, en changeant X et Y :
=
En reportant, dans l'expression de
X0 +
=
Les vecteurs
et
Y0
+
: || X0 ||
= s (X) et || Y0 ||
=s
(Y).
=
=
+2
rXZ + rXY rYZ 2 rXY rXZ rYZ + rYZ + rXY rXZ 2 rXY rXZ rYZ + 2 rXY (rXZ rYZ rXY rXZ
rXZ + rXY rYZ 2 rXY rXZ rYZ + rYZ + rXY rXZ 2 rXY rXZ rYZ + 2 rXY rXZ rYZ 2 rXY rXZ
Page 87
rXZ + rXY rXZ 2 rXY rXZ + rYZ + rXY rYZ 2 rXY rYZ 2 rXY rXZ rYZ 2 rXY rXZ rYZ +
rXZ rXY rXZ + rYZ rXY rYZ 2 rXY rXZ rYZ + 2 rXY rXZ rYZ)
Le coefficient :
R Z | XY =
s'appelle le coefficient de corrlation linaire multiple de Z en X, Y.
La variance du prdicteur de Z est donne par :
s ( ) = ||
||
= R Z | XY s (Z)
5.2.2. Proprits.
a) Validit du prdicteur de Z.
La variance de Z s'crit :
s (Z) = s (Z0) = || Z0 ||
Or || Z0
||
= || Z0
||
= || Z0
||
+ ||
||
pour les : || Z0
||
Page 88
suivante :
des
C XY =
= tVXY D VXY.
par la formule :
= tVXY D VZ.
= (rXZ rYZ) C
formule que l'on peut crire directement en fonction des donnes centres rduites :
R Z | XY =
VXY D VZ
VXY D VXY
VXY D VZ .
VXY D VXY
= VXY 1 D
1 t
VXY 1
puisque la matrice VXY, n lignes et 2 colonnes, n'est pas inversible, alors que la matrice produit C =
t
Page 89
La thorie de la rgression multiple que nous venons d'exposer dans le cas de deux variables
explicatives peut se gnraliser au cas de p variables explicatives, avec p > 2.
Page 90
Les deux problmes sont lis : la mthode d'chantillonnage utilise a une influence sur les
estimations obtenues.
En rsum, nous pouvons dire que la thorie des sondages est un outil mathmatique permettant,
partir d'observations exprimentales partielles, de tenter d'atteindre une ralit inaccessible.
Page 91
Page 92
Ces panels sont utiliss en marketing (lancement d'un produit, transfert de marques, etc.).
Nous voulons extraire un chantillon de 8 individus dans une population forme de 437
individus.
Nous numrotons les individus de la population de 1 437.
Nous considrons trois colonnes conscutives d'une page de nombres au hasard : ils
forment des nombres au hasard trois chiffres.
Page 93
Nous lisons ces nombres de trois chiffres en ne retenant que ceux qui sont compris entre
001 et 437.
Lorsque nous avons retenus 8 nombres, notre chantillon est constitu des 8 individus
dsigns dans la population par ces huit nombres.
Selon que nous effectuons un tirage avec ou sans remise, nous garderons ou carterons
un individu dj tir.
L'inconvnient majeur de la mthode lmentaire est son cot : les individus tirs peuvent tre trs
loigns gographiquement.
Page 94
etc.
Femmes de moins de 20 ans,
Femmes de 20 30 ans,
etc.
De chaque strate, nous extrayons un chantillon alatoire simple.
Nous choisissons des grappes pour lesquelles nous gardons tous les "grains", ou individus.
Une "grappe" est un groupe d'individus de mme nature.
Exemple : mnages d'un mme immeuble.
6.2.2.5. Conclusion.
Page 95
En pratique, les diverses mthodes alatoires peuvent tre mles pour amliorer le rendement.
Pour chacune d'elle, nous pourrons varier les critres de tirage au hasard de chaque individu : avec
remise, sans remise, avec des probabilits gales ou ingales.
Page 96
xi.
La valeur observe y* n'est que l'une des valeurs possibles que l'on peut obtenir avec les divers
chantillons possibles de taille n.
En ralit, avec une population de N individus, il y a un certain nombre, mettons k, d'chantillons
possibles Ej de taille n, j {1, ..., k} (k dpend de la mthode d'chantillonnage).
Chaque chantillon possible Ej de taille n possde une certaine probabilit pj d'tre tir.
A chaque chantillon possible Ej de taille n est associe une estimation ponctuelle yj* de y.
A chaque estimation ponctuelle yj* de y est donc associe la probabilit pj d'tre observe.
Nous pouvons alors dfinir une variable alatoire prenant, pour chaque chantillon possible Ej de
taille n, la valeur yj* avec la probabilit pj.
Cette variable alatoire est appele un estimateur du paramtre y.
Les valeurs de sont les estimations ponctuelles de y.
La loi de probabilit de s'appelle la distribution d'chantillonnage de .
On appelle fluctuation d'chantillonnage, la variation des estimations ponctuelles de y et alas
d'chantillonnage les causes de ces variations.
Page 97
L'estimateur d'un paramtre y possde une variance qui traduit la dispersion des valeurs de
autour de son esprance mathmatique.
Cette variance dpend de la taille n de l'chantillon.
Nous dirons que est un estimateur robuste, ou convergent, de y si la limite, lorsque n tend vers N
de est nulle.
robuste
=0
Cette proprit traduit le fait suivant : si nous connaissons la valeur prise par le caractre pour tous
les individus de la population, la valeur de est la valeur exacte y du paramtre.
Un estimateur correct est un estimateur sans biais et robuste.
c) Estimateur asymptotiquement gaussien.
Nous dirons qu'un estimateur d'un paramtre y est asymptotiquement gaussien si, et seulement si,
il vrifie la proprit suivante :
Lorsque n augmente indfiniment, la fonction de rpartition de
Lorsque n est suffisamment grand (en pratique n 30), pour tout [0, 1], le nombre rel positif u
donn par :
(u) = 1
vrifie :
u = 1 .
Page 98
et
si l'esprance de (
2
1
est meilleur
Ceci signifie simplement que l'on considre comme meilleur un estimateur dont les valeurs sont
moins disperses autour de la valeur de y.
Dans l'absolu, le meilleur estimateur d'un paramtre est celui dont pour lequel l'esprance de ( y)
est la plus petite possible.
Un estimateur sans biais dont la variance est minimale s'appelle un estimateur prcis.
Pour un estimateur prcis, l'esprance E ( ) est gale y et la variance est minimale.
Page 99
variable alatoire indpendante "taille" Xi qui a la mme loi de probabilit que la variable parente X.
L'estimateur
=
Xi
de la taille moyenne dans la population, a, pour valeur dans l'chantillon, la moyenne arithmtique
des tailles des individus de l'chantillon.
Cet estimateur possde une loi de probabilit qui peut tre calcule en fonction de la loi de
probabilit de X.
Exemple 2.
Soit la variance de la taille des individus de la population.
Soit X la variable alatoire "taille d'un individu" : chaque individu de l'chantillon est associ une
variable alatoire indpendante "taille" Xi qui a la mme loi de probabilit que la variable parente X.
L'estimateur
=
Xi
Xi
S (X) o S
(X) est la variance des tailles des individus de l'chantillon (variance d'chantillonnage).
Cet estimateur possde une loi de probabilit qui peut tre calcule en fonction de la loi de
probabilit de X.
u = 1
s'crit :
P ( u
L'vnement u
+ u ) = 1 .
Autrement dit encore, tant donn un chantillon de taille n 30, choisi au hasard, la probabilit de
ralisation de l'vnement u
+ u est 1 .
Page 100
Or, pour un chantillon de taille n choisi au hasard, prend la valeur y* et une valeur s , de sorte
que u prend une valeur
y1 = y* u s
et + u prend la valeur
y2 = y* + u s
L'intervalle
[y1 ; y2] = [ y* u s ; y* + u s ]
dans lequel la taille n de l'chantillon est suprieure ou gale 30 et (u) = 1
Page 101
==
xi
la variance =
xi
xi
d'tre tir.
, i [1, N].
xi =
xi = .
Xi.
E (Xi) =
Var (Xi) =
n E (X) = .
n Var (X) =
Page 102
Par consquent, est un estimateur sans biais de (E ( ) = ) mais il n'est pas robuste (
0).
c) Estimateur de la variance de la population.
La variance exprimentale de l'chantillon est s =
(xi ) .
Xi
Xi
(Xi )
E (S ) = E
E (Xi )
E (S ) =
E (Xi + )
E (S ) =
E (Xi ) +
E ( ) +
E (Xi ) ( )
Mais on a :
E (Xi ) =
E Xi E (Xi)
E ( ) =
E ( E( ))
E (Xi ) ( ) =
= Var ( ) =
E ( )
2 E (( ) ) = 2 Var ( ) = 2
n Var (X) = .
(Xi ) =
E ( ) (n n ) =
Au total :
E (S ) =
E (S ) = ,
Xi
Xi
Page 103
E (Xi) =
n p = p.
Xi
est un estimateur sans biais de la proportion p des individus de la population prsentant la modalit
A du caractre tudi.
Sa variance est Var ( ) =
Var (Xi) =
n p (1 p) =
Lorsque n tend vers N, cette variance ne tend pas vers 0, mais vers
.
: l'estimateur
de p n'est
; p* + u
Page 104
Un tirage au hasard sans remise induit que chaque chantillon de taille n a une probabilit
d'tre tir.
que nous
allons dfinir.
Nous pouvons dfinir
probabilit pi =
) = pi, i 1 ;
E( )=
La somme
pi
xik
xik .
Pour un k pris entre 1 et n, notons que xik est la valeur xj du caractre X pour le ke individu de
l'chantillon, qui est le je individu de la population.
Cette valeur apparat une fois dans tous les chantillons de taille n contenant cet individu de la
population, mais pas forcment la mme place, c'est--dire pas forcment avec le mme indice k.
Or il y a
xik .
xik
E( )=
xj =
Page 105
N=
du caractre X.
b) Variance de la moyenne d'chantillonnage.
La variance de
Calculons le terme :
E ( ) =
E ( ) =
pi
(xik)
(xik)
xij xik
x1 + ... + xN
( + )
xij xik
diffrentes.
Comme il existe
Page 106
fois
xij xik
xj xk
xj xk =
=
xj
xj
xk xj
xj
xk
xj
xj = (N ) N ( + ) = N ((N 1) )
On obtient alors :
xij xik
N ((N 1) ) =
((N 1) ) = N
((N 1) )
E ( ) =
E ( ) =
( + ) + N
((N 1) )
+ (N 1)
(N 1) (n 1)
+ (N 1)
=
+ (N 1)
(1 + (n 1)) = 1
E ( ) =
Var ( ) = E ( ) =
Var ( ) =
Moralit : lorsque n tend vers N, la variance de
La moyenne d'chantillonnage
Page 107
de est robuste.
.
On remarquera aussi que la prsence du rapport d'exhaustivit
variance de
valeurs de
est plus faible lorsque l'chantillon est exhaustif que lorsqu'il est non exhaustif : les
sont moins disperses autour de la moyenne lorsque l'chantillon est exhaustif.
c) Estimation de la variance.
La variance exprimentale de l'chantillon s =
(xij
alatoire :
S=
(Xij ) =
Xij
Xij
E ((Xij ) ) =
E ((Xij ) ) +
E ((Xij + ) )
E (( ) )
E ((Xij ) ( ))
Mais :
E ((Xij ) ) = E ((Xij E (Xij) ) = Var (Xij) = .
E ((Xij ) ) =
E (( ) ) =
n = .
Var ( ) =
E ((Xij ) ( )) = E
( )
n Var ( ) = Var ( ) =
(Xij ) = E ( ) n ( ) = n E
( )
=n
Var ( )
Il reste alors :
E (S ) = +
n Var ( ) =
Page 108
On voit donc que S est un estimateur biais de , mais que, par linarit de l'esprance
mathmatique :
S=
Xij
Xij
Xi.
Mais nous avons vu, prcdemment, que l'esprance mathmatique et la variance de Xi, taient
donnes par :
E (Xi) = p
Var (Xi) = p (1 p).
L'tude prcdente montre que nous pouvons crire :
E( )=p
Var ( ) =
Ainsi,
Var
Xi =
Var
= Var ( ) =
p (1 p).
Sa ralisation p* =
Page 109
pj = 1
.
Tout tirage avec remise peut tre schmatis par une variable alatoire
dfinie par :
P ( = xj) = pj, j [1 ; N].
Notons :
=
xj
xj
= pj, j [1 ; N].
'=
et soit :
'=
'
dans l'chantillon.
Nous avons :
E ( ') =
E ( i') =
pj
N=
n=
La relation E ( ') = montre que la variable alatoire ' est un estimateur sans biais de .
Sa ralisation m'* =
Page 110
E ( ' ) =
pj
=N
pj
Var ( ') =
Var
Var ( ') =
' =
Var ( i')
Var ( ') =
Var ( ') =
Cette variance s'exprime l'aide de l'ensemble des valeurs xj, inconnues, prises par le caractre X
dans la population .
Il serait intressant d'en avoir une estimation partir de la ralisation {x1, ... , xn} d'un chantillon.
'=
= pj, j [1 ; N].
Nous avons vu que l'esprance mathmatique de cette variable alatoire tait gale N , qu'on peut
estimer par N '.
Considrons la variance d'chantillonnage de la variable alatoire ', c'est la variable alatoire :
L'esprance mathmatique de
E(
) = E
( i' N ')
est :
( i' N ')
E ( i' N ')
E ( i' N + N N ')
E ( i' N )
(N N ')
Page 111
E ( i' N )
(N N ')
=
Var ( i') +
n Var ( ') +
Var (N ') +
E (N N ')
n N Var ( ') +
( i' N )
(N N ') (N n ' N n )
n N Var ( ')
= Var ( ')
montre que
La variable alatoire
variance de '.
* =
Cette estimation de la variance de ' permet de construire, pour les grands chantillons, un intervalle
de confiance de la moyenne :
m'* u *.
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6143
0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,7257 0,7290 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
0,9332 0,9345 0,9357 0,9270 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
0,9772 0,9779 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
Table pour les grandes valeurs de u.
u
3,0
3,1
3,2
3,3
3,4
3,5
3,6
3,8
4,0
4,5
(u) 0,998 65 0,999 04 0,999 31 0,999 52 0,999 66 0,999 76 0,999 841 0,999 928 0,999 968 0,999 997
La table donne les valeurs de (u) pour u positif. Lorsque u est ngatif,
il faut prendre le complment 1 de la valeur lue dans la table : ( u) = 1 (u)