Académique Documents
Professionnel Documents
Culture Documents
Chapitre 2 Statistique Descriptive À Deux Dimensions: 2.1 Définitions de Base
Chapitre 2 Statistique Descriptive À Deux Dimensions: 2.1 Définitions de Base
Des fois, on est amené à étudier le lien qu’il peut y avoir entre deux caractères. Il est
donc nécessaire de s’intéresser aux deux caractères simultanément et non séparément
comme on l’a fait au premier chapitre.
1
2 CHAPITRE 2. STATISTIQUE DESCRIPTIVE À DEUX DIMENSIONS
Preuve :
Evident
( )
Définition 2.1.5. — La liste des (xi , yj ) ; nij est appelée série ou dis-
1≤i≤p , 1≤j≤q
tribution pondérée du couple statistique (X, Y ). On l’appelle aussi série ou distri-
bution dépouillée du couple statistique (X, Y ).
∑
q ∑
p
Notation. ni. := nij et n.j := nij
j=1 i=1
Définition 2.1.6. — Soit (xi , yj ) une modalité d’effectif nij du couple (X, Y ). Le
nombre ni. (resp. n.j ) est appelé effectif partiel de xi (resp. de yj ). C’est le nombre
d’individus ayant xi (resp. yj ), ou ayant une valeur appartenant à la classe de centre
xi (resp. yj ), indépendamment du caractère Y (resp. X).
Preuve :
∑
p ∑
q ∑
p ∑
q
nij 1 ∑p ∑ q
1
fij = = nij = .N = 1
i=1 j=1 i=1 j=1 N N i=1 j=1 N
Théorème
( 2.1.3.) — La série statistique du couple (X, Y ) est aussi définie par la liste
des (xi , yj ) ; fij .
1≤i≤p , 1≤j≤q
Preuve :
Evidente
2.2. REPRÉSENTATION DES DONNÉES 3
( )
Définition 2.1.8. — Soit (X, Y ) un couple statistique de distribution (xi , yj ) ; fij .
On appelle fréquence partielle de xi (resp. yj ), le nombre noté fi. (resp. f.j ) et défini
par : (
ni. n.j )
fi. := resp. f.j :=
N N
Théorème 2.1.4. — On a :
∑
q
1. fi. = fij ∀i = 1, ..., p
j=1
∑p
2. f.j = fij ∀j = 1, ..., q
i=1
Preuve :
ni. 1 ∑q ∑q
nij ∑q
1. ∀i = 1, ..., p : fi. = = nij = = fij
N N j=1 j=1 N j=1
2. On fait de même
Remarque. Les caractères du couple peuvent être de toutes les natures, qualitatifs ou quan-
titatifs discrets ou quantitatifs continus.
2.3. DISTRIBUTIONS MARGINALES 5
Exemple 2.2.4. L’étude, par zone économique et par secteur, de la production en milliard
de Dirhams, a donné le tableau de contingence suivant :
```
``` ∑
``Y=Secteur
``` Agro-alimentaire Chimique Textile
X=Zone ```
Nord 1 1.5 0.5 3
Sud 3 2 2 7
Centre 4 2.5 2 8.5
Est 0.2 0.5 3 3.7
∑
8.2 6.5 7.5 22.2
( )
Remarque. De la même manière, on représente la série pondérée (xi , yj ) ; fij 1≤i≤p , 1≤j≤q
.
Exemple 2.2.5. La distribution qui suit est la répartition suivant l’Age et la qualification
du personnel d’une certaine entreprise :
/// j 1 2 3 ///
hhhh
hhhh Y=Qualification ∑
i hhhh employé gradé cadre
X=Age (ans) hhhh
h
1 moins de 25 0.075 0 0 0.075
2 25 − 35 0.125 0.125 0.05 0.3
3 35 − 45 0.1 0.05 0.05 0.2
4 45 − 55 0.1 0.025 0.075 0.2
5 55 − 60 0.075 0.025 0.075 0.175
6 plus de 60 0 0.025 0.025 0.05
∑
/// 0.475 0.25 0.275 1
On relève entre autres de ce tableau, que dans cette entreprise 30% du personnel sont âgés
de 25 à moins de 35 ans, que les gradés âgés de 35 à moins de 45 ans représentent 5% du
personnel et que 47.5% de la population sont des employés,...
Remarques.
• En général, la connaissance des distributions marginales ne permettent pas de reconsti-
tuer le tableau de contingence.
• Les distributions marginales sont des distributions d’un des deux caractères quel que soit
la valeur de l’autre caractère. Ce sont donc des distributions à une dimension étudiées
au chapitre 1. On retrouve alors les caractéristiques usuelles vues au chapitre précédent,
auxquelles on attribue le qualificatif marginal. En particulier :
6 CHAPITRE 2. STATISTIQUE DESCRIPTIVE À DEUX DIMENSIONS
1 ∑ ∑
p p
1. Moyenne marginale de X : X = xi ni. = xi fi.
N i=1 i=1
1 ∑ ∑
q q
2. Moyenne marginale de Y : Y = yj n.j = yj f.j
N j=1 j=1
3. Variance marginale de X :
1∑ 2 ∑ 1∑ ∑
p p p p
2 2
σ 2 (X) = xi ni. − X = x2i fi. − X = (xi − X)2 ni. = (xi − X)2 fi.
N i=1 i=1
N i=1 i=1
4. Variance marginale de Y :
1∑ 2 ∑ 1∑ ∑
q q q q
2 2
σ 2 (Y ) = yj n.j − Y = yj2 f.j − Y = (yj − Y )2 n.j = (yj − Y )2 f.j
N j=1 j=1
N j=1 j=1
On a donc :
1 ∑3
1
1. Moyenne marginale de X (resp. Y ) : X = xi ni. = × 64 = 3.2
N i=1 20
1 ∑3
1
2. Moyenne marginale de Y : Y = yj n.j = × 57 = 2.85
N j=1 20
1∑ 3
2 214
3. Variance marginale de X : σ 2 (X)
= x2i ni. − X = − (3.2)2 = 0.46
N i=1 20
√ √
4. Ecart-type marginal de X : σ(X) = σ 2 (X) = 0.46 = 0.678 ≃ 0.68
1∑ 3
2 215
5. Variance marginale de Y : σ 2 (Y ) = yj2 n.j −Y = − 2.852 = 2.6275 ≃ 2.63
N j=1 20
√ √
6. Ecart-type marginal de Y : σ(Y ) = σ 2 (Y ) = 2.63 = 1.621 ≃ 1.62
Remarque. Lorsque la série statistique est une série brute (Xi , Yi )1≤i≤N , les formules pré-
cédentes deviennent :
1 ∑N
1 ∑N
1. Moyenne marginale de X (resp. Y ) : X = Xi (resp. Y = Yi )
N i=1 N I=1
1∑ N
2 1∑ N
2. Variance marginale de X : σ 2 (X) = Xi2 − X = (Xi − X)2
N i=1 N i=1
1∑ N
2 1∑ N
3. Variance marginale de Y : σ 2 (Y )= Y −Y =
2
(Yi − Y )2
N i=1 i N i=1
2.4. DISTRIBUTIONS CONDITIONNELLES 7
Y |X = 2 3 4
1 1 3 0
2 0 5 4
5 2 2 3
∑
3 10 7
On a par exemple : 1 individu, parmi les 3 qui ont X = 2, qui a en plus Y = 1 et que
parmi les 7 ayant X = 4, il y a 3 qui ont Y = 5.
– Trois distributions de X sachant Y = yj qui sont :
X|Y = 1 ni1 X|Y = 2 ni2 X|Y = 5 ni3
2 1 2 0 2 2
3 3 3 5 3 2
4 0 4 4 4 3
Σ 4 Σ 9 Σ 7
qu’on peut résumer en un seul tableau par :
X|Y = 1 2 5
2 1 0 2
3 3 5 2
4 0 4 3
∑
4 9 7
( )
Définition 2.4.2. — Soit (xi , yj ) ; nij 1≤i≤p , 1≤j≤q
la distribution du couple (X, Y ). Alors,
1. On appelle fréquence conditionnelle de yj lorsque (ou sachant que) X = xi , le
nombre noté fj/i ou fyj /xi ou plus précisemment fY =yj /X=xi et défini par :
nij
fj/i :=
ni.
C’est la fréquence (ou proportion) des individus ayant Y = yj dans la sous population
des individus ayant X = xi .
2. On appelle fréquence conditionnelle de xi lorsque (ou sachant que) Y = yj , le
nombre noté fi/j ou fxi /yj ou plus précisemment fX=xi /Y =yj et défini par :
nij
fi/j :=
n.j
C’est la fréquence (ou proportion) des individus ayant X = xi dans la sous population
des individus ayant Y = yj .
n11 1 1
Exemple 2.4.2. Pour l’exemple 2.2.3, on a fY =1/X=2 = = et fX=2/Y =1 = = 0.25
n1. 3 4
( )
Théorème 2.4.1. — Soit (xi , yj ) ; nij 1≤i≤p , 1≤j≤q
la distribution du couple (X, Y ). Alors,
1. La distribution conditionnelle de Y lorsque X = xi , pour i fixé dans {1, ..., p}, est aussi
définie par la liste des (yj , fj/i )1≤j≤q .
2. La distribution conditionnelle de X lorsque Y = yj , pour j fixé dans {1, ..., q}, est aussi
définie par la liste des (xi , fi/j )1≤i≤p .
Preuve :
Evidente
2.4. DISTRIBUTIONS CONDITIONNELLES 9
Exemple 2.4.3. Pour l’exemple 2.2.3, les distributions conditionnelles sont aussi données
par :
Y |X fj/1 fj/2 fj/3 X|Y fi/1 fi/2 fi/3
1 3 2
1 3 10 0 2 0.25 0 7
1 4 5 2
2 0 2 7 3 0.75 9 7
2 1 3 4 3
5 3 5 7 4 0 9 7
Ces tableaux sont aussi appelés respectivement tableau des profils lignes et tableau des
profils colonnes .
4. On appelle moyenne
(
conditionnelle
)
de h(Y ) lorsque (ou sachant que) X = xi , le
nombre noté m h(Y )|X = xi et défini par :
1 ∑ ∑
q q
( )
m h(Y )|X = xi := h(yj ) nij = h(yj ) fj/i
ni. j=1 j=1
Exemple 2.4.4. Pour l’exemple 2.2.3, on a d’après les résultats de l’exemple 2.4.1 et l’exemple 2.4.3
respectivement
Alors,
1 ∑ 3
11
– Moyenne de Y lorsque X = 2 : m(Y |X = 2) = Y 1 = yj n1j = ≃ 3.67
n1. j=1 3
1 ∑ 3
51
– Moyenne de Y 2 lorsque X = 2 : m(Y 2 |X = 2) = yj2 n1j = = 17
n1. j=1 3
∑
3
31
– Moyenne de X lorsque Y = 2 : m(X|Y = 2) = X 2 = xi fi/2 = ≃ 3.44
i=1
9
∑
3
109
– Moyenne de X 2 lorsque Y = 2 : m(X 2 |Y = 2) = x2i fi/2 = ≃ 12.11
i=1
9
( )
Définition 2.4.4. — Soit (xi , yj ); nij 1≤i≤p , 1≤j≤q
la distribution statistique du couple (X, Y ).
Alors,
1. On appelle variance conditionnelle de X lorsque (ou sachant que) Y = yj , le nombre
noté σ 2 (X|Y = yj ) ou σj2 (X) ou Vj (X) et défini par :
( )2 ( )
σ 2 (X|Y = yj ) := m(X 2 |Y = yj ) − m(X|Y = yj ) = m (X − X j )2 |Y = yj
Sa racine carrée est appelée écart-type conditionnel de X lorsque (ou sachant que)
Y = yj , noté σ(X|Y = yj ) ou σj (X).
2. On appelle variance conditionnelle de Y lorsque (ou sachant que) X = xi , le nombre
noté σ 2 (Y |X = xi ) ou σi2 (Y ) ou Vi (Y ) et défini par :
( )2 ( )
σ 2 (Y |X = xi ) := m(Y 2 |X = xi ) − m(Y |X = xi ) = m (Y − Y i )2 |X = xi
Sa racine carrée est appelée écart-type conditionnel de Y lorsque (ou sachant que)
X = xi , noté σ(Y |X = xi ) ou σi (Y ).
Exemple 2.4.7. Pour l’exemple 2.2.3 et vu les résultats obtenus à l’exemple 2.4.4, on a :
2
– Variance de Y lorsque X = 2 : V1 (Y ) = m(Y 2 |X = 2) −√ Y 1 = 17 − 3.67 ≃ 3.53
2
HH Y ∑
HH 1 2 5 ni. yj2 nij m(Y 2 |X = xi ) Yi σi2 (Y )
X HH j
2
1
0 2 3 51 17 3.67 3.53
1 0 50
3
5 2
3 10 73 7.3 2.3 2.01
3 20 50
0 4 3
4 7 91 13 3.29 2.18
0 16 75
XXX
XXX Y
XXX 1 2 5
X XX
1 0 2
2
4 0 8
3 5 2
3
27 45 18
4
0
4
3
0 64 48
n.j 4 9 7
∑
x2i nij 31 109 74
i
m(X 2 |Y = yj ) 7.75 12.11 10.57
m(X|Y = yj ) 2.75 3.44 3.14
σ 2 (X|Y = yj ) 0.19 0.28 0.71
2.5 Covariance
( )
Définition 2.5.1. — Soit (xi , yj ); nij 1≤i≤p , 1≤j≤q la distribution statistique du couple (X, Y ).
On appelle covariance de (on dit aussi entre) X et Y , le nombre noté Cov(X, Y ) et défini
par :
1 ∑∑ 1 ∑∑
p q q p
Cov(X, Y ) := xi yj nij − X.Y = xi yj nij − X.Y
N i=1 j=1 N j=1 i=1
( )
Théorème 2.5.1. — Soit (xi , yj ); fij 1≤i≤p , 1≤j≤q
la distribution statistique du couple (X, Y ).
On a :
∑
p ∑
q ∑
q ∑
p
Cov(X, Y ) = xi yj fij − X.Y = xi yj fij − X.Y
i=1 j=1 j=1 i=1
Preuve :
1 ∑∑ ∑
p q p ∑ q ∑p ∑ q
nij
Cov(X, Y ) := xi yj nij − X.Y = xi yj − X.Y = xi yj fij − X.Y
N i=1 j=1 i=1 j=1
N i=1 j=1
Exemple 2.5.1. Reprenons la série pondérée de l’exemple 2.2.3, on a : où les cellules ont la
2.5. COVARIANCE 13
nij
forme
xi yj nij
PP ∑ ∑
PPY
PP 1 2 5 = ni. xi ni. nij xi yj
X PP
P j j
1 0 2
2 3 6 22
2 0 20
2
3
3
5
10 30 69
9 30 30
4
0
4
3
7 28 92
∑ 0 32 60
= n.j 4 9 7 20 64 183
i
yj n.j 4 18 35 57
∑
xi yj nij 11 62 110 183
i
On a donc :
1 ∑
3
64
– X= xi ni. = = 3.2
N i=1 20
1 ∑3
57
– Y = yj n.j = = 2.85
N j=1 20
1 ∑3 ∑ 3
183
– Cov(X, Y ) = xi yj nij − X.Y = − 3.2 × 2.85 = 0.03
N i=1 j=1 20
Preuve :
1. Evidente.
2. Evidente, puisque l’addition et la multiplication sont commutatives.
14 CHAPITRE 2. STATISTIQUE DESCRIPTIVE À DEUX DIMENSIONS
p ∑
∑ q p ∑
∑ q
3. Cov(αX, βY ) = αxi βyj fij −αX.βY = αβ xi yj fij −αβX.Y = αβCov(X, Y )
i=1 j=1 i=1 j=1
4. ∑
p ∑
q ∑
p ∑
q
Cov(α, X) = αxi fij − α × X = α xi fij − αX
i=1 j=1 i=1 j=1
∑p
= α xi fi. − αX = αX − αX = 0
i=1
5. Quitte à ajouter des possibilités d’effectifs nuls, on peut supposer que X et X ′ (resp. Y
et Y ′ ) ont le même nombre de modalités. Alors,
∑
p ∑
q
Cov(X + X ′, Y +Y ′) = (xi + x′i )(yj + yj′ )fij − X + X ′ × Y + Y ′
i=1 j=1
∑
p ∑
q
= (xi yj + x′i yj + xi yj′ + x′i yj′ )fij − (X + X ′ )(Y + Y ′ )
i=1 j=1
∑
p ∑
q ∑
p ∑
q ∑
p ∑
q
= xi yj fij + x′i yj fij + xi yj′ fij
i=1 j=1 i=1 j=1 i=1 j=1
∑
p ∑
q
+ x′i yj′ fij − X.Y − X ′ .Y − X.Y ′ − X ′ .Y ′
i=1 j=1
∑
p ∑
q ∑
p ∑
q
= xi yj fij − X.Y + x′i yj fij − X ′ .Y
i=1 j=1 i=1 j=1
∑
p ∑
q ∑
p ∑
q
+ xi yj′ fij − X.Y ′ + x′i yj′ fij − X ′ .Y ′
i=1 j=1 i=1 j=1
= Cov(X, Y ) + Cov(X ′ , Y ) + Cov(X, Y ′ ) + Cov(X ′ , Y ′ )
Remarque. Lorsque la série statistique est une série brute (Xi , Yi )1≤i≤N , la covariance est
donnée par :
1 ∑N
1 ∑N
Cov(X, Y ) = Xi Yi − X.Y = (Xi − X)(Yi − Y )
N i=1 N i=1
i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Σ
Xi 3 3 3 4 4 4 4 3 3 3 4 2 3 3 4 2 4 3 3 2 64
Yi 2 1 2 2 2 5 2 2 5 1 5 1 2 1 5 5 2 2 5 5 57
Xi Yi 6 3 6 8 8 20 8 6 15 3 20 2 6 3 20 10 8 6 15 10 183
1 ∑N
183 64 57
Cov(X, Y ) = Xi Yi − X.Y = − × = 0.03
N i=1 20 20 20
2.6 Indépendance
( )
Définition 2.6.1. — Soit (xi , yj ); fij 1≤i≤p , 1≤j≤q la distribution statistique du couple (X, Y ).
On dit que X et Y sont indépendants si
Remarque. L’indépendance de 2 caractères signifie que pour tout individu, la valeur d’un
caractère n’a rien avoir avec celle de l’autre caractère.
( )
Théorème 2.6.1. — Soit (xi , yj ); fij 1≤i≤p , 1≤j≤q la distribution statistique du couple (X, Y ).
Alors, X et Y sont indépendants si et seulement si
Preuve :
ni. × n.j
nij = ∀i et ∀j
N
16 CHAPITRE 2. STATISTIQUE DESCRIPTIVE À DEUX DIMENSIONS
Preuve :
X et Y sont indépendants ⇐⇒ fij = fi. × f.j ∀i, j
nij ni. n.j
⇐⇒ = × ∀i, j
N N N
ni. × n.j
⇐⇒ nij = ∀i, j
N
Remarque. L’indépendance signifie donc que les colonnes (et les lignes) du tableau de contin-
gence des effectifs sont proportionnelles entre elles. En effet, pour deux lignes i et i′ , il existe
α indépendant de la colonne j tel que :
n.j ni′ j ni.
nij = ni. × = ni. × = × ni′ j = α × ni′ j
N ni′ . ni′ .
Remarque. Attention, on n’a pas la réciproque du Théorème 2.6.3 précédent. Mais on a bien
sûr : Cov(X, Y ) ̸= 0 =⇒ X et Y sont dépendants.
Exemple 2.6.1. Soit (X, Y ) un couple statistique dont le tableau de contingence est :
HH Y
HH 0 1 2
X H H
0 0 1 0
1 1 0 1
En considérant les cellules de la forme
nij
, on a
xi yj nij
HH Y ∑ ∑
H 0 1 2 = ni. xi ni. nij xi yj
X HHH j j
0 1
0
0 1 0 0
0 0 0
1
0 1
1 2 2 2
∑ 0 0 2
= n.j 1 1 1 3 2 2
i
yj n.j 0 1 2 3
1 ∑ 2 1 ∑ 3
On a, X = xi ni. = , Y = yj n.j = = 1
N i 3 N j 3
1 ∑ ∑ 2 2
Donc, Cov(X, Y ) = xi yj nij − X.Y = − × 1 = 0
N i j 3 3
n1. × n.1 1×1 1
et pourtant, X et Y ne sont pas indépendants puisque n11 = 0 ̸= = =
N 3 3
2.7. DÉPENDANCE TOTALE 17
Preuve :
On a en général (voir propriété 7 du Théorème 2.5.2)
Preuve :
1. Puisqu’il y a une liaison fonctionnelle de Y avec X, alors à toute valeur xi de X
correspondra au plus une seule valeur yj0 de Y et par suite on a : nij = 0 ∀j ̸= j0 et
nij0 = n.j0 .
2. se démontre de la même manière
2.8 Corrélation
2.8.1 Généralités
L’indépendance (= liaison nulle) et la liaison fonctionnelle (= liaison totale) vues pré-
cédemment, sont deux cas extrêmes de liaison entre deux caractères quantitatifs. Mais en
pratique, on se trouve souvent entre ces deux cas, c’est par exemple le cas du lien entre le
poids et la taille, entre la saison et les ventes des glaces, etc... .
Ainsi, lorsque le caractère X prend la valeur x, la valeur prise par le caractère Y dépend
"un peu" de x restreignant ses possibilités sans qu’elle ne soit prédéderminée à l’avance. On
dit alors que le caractère Y est en corrélation (ou est corrélé) avec le caractère X.
Lorsque les variations des deux caractères se produisent dans le même sens, on dit que
la corrélation est positive, et lorsque les variations sont en sens contraire, on dit que la
corrélation est négative.
Exemple 2.8.1. La demande pour une marchandise a tendance à diminuer lorsque le prix
est haussé, mais elle a tendance à augmenter lorsque les sommes allouées à la publicité sont
accrues, donc il y a une corrélation négative entre la demande et le prix, mais une corrélation
positive entre la demande et le budget de la pub.
Remarques.
• La forme du nuage statistique nous permet de savoir si les caractères quantitatifs sont
en corrélation et de préciser l’intensité de cette liaison : si la corrélation est forte, les
points semblent dessiner une courbe régulière.
• La corrélation ou l’absence de corrélation n’est pas réciproque. Par exemple, les individus
les plus grands sont en général les plus lourds, mais pas l’inverse.
• L’indépendance des caractères entraine l’absence de corrélation, mais la réciproque est
fausse.
• L’existence d’une corrélation n’implique pas nécessairement un lien de causalité, mais
simplement que les deux caractères peuvent tous les deux être attribuables aux variations
d’une cause commune. Par exemple, on peut constater une corrélation entre les ventes
d’huile pour bronzage et les ventes des glaces, mais il n’y a pas de lien direct, la cause
est une cause climatique.
X 84 71 71 65 74 76 68 75 78 77
Y 30 20 24 18 24 26 20 22 28 26
On note donc que les points sont sensiblement alignés dans le sens de la première bissec-
trice, ce qui prouve qu’il y a vraisemblablement une corrélation linéaire positive.
Preuve :
1. D’après l’inégalité de Cauchy-Schwarz (Théorème 2.5.2), on a
Cov(X, Y )
|Cov(X, Y )| ≤ σ(X)σ(Y ) ⇐⇒ | | ≤ 1 ⇐⇒ |r| ≤ 1
σ(X)σ(Y )
2. D’après les résultats du Théorème 2.5.2, on a :
Cov(αX + β, aY + b) αaCov(X, Y ) Cov(X, Y )
r(αX + β, aY + b) = = = = r(X, Y )
σ(αX + β)σ(aY + b) ασ(X)aσ(Y ) σ(X)σ(Y )
Théorème 2.8.2. — On a :
1. r > 0 ⇐⇒ corrélation linéaire positive
2. r = 0 ⇐⇒ pas de corrélation linéaire
3. r < 0 ⇐⇒ corrélation linéaire négative
4. r ± 1 ⇐⇒ tous les points sont sur une droite (=liaison fonctionnelle)
5. Plus r est proche de 1, plus la corrélation linéaire est forte
Plus r est proche de 0, plus la corrélation linéaire est faible
Preuve : Admise
20 CHAPITRE 2. STATISTIQUE DESCRIPTIVE À DEUX DIMENSIONS
Remarques.
• r = 0 n’implique rien en ce qui concerne la corrélation non linéaire, et on peut aussi
bien avoir indépendance que liaison fonctionnnelle.
• En pratique, la corrélation linéaire est considérée comme significative si |r| ≥ 0.9.
i 1 2 3 4 5 6 7 8 9 10 Σ
Xi 84 71 71 65 74 76 68 75 78 77 739
Yi 30 20 24 18 24 26 20 22 28 26 238
Xi Yi 2 520 1 420 1 704 1 170 1 776 1 976 1 360 1 650 2 184 2 002 17 762
Xi2 7 056 5 041 5 041 4 225 5 476 5 776 4 624 5 625 6 048 5 929 54 877
Yi2 900 400 576 324 576 676 400 484 784 676 5 796
D’où, on tire
1 ∑ 739
X= Xi = = 73.9
N i 10
1 ∑ 238
Y = Yi = = 23.8
N i 10
1 ∑ 17 762
Cov(X, Y ) = Xi Yi − X × Y = − 73.9 × 23.8 = 17.38
N i 10
1 ∑ 2 2 54 877
σ 2 (X) = Xi − X = − 73.92 = 26.49
N i 10
1 ∑ 2 2 5 796
σ 2 (Y ) = Y −Y = − 23.82 ≃ 13.16
N i i 10
et par suite on a,
Cov(X, Y ) 17.38
r := √ =√ = 0.9308 ≃ 0.93
V ar(X).V ar(Y ) 26.49 × 13.16
On commet ainsi l’erreur ei := Yi − aXi − b appelée résidu qui peut être positif ou négatif.
En considérant tous les points du nuage, on commet l’erreur totale suivante
∑
N ∑
N
e2i = (Yi − aXi − b)2
i=1 i=1
qui mesure l’ampleur de l’éparpillement vertical des points (Xi , Yi ) autour de la droite. L’ajus-
tement est alors d’autant meillleur que l’erreur totale est faible. D’où, la définition suivante
de la méthode dite des moindres carrés.
Définition 2.9.1. — Soit une série brute (Xi , Yi )1≤i≤N d’un couple statistique (X, Y ). On
appelle droite d’ajustement des moindres carrés ou tout simplement droite de régres-
sion de Y en X, la droite DY /X qui minimise la quantité
1 ∑N
Q(a, b) := (Yi − aXi − b)2
N i=1
Remarque. Si X est le caractère temps, les données sont appelées série chronologique et
la droite de régression de Y en X est dite droite de tendance ou droite de Trend.
Cov(X, Y )
â = b̂ = Y − âX
σ 2 (X)
C’est-à-dire l’équation s’écrit :
Cov(X, Y )
y= (x − X) + Y
σ 2 (X)
22 CHAPITRE 2. STATISTIQUE DESCRIPTIVE À DEUX DIMENSIONS
Preuve :
Le point (â, b̂), réalisant le minimum de Q(a, b), s’obtient en annulant les dérivées partielles
de Q par rapport à a et b. Donc,
1 ∑N
∂Q
−2 Xi (Yi − âXi − b̂) = 0
(â, b̂) = 0
N i=1
∂a
⇐⇒
∂Q (â, b̂) = 0
1 ∑N
−2 (Yi − âXi − b̂) = 0
∂b
N i=1
1 ∑N
1 ∑N
1 ∑N
X Y − â X 2
− b̂ Xi = 0
i i i
N i=1 N i=1 N i=1
⇐⇒
1 ∑N
1 ∑N
1 ∑N
Yi − â Xi − b̂
1=0
N i=1 N i=1 N i=1
1 ∑
N
1 ∑
N
Xi Yi − â Xi2 − b̂X = 0
N N
⇐⇒ i=1 i=1
Y − âX − b̂ = 0
1 ∑
N
1 ∑
N
X Y − â Xi2 − (Y − âX)X = 0
i i
N N
⇐⇒ i=1 i=1
b̂ = Y − âX
1 ∑
N
(1 ∑
N
2)
Xi Yi − X.Y − â Xi2 − X = 0
N N
⇐⇒ i=1 i=1
b̂ = Y − âX
Cov(X, Y )
Cov(X, Y ) − âσ (X) = 0
â =
2
2
σ (X)
⇐⇒ ⇐⇒
b̂ = Y − âX
b̂ = Y − âX
∂2Q 2 ∑N
2 ∂2Q 2 ∑N
∂2Q 2 ∑N
r := (â, b̂) = Xi , s := (â, b̂) = X i = 2X, t := (â, b̂) = 1=2
∂a2 N i=1 ∂a∂b N i=1 ∂b2 N i=1
de sorte que,
2 4 ∑N
s2 − rt = 4X − X 2 = −4V ar(X) < 0 et r>0
N i=1 i
Cov(X, Y )
Définition 2.9.2. — La pente â := de la droite de régression de Y en X est
σ 2 (X)
appelé cœfficient de régression de Y en X.
Remarque. Notons que la droite de regression passe par le point G du nuage de coordonnées
(X, Y ) appelé point moyen ou centre de gravité du nuage.
Exemple 2.9.1. Reprenons la série brute de l’exemple 2.2.1. On a, d’après les résultats
trouvés à l’exemple 2.8.3,
Cov(X, Y ) 17.38
â = 2
= = 0.6560 ≃ 0.66
σ (X) 26.49
b̂ = Y − âX = 23.8 − 0.66 × 73.9 = −24.974 ≃ −24.97
Donc, la droite de régression DY /X de Y en X a pour équation
y = 0.66x − 24.97
qu’on peut tracer sur le graphique du nuage en choisissant deux points particuliers, soit
αX
2.10.3 Liaison du type Y =
X +k
On a,
αX 1 1 X +k 1( k) 1 k 1
Y = ⇐⇒ = = 1+ = + .
X +k Y α X α X α
|{z} α X
|{z}
b a
1 1
Donc, le caractère est linéairement lié au caractère . Par la méthode des moindres carrés,
Y ( ) ( ) X
on détermine donc a = â Y1 | X1 et b = b̂ Y1 | X1 .
D’où on tire,
1
α= et k = α.â
b̂
♢♢♢ ♢
Index
Caractère partielle, 3
à deux dimensions, 1
bidimensionnel, 1 Inégalité de Cauchy-Schwarz, 13
Centre Indépendants, 15
de gravité, 23
Méthode des moindres carrés, 20
Coefficient
Modalité
de corrélation linéaire, 19
du couple, 1
de régression, 23
Moyenne
Corrélé avec, 18
conditionnelle, 9
Corrélation, 18
marginale, 6
linéaire, 18
marginale cas brute, 6
linéaire négative, 18
linéaire positive, 18 Nuage de points, 3
négative, 18
positive, 18 Point moyen, 23
Couple statistique, 1 Proportion, 2
Covariance, 12
cas brute, 15 Résidu, 21
Dépouillement, 2 Série
Distribution chronologique, 21
conditionnelle, 7 dépouillée du couple, 2
dépouillée du couple, 2 pondérée du couple, 2
marginale, 5 statistique brute du couple, 1
pondérée du couple, 2 Tableau
Droite à double entrée, 4
d’ajustement des moindres carrés, 21 croisé, 4
de régression, 21 de contingence, 4
de tendance, 21 des profils colonnes , 9
de Trend, 21 des profils lignes , 9
Ecart Totalement dépendant, 17
-type conditionnel, 11 Valeur ajustée, 24
Effectif, 2 Variance
partiel, 2 conditionnelle, 11
Erreur totale, 21 marginale, 6
Estimation, 24 marginale cas brute, 6
Fonctionnellement dépendants, 17
Fréquence, 2
conditionnelle , 8
26
Sommaire
27