Vous êtes sur la page 1sur 18

Page | 1

Résumé du Chapitre 1 : Généralités et Rappels

Résumé du Chapitre 1 : Généralités et Rappels

Dans le cours de statistique descriptive nous avons étudié uniquement une ou deux variables et
les données sont généralement consignées dans des tableaux statistiques de tailles très réduites.
Lorsque les tableaux statistiques deviennent très volumineux c'est-à-dire les dimensions des
lignes et des colonnes sont importantes (exemple : plusieurs variables observées sur une longue
période) il serait difficile de lire l’information apportée par ces tableaux.
L’analyse des données est un ensemble de techniques utilisant des outils mathématiques et
statistiques et qui consiste à réduire l’espace multidimensionnel (où l’information n’est pas
lisible) en un espace à deux ou trois dimensions (où l’information est lisible), de telle sorte que
cet espace réduit conserve une part importante de l’information qui était contenue dans l’espace
multidimensionnel d’origine.
Sous l’expression générique de l’analyse des données, deux grandes techniques sont souvent
citées :
▪ Les analyses factorielles : ces méthodes doivent leur nom aux nouveaux axes de l’es-
pace que l’on peut réduire, qui portent le nom d’axes principaux, mais aussi de facteurs.
▪ Les techniques de classification automatique : ce sont des algorithmes informatiques
automatiques capables de dresser des typologies, des regroupements de points, bref
d’effectuer des classifications.

Dans ce cours on va s’intéresser aux analyses factorielles.

Section 1. Analyses factorielles

I. Les méthodes d’analyse des données


Les analyses de données ont pour matière principale le tableau de données de n individus sur
lesquels sont mesurées p variables. Les individus sont portés en ligne du tableau et les variables
sont portées en colonne.

1
Page | 2
Résumé du Chapitre 1 : Généralités et Rappels

Variable 1 Variable 2 ……………. Variable p


Individu 1
Individu 2

………

Individu n

Une variable est un caractère statistique particulier. On dénombre deux types de caractères :
quantitatif et qualitatif.
• Le caractère quantitatif est mesurable, c’est-à-dire qu’il prend ses valeurs dans des en-
sembles mathématiques comme par exemple l’ensemble des entiers naturels relatifs,
réels…
• Le caractère qualitatif est non mesurable. Il est qualifié par des modalités. On considère
qu’il existe deux types de modalités :
o Des modalités qu’on peut classer (ex : qualité : bonne, moyenne mauvaise),
o Des modalités où le classement est indifférent (ex yeux bleus, verts…).

Les méthodes employées différent selon la nature des variables : quantitatives ou qualitatives
le nombre de variables et la problématique à résoudre.
Quatre méthodes d’analyses factorielles différentes sont souvent utilisées et qui dépendent des
tableaux de données considérés.

1. L’analyse en composantes principales : ACP.


Cette méthode permet de traiter le tableau de variables quantitatives où N individus sont
répartis selon p variables.
Variables
X1 X2 ……………. X p
1 x11 x12 ……………. x1p
2 x21 x22 ……………. x2p
Individus …………….
………

………

………

………

n xn1 xn2 ……………. xnp

2
Page | 3
Résumé du Chapitre 1 : Généralités et Rappels

2. L’analyse factorielle des correspondances (AFC) :


Elle permet de traiter le tableau de contingence où N individus sont répartis selon les
modalités de deux variables X et Y.

Modalités de Y
y1 y2 ……………. yq
x1 n11 n12 ……………. n1q
x2 n21 n22 ……………. n2q
Modalités de X ……… …………….

………

………
xp np1 np2 ……………. npq

3. L’analyse factorielle des correspondances multiples (AFCM).


Cette méthode permet de traiter les tableaux d’enquêtes ou de sondages qui sont transformés en
des tableaux disjonctifs. C'est-à-dire des tableaux qui ne présentent que des 0 ou des 1. Le
chiffre 1 est donné à la modalité possédée par l’individu (une question est formée de plusieurs
modalités).

Questions
Q1 Q2 ……………. Qp
1
2
Individus
………

………

n …………….

4. L’analyse factorielle discriminante (notée AFD)


Dans ce cas les tableaux sont quantitatifs et les individus sont regroupés par paquet en
fonction d’une variable qualitative :

3
Page | 4
Résumé du Chapitre 1 : Généralités et Rappels

Variables
X1 X2 ……………. X p Variable
qualitative
1 ……………. v.q1.
2 …………….
Individus …… …………….

……

……

……

……
n xn1 xn2 ……………. v.qr.

Remarque : puisque les bases de données sont généralement très grandes, Les calculs de
l’analyse de données sont effectués souvent par des logiciels spécialisés.

II. Les fondements de l’analyse des données


Nous avons vu que le problème à résoudre se présente sous la forme d’un tableau statistique
formé de lignes (individus) et de colonnes (les variables ou attributs). Et que les différents types
de variables vont conditionner le choix des techniques utilisées.
Il s’agit dans ce paragraphe de présenter quelques statistiques élémentaires qui forment les
fondations de l’analyse des données.

1. La liaison ou association
La mesure de ce critère dépend de la nature des variables étudiées :

a. Cas de variables quantitatives


On utilise soit :
𝑐𝑜𝑣(𝑥,𝑦)
▪ Le coefficient de corrélation linéaire : il est donné par 𝑟𝑥𝑦 = , ce coef-
𝜎𝑥 𝜎𝑦

ficient varie entre -1 et 1. Il mesure l’intensité de la liaison entre les variables.


▪ La régression linéaire : il s’agit de déterminer les variables explicatives d’une
variable endogène ou à expliquer. (exemple y= ax+b).

4
Page | 5
Résumé du Chapitre 1 : Généralités et Rappels

b. Cas des variables qualitatives


On utilise dans ce cas le test de Khi deux noté𝜒² il repose sur la comparaison des fréquences
des variables étudiées à une distribution théorique pour montrer s’il existe une relation entre
ces variables.

2. La similarité
Deux objets A et B, décrits par p attributs sont dits similaires, lorsque la majorité des caractères
(ou attributs) sur les p attributs sont identiques. On mesure la similarité par le nombre de points
commun entre les objets.
On distingue deux types de coïncidences :
• Coïncidence positive,
• Et coïncidence négative

Valeur de l’attribut A Valeur de l’attribut B Coïncidence


Oui Oui Positive
Oui Non Non coïncidence
Non Oui Non coïncidence
Non Non Négative

Il existe différents indices (valeurs) de similarité :


• L’indice de Russel = nombre de coïncidences positives le nombre de comparaisons.
Il n’accorde aucun poids aux coïncidences négatives.
• L’indice de Jaccard = le nombre de coïncidences positives la différence entre le
nombre de comparaisons et le nombre de coïncidences négatives. Donc il consiste à
donner un poids moins important aux coïncidences négatives.
• L’indice de Sokal = Nombre de coïncidence positives et négatives le nombre de
comparaisons. Il donne le même poids aux coïncidences négatives et positives.

3. La distance
Cette notion est très utilisée dans les analyses multidimensionnelles et notamment dans les
techniques de classification.

5
Page | 6
Résumé du Chapitre 1 : Généralités et Rappels

La notion de distance est le complément à la notion de similarité. Deux objets similaires ont en
effet une distance nulle et deux objets différents auront une distance non nulle.
• La distance euclidienne
La distance entre deux points M(x,y) et M’(x’,y’) est donnée par 𝒅(𝑴, 𝑴′) =
√(𝒙 − 𝒙′)² + (𝒚 − 𝒚′)²
La distance euclidienne se définie dans IRn de la façon suivante :
𝑑: 𝐼𝑅 𝑛 → 𝐼𝑅

𝑛
(𝑋, 𝑌) ↦ 𝑑(𝑋, 𝑌) = √∑ (𝑦𝑖 − 𝑥𝑖 )²
𝑖=1

• La variance
Pour mesurer le degré d’homogénéité d’une population, certaines techniques utilisent la notion
de variance.
Comme la distance euclidienne, la variance permet de découper une population en sous
ensembles homogènes.

Section 2. Représentation matricielle des tableaux des données et


diagonalisation d’une matrice

I. Notion d’une matrice


Un tableau à n lignes et m colonnes peut être représenté sous la forme d’une matrice :

i variable X1 X2 ……… Xm
1 a11 a12 ……… a1n
2 a21 a22 ……… a2n


...

n an1 an2 ……… anm

6
Page | 7
Résumé du Chapitre 1 : Généralités et Rappels

𝑎11 𝑎12 𝑎1𝑚


𝑎21 𝑎22 𝑎2𝑚
𝐴𝑛×𝑚 = ; n et m sont les dimensions de la matrice.
(𝑎𝑛1 𝑎𝑛2 𝑎𝑛𝑚 )

Soit A = [aij], la matrice d'élément général aij. Une matrice est dite symétrique si aij=aji
• Quelques matrices carrées particulières.
1 0 ... 0
0 1 ... 0
✓ Matrice unité, 𝐼𝑛 = ( )
⋮ ⋮ ... 0
0 0 0 1
𝑑11 0 ... 0
0 𝑑22 ... 0
✓ Matrice diagonale, 𝐷𝑛 = ( )
⋮ ⋮ ... 0
0 0 0 𝑑𝑛𝑛
II. Opérations sur les matrices

1. Addition, soustraction

L'addition et la soustraction peuvent être effectuées sur des matrices qui ont la même
dimension, il se font terme à terme : A+B=[aij+bij]

2. Multiplication par un nombre

On multiplie chaque terme de la matrice par le nombre considéré : ∀𝜆 ∈ 𝐼𝑅, 𝜆𝐴 = [𝜆𝑎𝑖𝑗 ]

3. Transposition

La transposée d'une matrice A=[aij], qu’on la note AT est la matrice obtenue en échangeant les
lignes et les colonnes de A : AT =[aji]

4. Multiplication des matrices

• Le produit scalaire de deux vecteurs X et Y de mêmes dimensions est donnée par :


𝑦1
𝑦 2
𝑋 𝑇 𝑌 = (𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ) × ( . ) = ∑𝑛𝑖=1 𝑥𝑖 𝑦𝑖
𝑦𝑛

7
Page | 8
Résumé du Chapitre 1 : Généralités et Rappels

• Le produit de la matrice An × m par la matrice Bm × p est la matrice Cn × p telle que


l'élément Cij est égal au produit scalaire de la ligne i de la matrice A par la colonne j de
la matrice B.

Propriétés :

✓ AnmIm = InAnm = Anm, donc I est élément neutre pour la multiplication.

✓ Le produit matriciel est :

o associatif : ABC = (AB)C = A(BC)

o distributif par rapport à l'addition : A(B + C) = AB + AC

o non commutatif : AB n'est pas égal à BA en général.

✓ Transposée d'un produit : (AB)T = BTAT .

5. Inversion des matrices carrées

Si A × A-1 = A-1 × A = I

alors A est dite inversible ou régulière, et A-1 est appelée matrice inverse de A.

Si A-1 n'existe pas, la matrice A est dite singulière

Propriétés :

• (A-1)-1 = A

• (AT)-1 = (A-1)T

• (AB)-1 = B-1A-1

• [D(dii)]-1 = D(1/dii) , avec D une matrice diagonale d’élément général [dii]

• La matrice A est dite orthogonale si A-1 = AT

6. Déterminant

a. Définition :

• Soit A =[aij], une matrice carrée d’ordre n . Considérons un élément aij de A. Si on


raye dans A la ligne et la colonne contenant aij , on obtient une matrice a n-1 lignes et
n-1 colonnes notée Aij .

8
Page | 9
Résumé du Chapitre 1 : Généralités et Rappels

▪ Son déterminant detAij, s’appelle le mineur de aij dans A.

▪ On appelle cofacteur du terme aij le produit (−1)𝑖+𝑗 |𝐴𝑖𝑗 |.

▪ On détermine aussi la matrice des cofacteurs CA de même ordre que A avec


𝐶𝐴 = [(−1)𝑖+𝑗 |𝐴𝑖𝑗 |]

• Le déterminant de A qu’on le note detA ou (|𝐴|) est donné par la méthode de


Laplace (appelée aussi méthode des cofacteurs ou des mineurs) :

▪ 𝑑𝑒𝑡 𝐴 = ∑𝑛𝑗=1(−1)𝑖+𝑗 𝑎𝑖𝑗 𝑑𝑒𝑡 𝐴𝑖𝑗 , si on développe suivant la iième ligne,

▪ 𝑑𝑒𝑡 𝐴 = ∑𝑛𝑖=1(−1)𝑖+𝑗 𝑎𝑖𝑗 𝑑𝑒𝑡 𝐴𝑖𝑗 , si on développe suivant la jième colonne.

Si on développe suivant la première ligne le déterminant sera égal :𝑑𝑒𝑡 𝐴 = 𝑎11 |𝐴11 | −
𝑎12 |𝐴12 |. . . +𝑎1𝑛 (−1)1+𝑛 |𝐴1𝑛 = 𝑎11 𝑐11 + 𝑎12 𝑐12 +. . . +𝑎1𝑛 𝑐1𝑛 |

b. Cas particuliers :
𝑎11 𝑎12
• Déterminant d’une matrice carrée d’ordre 2 : soit𝐴 = (𝑎 𝑎22 ),𝑑𝑒𝑡 𝐴 =
21
𝑎11 𝑎12
|𝑎 𝑎22 | = 𝑎11 𝑎22 − 𝑎21 𝑎12
21

𝑎11 𝑎12 𝑎13


• Déterminant d’une matrice carrée d’ordre 3 : 𝐴 = (𝑎21 𝑎22 𝑎23 ), le déterminant
𝑎31 𝑎32 𝑎33
de A est donné par la règle de Sarrus :

a11 a12 a13 a11 a12

a21 a22 a23 a21 a22

a31 a32 a33 a31 a32

detA= (a11.a22.a33+a12.a23.a31+a13.a21.a32)-(a31.a22.a13+a32.a23.a11+a33.a21.a12)

c. Propriétés des déterminants :


• det(AT) = det(A)
• det(AB) = det(A) × det(B)
• Le déterminant d'une matrice triangulaire ou diagonale est égal au produit des
éléments diagonaux. En particulier, det(I) = 1 (si I est la matrice unité)

9
P a g e | 10
Résumé du Chapitre 1 : Généralités et Rappels

• Si A est régulière, det(A-1) = 1 / det(A) puisque det(AA-1) = det(A) × det(A-1) =


det(I) = 1
• Si A est orthogonale, det(A) = ±1 puisque det(AAT) = [det(A)]2 = det(I) = 1

d. Calcul de la matrice inverse


1
Si A est inversible (c'est-à-dire 𝑑𝑒𝑡 𝐴 ≠ 0) sa matrice inverse est donnée par 𝐴−1 = 𝑑𝑒𝑡 𝐴 𝐶𝐴𝑡

Avec 𝐶𝐴𝑡 la transposée de la matrice des cofacteurs de A.

Si A est une matrice carrée d’ordre 2, la matrice inverse est donnée par 𝐴−1 =
1 𝑎22 −𝑎22
( 𝑎11 )
𝑑𝑒𝑡 𝐴 −𝑎12

Ainsi la matrice inverse A-1 n'existe donc que si det A est différent de zéro. La matrice A est
singulière si det A = 0, régulière dans le cas contraire. Ce résultat se généralise à une matrice
de dimension quelconque.

III. Diagonalisation d’une matrice carrée

1. Matrice semblable
On dit qu’une matrice A est semblable à une matrice D s’il existe une matrice P inversible telle
que 𝐴 = 𝑃 𝐷𝑃−1

10
P a g e | 11
Résumé du Chapitre 1 : Généralités et Rappels

Exemple :
2 1 −2 −2
• 𝐴=( )est semblable à 𝐵 = ( ) en effet il existe une matrice inversible
−2 0 5 4
1 1 0 1
𝑃=( ) de matrice inverse 𝑃 −1 = ( ) telle que 𝐴 = 𝑃 × 𝐵 × 𝑃−1
1 0 1 −1

2. Matrice semblable diagonale


• Définition : une matrice diagonale est une matrice carrée dont les coefficients en dehors
de la diagonale principale sont nuls.
Exemple :
1 0 0
(0 2 0 )
0 0 −4

• Définition : Diagonaliser une matrice A revient à trouver une matrice inversible P est
une matrice diagonale D telle que 𝐴 = 𝑃𝐷𝑃 −1
7 −4 3 0 7 −4 1 2
Exemple : 𝐴 = ( )est semblable à 𝐷 = ( ) en effet 𝐴 = ( )=( )×
6 −3 0 1 6 −3 1 3
3 0 3 −2
( )×( ) = 𝑃 × 𝐷 × 𝑃−1
0 1 −1 1
Puisque D est une matrice diagonale on dit que A est diagonalisable
Ainsi on peut calculer An facilement : 𝐴² = 𝑃𝐷𝑃 −1 𝑃𝐷𝑃 −1 = 𝑃𝐷²𝑃−1 et
3𝑛 0 21 × 3𝑛 + 4 −14 × 3𝑛 − 4
𝐴𝑛 = 𝑃𝐷𝑛 𝑃−1 dans l’exemple 𝐷𝑛 = ( 𝑛
𝑛 )et 𝐴 = ( )
0 1 18 × 3𝑛 + 3 −12 × 3𝑛 − 3

3. Polynôme caractéristique, valeurs propres et vecteurs propres


• Soit A une matrice carrée, on appelle polynôme caractéristique de A qu’on le note 𝑝(𝜆)
le polynôme donné par : 𝑝(𝜆) = 𝑑𝑒𝑡(𝐴 − 𝜆𝐼).
• On appelle valeurs propres les racines du polynôme caractéristique.
• On appelle vecteur propre 𝑣⃗ associé à la valeur propre 𝜆 le vecteur donné par𝐴𝑣⃗ = 𝜆𝑣⃗.
• Le sous espace propre : On dit que λ est valeur propre de A s'il existe un vecteur non nul
v tel que Av = λv. On dit alors que v est un vecteur propre de A associé à la valeur propre
λ et que le sous espace vectoriel (que l'on peut noter ker (A − λIn)) est le sous espace
propre associé à λ.

11
P a g e | 12
Résumé du Chapitre 1 : Généralités et Rappels

Théorèmes :
▪ Une matrice carrée d’ordre n est diagonalisable si et seulement si elle possède n vecteurs
propres formant une base.
▪ Si toutes les racines de 𝑝(𝜆) = 𝑑𝑒𝑡(𝐴 − 𝜆𝐼) sont simples, alors A est diagonalisable (si
non A peut-être diagonalisable ou non).
▪ Si A est une matrice réelle et symétrique alors toutes les valeurs propres de A sont réelles
et A est diagonalisable.
▪ La trace de A est égale à la somme de ses valeurs propres et le déterminant de A est le
produit de ses valeurs propres.
Théorème de Caylay Hamilton : soit 𝑃(𝜆) le polynôme caractéristique de A. alors 𝑃(𝐴) =
𝜃𝑛 (matrice nulle).

1 2
Exemple : 𝐴 = ( ), 𝑝𝐴 (𝜆) = 𝜆² − 5𝜆 − 2 donc 𝑃𝐴 (𝐴) = 𝐴² − 5𝐴 − 2 = 𝜃2
3 4
▪ Le théorème de Cayley-Hamilton permet de calculer les puissances d'une
matrice plus simplement que par un calcul direct. Reprenons la relation
précédente :

𝑃𝐴 (𝐴) = 𝐴² − 5𝐴 − 2 = 𝜃2 ⇔ 𝐴² = 5𝐴 + 2𝐼2

𝐴3 = 𝐴²𝐴 = (5𝐴 + 2𝐼2 )𝐴 = 5𝐴² + 2𝐴 = 5(5𝐴 + 2𝐼2 ) + 2𝐴 = 27𝐴 + 10𝐼2

𝐴4 = 𝐴3 𝐴 =. . . = 145𝐴 + 54𝐼2
▪ On peut aussi calculer l’inverse de A à partir du polynôme initial
1
𝑃𝐴 (𝐴) = 𝐴² − 5𝐴 − 2 = 𝜃2 ⇔ 𝐴(𝐴 − 5𝐼2 ) = 2𝐼2 ⇔ 𝐴 [ (𝐴 − 5𝐼2 )] = 𝐼2
2
1
Donc 𝐴−1 = 2 (𝐴 − 5𝐼2 )

4. Démarche pour diagonaliser une matrice


▪ Chercher le polynôme caractéristique,
▪ Déterminer les valeurs propres, et la matrice diagonale D
▪ Trouver les vecteurs propres, et la matrice P des vecteurs propres
▪ Vérifier que AP=PD, si oui conclure que A est diagonalisable.
5 1 −1
Exemple : soit 𝐴 = (2 4 −2)
1 −1 3
12
P a g e | 13
Résumé du Chapitre 1 : Généralités et Rappels

▪ 𝑝(𝜆) = 𝑑𝑒𝑡(𝐴 − 𝜆𝐼) =. . .. ;


▪ On montre que les valeurs propres sont 𝜆1 = 2, 𝜆2 = 4, 𝜆3 = 6 et 𝐷 =
𝜆1 0 0 2 0 0
(0 𝜆2 0 ) = (0 4 0 )
0 0 𝜆3 0 0 6
0 1 1
▪ Les vecteurs propres sont 𝑣1 = (1) , 𝑣2 = (0), 𝑣3 = (1) et 𝑝 =
1 1 0
0 1 1
(1 0 1)
1 1 0
▪ On vérifie bien que AP=PD

Section 3. Eléments de Statistiques Descriptives

I. Description d’une variable statistique

Une variable statistique peut être soit quantitative soit qualitative, une variable
quantitative peut être soit discrète ou soit continue.

Exemple :
o Région de résidence : v. qualitative puisqu’elle n’est pas
mesurable ;
o Nombre d’étudiants par groupe de TD : v. quantitative discrète ;
o Taille d’une personne : v. quantitative continue.

II. Moyenne arithmétique

∑𝑥𝑖
• Lorsque les données sont individuelles : 𝑋̄ = 𝑁
∑𝑛𝑖 𝑥𝑖
• Lorsque les données sont groupées : 𝑋̄ = = ∑𝑓𝑖 𝑥𝑖
𝑁

III. Variance et écart-type

13
P a g e | 14
Résumé du Chapitre 1 : Généralités et Rappels

1 1
• Lorsque les données sont individuelles : 𝑉(𝑋) = 𝑁 ∑(𝑥𝑖 − 𝑋̄)² = 𝑁 ∑𝑥𝑖2 − 𝑋̄²
1 1
• Lorsque les données sont groupées : 𝑉(𝑋) = 𝑁 ∑𝑛𝑖 (𝑥𝑖 − 𝑋̄)² = 𝑁 ∑𝑛𝑖 𝑥𝑖2 − 𝑋̄² =
∑𝑓𝑖 𝑥𝑖2 − 𝑋̄²

L’ecart-type qu’on le note 𝜕𝑋 est donné par : 𝜕𝑋 = √𝑉(𝑋), il mesure la


dispersion autour de la moyenne.

Exemple : considérons le tableau statistique suivante relative à une


variable X :
xi ni
2 20
3 10
5 40
8 30
Total 100

Calculer la moyenne arithmétique et la variance, interpréter les résultats.

Réponse :
xi ni fi fi x i f ix i²
2 20
3 10
5 40
8 30
Total 100 1

∑𝑛𝑖 𝑥𝑖 𝑖=4
𝑋̄ = = ∑ 𝑓𝑖 𝑥𝑖 =
𝑁 𝑖=1

14
P a g e | 15
Résumé du Chapitre 1 : Généralités et Rappels

𝑖=4
𝑉(𝑋) = ∑ 𝑓𝑖 𝑥𝑖2 − 𝑋̄² =
𝑖=1

IV. Mesure de la liaison entre deux variables :

1. Covariance,

• Cas de données individuelles :

Remarque : La covariance d’une variable avec elle-même (autocovariance) est tout simplement
la variance. Cov(X,X) = V(X).

• Cas de données groupées : (les données apparaissent sous forme de tableau de


contingence :

Interprétation

o Si les deux variables sont indépendantes, la covariance est nulle. Mais il


peut exister une dépendance non linéaire qui se traduit également par une
covariance nulle. Donc, attention aux conclusions hâtives...

o Si deux variables évoluent généralement dans le même sens, la covariance


est de signe positif (exemple : température extérieure et consommation de
crèmes glacées). Si elles évoluent dans le sens contraire, la covariance est
négative (exemple : température extérieure et consommation de
chauffage).

15
P a g e | 16
Résumé du Chapitre 1 : Généralités et Rappels

• Matrice des variances-covariances :

Supposons que nous avons plusieurs variables. On peut alors calculer les covariances de chaque
couple de variables puis les indiquer dans un tableau carré, et symétrique puisque
Cov(X,Y) = Cov(Y,X). En diagonale, on trouve évidemment les variances.

Remarque : Lorsqu’elle est réduite (écarts-types = 1), elle est égale à la matrice des
corrélations et devient davantage opérationnelle.

La matrice des variances-covariances est utilisée dans le cadre des ACP non normées alors que
la matrice des corrélations l’est, fort logiquement, dans le cadre des ACP normées.

Exemple : dans l’exercice n°1 du TD la matrice des variances covariances s’établit comme
suit :

𝑉(𝑋1 ) 𝐶𝑜𝑣(𝑋1 , 𝑋2 ) 𝐶𝑜𝑣(𝑋1 , 𝑋3 )


𝛤 = (𝐶𝑜𝑣(𝑋2 , 𝑋1 ) 𝑉(𝑋2 ) 𝐶𝑜𝑣(𝑋2 , 𝑋3 ))
𝐶𝑜𝑣(𝑋3 , 𝑋1 ) 𝐶𝑜𝑣(𝑋3 , 𝑋2 ) 𝑉(𝑋3 )

2. Coefficient de corrélation

On dit qu'il existe une relation entre X et Y si les valeurs de X dépendent des valeurs de Y ou
si les valeurs de Y dépendent des valeurs de X. Dire que Y dépend de X signifie que la
connaissance des valeurs de X permet de prédire, dans une certaine mesure, les valeurs de Y.
Exemple : bénéfice et chiffre d’affaires d’une entreprise commerciale

Si Y=f(X), Cela signifie que les valeurs de X permettent de prédire les valeurs de Y, mais il
n'est pas certain que la réciproque soit vraie.
La relation entre Y et X peut être :
o Soit linéaire si l'on peut trouver une relation entre X et Y de la forme
Y=aX+b, c'est à dire si le nuage de point peut s'ajuster correctement à une
droite.
o Soit non-linéaire si la relation entre X et Y n'est pas de la forme Y=aX+b,
mais de type différent (parabole, hyperbole, sinusoïde, etc). Le nuage de
point présente alors une forme complexe avec des courbures.

16
P a g e | 17
Résumé du Chapitre 1 : Généralités et Rappels

✓ Pour mesurer l'intensité de la relation entre deux caractères et de son sens lorsque cette
relation est monotone on calcule un coefficient de corrélation. On distingue :
o Le coefficient de corrélation de Pearson qui permet d'analyser les
relations linéaires
o et le coefficient de corrélation de Spearman qui permet d’analyser les
relations non-linéaires monotones. Il existe d'autres coefficients pour les
relations non-linéaires et non-monotones.
On se limite dans ce cours à présenter le coefficient de corrélation linéaire de Bravais-
Pearson
Ce coefficient permet de détecter la présence ou l'absence d'une relation linéaire entre deux
caractères quantitatifs continus. Il est donné par :

Remarque : lorsque deux caractères sont standardisés, leur coefficient de corrélation est égal
à leur covariance puisque leurs écarts-types sont égaux à 1.
Ce coefficient varie entre -1 et +1. Son interprétation est la suivante :
o Si r est proche de 0, il n'y a pas de relation linéaire entre X et Y ;
o Si r est proche de -1, il existe une forte relation linéaire négative entre X
et Y ;
o Si r est proche de 1, il existe une forte relation linéaire positive entre X et
Y
Le signe de r indique donc le sens de la relation tandis que la valeur absolue de r indique
l'intensité de la relation c'est-à-dire la capacité à prédire les valeurs de Y en fonctions de celles
de X.

Comme nous l’avons fait pour le cas des covariances, on peut établir la matrice des
corrélations, qui est une matrice symétrique et les éléments de la diagonale principale sont
égaux à 1.
Revenons à l’exercice n°1 du TD 1, la matrice de corrélation s’établit comme suit :

17
P a g e | 18
Résumé du Chapitre 1 : Généralités et Rappels

1 𝑟𝑋1,𝑋2 𝑟𝑋1,𝑋3
𝜌 = (𝑟𝑋2,𝑋1 1 𝑟𝑋2,𝑋3 )
𝑟𝑋3,𝑋1 𝑟𝑋3,𝑋2 1

18

Vous aimerez peut-être aussi