Vous êtes sur la page 1sur 74

Chapitre 2

Introduction
•Définition :
:

• L’analyse en composantes principales ACP : Ensemble de


méthodes permettant de procéder à des transformations
linéaires d’un grand nombre de variables intercorrélées de
manière à obtenir un nombre relativement limité de
composantes non corrélées. Cette approche facilite l’analyse
en regroupant les données en des ensembles plus petits et
en permettant d’éliminer les problèmes de multicolinéarité
entre les variables. L’analyse en composantes principales
s’apparente à l’analyse factorielle, mais c’est une technique
indépendante qui est souvent utilisée comme première
étape à une analyse factorielle (« Dictionary of statistics and
methodology »(Vogt, 1993 page 177).
Introduction :
• L’ACP est une méthode descriptive linéaire. C’est
une technique de réduction des données. Son
objectif est de passer d’un grand nombre de
variables, à un nombre restreint de variables
fictives appelés facteurs (ou Composantes principales).
• Elle vise à représenter sous forme graphique
l’essentiel de l’information contenue dans un
tableau de données quantitatif.
• Dans un tableau de données à p variables, les
individus se trouvent dans un espace à p
dimensions.
I- Présentation des
données d’une ACP normée :

• Un tableau (Observation / Variable) à double


entrée est une matrice M (nxp) à n lignes et p
colonnes ; où la ligne i représente la valeur prise par
le ième individu pour les p variables quantitatives
• X1 Xj Xp
• I1

• Ii

• In
I- Présentation des données d’une ACP
normée :

• Dans ce chapitre on se ramène à la matrice centrée


et réduite

1 n
 
n
1
et où x j   X ij ;  2j   X ij  x j
2

n i 1 n i 1
I- Présentation des données d’une ACP
normée :

• Matriciellement, on l’ écrit :

~
Z  I n  1n 1n    M  S 1

  
où I est la matrice identité et où 1  1 1  1
 n n   
  
 n fois 
 1
  étant la matrice des poids (n  n) ; ici :   I n
 n
 1 0 0  0 
 
 0  0 0  
S la matrice diagonale  p  p  des ecarts types S    0 i 0  
 
 0 0 0  0 
 0   0  p 

 1 
 0 0  0 
 1 
 
 0  0 0  
 
1  1 
 S   0 0  
i
 
 0 0 0  0 
 
 
 0   1 
0
  p 

II- Position du problème
• On construit, dans l’ordre, un nombre réduit de
variables « fictives » F1 , F2 , …, Fm , combinaisons
linéaires des variables 𝑍1 , 𝑍2 , … , 𝑍𝑝 , qu’on appelle
composantes principales afin d’en faire une synthèse
du tableau M (où m  p).
A l’étape k, Fk s’écrit matriciellement :
𝑢1𝑘
𝐹 𝑘 = 𝑍𝑢𝑘 𝑜ù 𝑢𝑘 = 𝑢2𝑘 ∈ ℝ𝑝

𝑢𝑝𝑘
𝑝

• La ième ligne de Fk s’écrit alors : 𝐹𝑖𝑘 = 𝑍𝑖𝑗 𝑢𝑗 𝑘


𝑗 =1
• est appelé le kème facteur.
II- Position du problème

• Remarques :
• i)- On convient de prendre𝑝des facteurs normés :
2 2
𝑢𝑘 = 𝑢𝑗 𝑘 =1
𝑗 =1
• ii)- Les composantes Fk𝑝 sont centrées
𝐹𝑘 = 𝑍𝑗 𝑢𝑗 𝑘 = 0
𝑗 =1 =0

• iii)- 𝑉 𝐹 𝑘
= 𝑘 2
𝐹 𝑃 = 𝑍𝑢 𝑍𝑢 𝑘 𝑘
1 𝑘′
= 𝑢 𝑍 ′ 𝑍 𝑢𝑘
𝑃 𝑛

= 𝑢𝑘 𝑅 𝑢𝑘

1 𝑟𝑖𝑗
1 𝑐𝑜𝑣 𝑋𝑖 , 𝑋𝑗
• où 𝑅𝑝×𝑝 = 𝑍′ 𝑍 = ⋱ 𝑒𝑡 𝑜ù 𝑟𝑖𝑗 = ; 𝑖≠𝑗
𝑛 σi σj
𝑟𝑖𝑗 1
III- Détermination des Facteurs
et des composantes principales
• 1)- Espace des individus (Nn )

• Le nuage de points est formé de n individus


représentés, chacun, dans un espace de
dimension p (grâce aux coordonnées relatives
aux p variables).
• Puisque les 𝑍𝑗 sont des variables centrées
réduites, le centre du nuage est l’origine du
repère O ; et on définit le produit scalaire
usuelle (canonique).
III- Détermination des Facteurs et des composantes principales

• 1)- Espace des individus (Nn )


• On montre (voir chapitre 1) qu’à l’étape 1,
on détermine l’axe D1, passant par l’origine,
selon lequel le nuage de points est le plus
dispersé (le plus grand allongement) et que
le vecteur directeur unitaire (||u1||=1) de
cette droite n’est autre que le vecteur
propre associé à la plus grande valeur
propre de la matrice de corrélation :

1 1 1
𝐺𝑚𝑖 = 𝐺𝑀𝑖 𝑢 𝑢 = 𝐺𝑀𝑖 𝑢
Mi D1

d(Mi , D1 )
d(G,Mi)
mi

G
d(G,mi)=||Gmi||
1 𝑛 2 1 1′ 1′
𝑖=1 𝐺𝑚𝑖 = 𝑢 𝑍 ′ 𝑍 𝑢 = 𝑢 𝑅 𝑢1 =
1
𝑛 𝑛
𝐹1
1 1′ 1 𝑛 1 2
𝐹 𝐹 = 1
𝑖=1 𝐹𝑖 = 𝑉(𝐹1 )= 
𝑛 𝑛
• Donc le maximum est atteint lorsque u1 est le vecteur
propre associé à la plus grande valeur propre 1 de la
matrice de corrélation (C’est un problème de
maximisation sous contrainte, on peut le résoudre par
la méthode du multiplicateur de Lagrange (voir CH 1)).
• En conclusion, l’étape1 consiste, grâce à l’ACP, à donner
l’approximation unidimensionnelle du nuage.
• Ensuite, on passe à maximiser la variance dans une
direction orthogonale à D1. Cette droite D2 aura comme
vecteur directeur unitaire u2  u1 et associé à la
deuxième plus grande valeur propre 2 : 1 > 2 …
• ainsi de suite, jusqu’à l’étape k, où on trace la droite Dk
 Dk-1, Dk-2, … D2 et D1 et de vecteur directeur unitaire
uk orthogonal au sous espace engendré par les facteurs
(uk-1 , uk-2 , …, u1 ) et associé à la keme plus grande valeur
propre k et tel que k<…< 2 <1
III- Détermination des Facteurs et des composantes principales

• 2)- Dans l’espace des variables (Np ) :


• Dans cet espace, on construit une variable « fictive »
qui synthétise le mieux les p variables.
𝑝

• A l’étape 1, on détermine F1 tel que 𝑅2 𝐹1 , 𝑍𝑗 soit maximale.


𝑗 =1
• F est le vecteur propre associé à la plus grande valeur
1
1
propre 1 de la matrice 𝑍 𝑍 ′
𝑛
1 ′ 1 1 1′
• En effet : 𝑐𝑜𝑣 𝐹 , 𝑍𝑗 = 𝑍𝑗 𝐹 ⇒ 𝑐𝑜𝑣 𝐹 , 𝑍𝑗 = 2 𝐹 𝑍𝑗 𝑍𝑗′ 𝐹1
1 2 1
𝑛 𝑛
1
1 1′ 1
𝑜𝑟 𝑉 𝑍𝑗 = 1 𝑒𝑡 𝑉 𝐹 = 𝐹 𝐹
𝑛
1′
𝐹 𝑍𝑗 𝑍𝑗′ 𝐹1
⇒ 𝑅2 𝐹1 , 𝑍𝑗 = 1 ′ 1
𝑛𝐹 𝐹
III- Détermination des Facteurs et des composantes principales

• 2)- Dans l’espace des variables (Np ) :


𝑝 1′ 𝑝
𝑍𝑗 𝑍′𝑗 𝐹1 1′
𝐹 𝑗 =1 𝐹 𝑍 𝑍 ′ 𝐹1
⇒ 𝑅2 𝐹1 , 𝑍𝑗 = ′ = ′
𝑗 =1
𝑛𝐹1 𝐹1 𝑛𝐹1 𝐹1

• On démontre que F1 est la meilleure synthèse des p


variables, ce n’est autre que le vecteur propre associé à la
1
plus grande valeur propre 1 de la matrice R (n,n)= 𝑍 𝑍 ′ .
𝑛
• Comme précédemment, à l’étape 2, on construit F , le 2

second vecteur propre associé à la deuxième plus grande


valeur propre 2 : 1 > 2 …et de telle sorte qu’il soit non
corrélé à F1 :
cov(F1 ,F2 )=0  R(F1 ,F2 )=0 et ainsi de suite…
• A l’étape k, Fk est associé à la plus grande k tel que
k<…< 2 < 1 et avec R(Fk ,Fk-1 )=0.
III- Détermination des Facteurs et des composantes principales

• 3)- Conclusion : comparaison des deux approches


• Dans l’espace des variables, à l'étape k, la solution est la
1
composante principale Fk vecteur propre de 𝑍 𝑍′
𝑛
, alors que dans l’espace des individus, la solution est le
1
vecteur propre (le facteur uk) à l’ordre k de 𝑍′ 𝑍
𝑛

• Les deux solutions sont équivalentes, en effet :


1 1
⇒ 𝑍′ 𝑍 𝑢 = 𝜆𝑘 𝑢 ⇒ 𝑍𝑍 ′ 𝑍𝑢𝑘 = 𝜆𝑘 𝑍𝑢𝑘
𝑘 𝑘
𝑛 𝑛 𝑘
𝐹 𝐹𝑘
𝑘 1
⇒ 𝐹 𝑒𝑠𝑡 𝑢𝑛 𝑣𝑒𝑐𝑡𝑒𝑢𝑟 𝑝𝑟𝑜𝑝𝑟𝑒 𝑎𝑠𝑠𝑜𝑐𝑖é à 𝜆𝑘 𝑑𝑒 𝑙𝑎 𝑚𝑎𝑡𝑟𝑖𝑐𝑒 𝑍𝑍 ′
𝑛
III- Détermination des Facteurs et des composantes principales

Remarque :

𝜆𝑘 = 𝑝
𝑘=1
En effet :
p
1 ′
λk = Tr Z Z = 1+1+⋯+1 = p
n p fois
k=1
III- Détermination des Facteurs et des composantes principales

• 4)- Part de variance expliquée par un axe factoriel


• Chaque étape, parmi les p étapes de l’ACP,
fournit une synthèse du tableau moins
intéressante que la précédente.
• A l’étape k, on a :
𝑛
• 1 𝑘 2 𝑘 𝑘 2
𝐹𝑖 =𝑉 𝐹 = 𝐹 𝑃 = 𝜆𝑘
𝑛
𝑖=1
• (taux d’inertie (information)) expliquée par l’axe k est :

𝜆𝑘 𝜆𝑘
𝑝 =
𝑘=1 𝜆 𝑘 𝑝
III- Détermination des Facteurs et des composantes principales

• 4)- Part de variance expliquée par un axe factoriel

• De même dans l’espace des variables, on a :


𝑝 𝑘′ 𝑝 𝑡 𝑘
1 𝑘 1 𝐹 𝑍
𝑗 =1 𝑗 𝑍𝑗 𝐹
2 2
𝑅 = 𝑅 𝐹 , 𝑍𝑗 = ′ 𝑘
𝑝 𝑝 𝑘
𝑛𝐹 𝐹
𝑗 =1
𝑘′
1 𝜆𝑘 𝐹 𝐹 𝑘 𝜆𝑘
= ′ =
𝑝 𝐹𝑘 𝐹𝑘 𝑝
𝜆
• D’où 𝑘 est la moyenne des carrés des corrélations entre
𝑝
les p variables et le kème axe.

• Remarque: Puisque les k sont décroissantes, l’information


principale réside dans les premiers axes.
Relations de Transition
• On a vu que les deux analyses du même tableau M
nous ont données respectivement les deux nuages
N n et Np . Ces deux nuages sont liés par ce
qu’on appelle les relations de dualité (où :
𝑘 𝑘
𝐹𝑖 ( 𝑟𝑒𝑠𝑝𝑐𝑡. 𝐺𝑗 ) la kème coordonnée factorielle de
l’individu i (respct. de la variable j)
𝑝
1
𝐹𝑖 =𝑘
𝑧𝑖𝑗 𝐺𝑗 𝑘
𝜆𝑘 𝑗 =1
𝑛
𝑘 1
𝐺𝑗 = 𝑧𝑖𝑗 𝐹𝑖 𝑘
𝑛 𝜆𝑘 𝑖=1
Relations de Transition

• Un individu se trouvant donc du côté d’une


variable prendra des fortes valeurs pour celle-ci
et de faibles valeurs s’il se trouve à l’opposé.
VI- Les aides à l’interprétation
• 1)- la représentation des individus
• L’analyse se fait grâce à la projection des individus
sur les plans principaux formés par 2 axes des
premiers retenus par exemple F1 et F2 ou F1 et F3, …

F2 F3
Mi Fi3 Mi
F i2

Fi1 F1 Fi1 F1
VI- Les aides à l’interprétation
• 1)- la représentation des individus

• Remarque : Attention aux erreurs de perspectives

• Pour une meilleur lecture de ces graphiques, on a


souvent recourt aux calculs des aides à
l’interprétation. Les plus utilisées sont :
qualité de représentation (QR) d’un point et la
contribution (C) de chaque individu à la variance.
VI- Les aides à l’interprétation

• 1)- la représentation des individus


• a)- La Qualité de représentation d’un point :
• a)- La QR de l’individu i sur l’axe k est
mesurée par 𝑘 2
k 𝐹𝑖
QR i = 𝑝 2
𝑗 =1 𝑍𝑖𝑗
𝑝
2
• 𝑍𝑖𝑗 est le carré de la distance de l’individu i au centre du nuage G.
𝑗 =1 𝑝
2
• De même 𝐹𝑖𝑘 est celui dans la nouvelle base.
𝑘=1
𝑝 𝑝
2 2
• Par suite 𝐹𝑖𝑘 = 𝑍𝑖𝑗
𝑘=1 𝑗 =1
VI- Les aides à l’interprétation

• 1)- la représentation des individus


• a)- La Qualité de représentation d’un point :

b)- La QR de l’individu i sur le plan principal (k ,k’)


est mesurée par :
2
• 𝑘 2 𝑘′
k,k ′ 𝐹𝑖 𝐹𝑖
QR i = 𝑝 2 + 𝑝 2
𝑗 =1 𝑍𝑖𝑗 𝑗 =1 𝑍𝑖𝑗

• Remarque :
• i)-
2
k 𝐺𝑀𝑖 𝑢𝑘 2 𝑘 k,k ′ ′
QR i = 2 = cos 𝐺𝑀𝑖 ; 𝑢 𝑒𝑡 QR i = cos 2 𝐺𝑀𝑖 ; 𝑢𝑘 + cos2 𝐺𝑀𝑖 ; 𝑢𝑘
𝐺𝑀𝑖
VI- Les aides à l’interprétation

• 1)- la représentation des individus


• a)- La Qualité de représentation d’un point :

• Un individu est bien expliqué par un axe k si


son QRi(k) est grand ou si son cos2 est proche
de 1.

• Conséquence : lorsque la projection d’un


individu i sur l’axe k est proche de l’origine (Fik
est faible ), alors sa qualité de représentation
par rapport à cet axe est faible .
VI- Les aides à l’interprétation

• 1)- la représentation des individus

• b)- Les points individus remarquables :

• On dit qu’ un individu est remarquable


s’il prend des valeurs extrêmes sur
plusieurs variables, autrement s’il est loin
de G dans l’espace Rp.
VI- Les aides à l’interprétation

• 1)- la représentation des individus


• c)- la contribution (C) de chaque individu à la
variance 𝑛
1 2
𝑉𝐸 𝑘
= 𝐹𝑖𝑘 = λk = V F k
n
𝑖=1

• Chaque individu a une part de la


1 2
𝑉𝐸 𝑘
qui est égale à 𝐹𝑖𝑘
n

• La contribution de chaque individu i à la


variance de l’axe k est égale à
𝑘 2
𝐹𝑖
𝐶𝑖𝑘 =
𝑛λk
VI- Les aides à l’interprétation

• 1)- la représentation des individus


• c)- la contribution (C) de chaque individu à la
variance

• Remarque :
𝑛

• Pour un k donné 𝐶𝑖𝑘 = 100% ;


𝑖=1

• plus Cik est grande plus l’individu i est


important dans la construction de l’axe k.
VI- Les aides à l’interprétation

• 1)- la représentation des individus


• d)- Les Individus supplémentaires (illustratifs):
• On dit qu’un individu est supplémentaire
s’il est représenté sur les axes factoriels
sans avoir contribué à leurs formations.
Leur rôle est d’illustrer ces axes.

• Remarque :
• un individu supplémentaire est choisi
parmi les points extrêmes du nuage.
VI- Les aides à l’interprétation

• 2)- La représentation des variables :


• Il s’agit de représenter les p variables par leurs
projections sur le plan principal choisi.
• La coordonnée de la variable 𝑍𝑗 est donnée
par : 𝑐𝑜𝑣 𝐹 𝑘 , 𝑍𝑗 𝑘
𝑘
= 𝑅 𝐹 , 𝑍𝑗
𝜎 𝐹

• Dans la nouvelle base, les coordonnées de 𝑍𝑗 sont :


1 2 𝑝
𝑅 𝐹 , 𝑍𝑗 , 𝑅 𝐹 , 𝑍𝑗 , … , 𝑅 𝐹 , 𝑍𝑗
𝑝

⇒ 𝑅 2 𝐹 𝑘 , 𝑍𝑗 = 1 𝑐𝑎𝑟 𝑍𝑗 𝑒𝑠𝑡 𝑛𝑜𝑟𝑚é𝑒


𝑘=1
VI- Les aides à l’interprétation

F2

𝑅 𝐹 2 , 𝑍𝑗
𝑍𝑗
F1
𝑅 𝐹1 , 𝑍𝑗

2 1 2 2
𝑅 𝐹 , 𝑍𝑗 + 𝑅 𝐹 , 𝑍𝑗 ≤ 1
VI- Les aides à l’interprétation

• 2)- La représentation des variables :

• Remarques :

i. Le point représentatif de 𝑍𝑗 est situé à


l’intérieur d’un cercle de rayon 1
ii.Si 𝑍𝑗 est proche du bord du cercle, alors 𝑍𝑗 est
proche du plan principal (Fk,Fk’).
iii.Si 𝑍𝑗 et 𝑍𝑗 ′ sont proches du bord du cercle, alors
l’angle entre ces deux variables est proche de
l’angle qu’elles font entre elles dans l’espace
des variables et son cosinus est
approximativement égal au R( 𝑍𝑗 , 𝑍𝑗 ′ ) :
VI- Les aides à l’interprétation
• 2)- La représentation des variables :
• Remarques :
cos  ≈ R( 𝑍𝑗 , 𝑍𝑗′ ) ;
𝑍𝑗

𝑍𝑗 ′

si  𝑍𝑗 et 𝑍𝑗 ′ sont très fortement corrélées


par contre si  ≈ /2, 𝑍𝑗 et 𝑍𝑗 ′ ne sont pas corrélées. Si elles
sont opposées alors R( 𝑍𝑗 , 𝑍𝑗 ′ ) ≈ -1.

En fin le cercle de corrélation décrit l’essentiel de la matrice de


corrélation entre les p variables.
VI- Les aides à l’interprétation

• 3)- Calcul des coefficients de corrélation :

• Soit la matrice 𝑍 , alors


𝑘
𝑅 𝐹 ,𝑍 = 𝜆𝑘 𝑢𝑘

• en effet :
𝑘 𝑘 𝑘
𝑐𝑜𝑣 𝐹 , 𝑍 𝑍 ′ 𝐹 𝑍′ 𝑍 𝑢
𝑅 𝐹𝑘 , 𝑍 = 𝑘
= =
𝜎 𝐹 n 𝜆𝑘 n 𝜆𝑘
𝜆𝑘 𝑢𝑘
= = 𝜆𝑘 𝑢𝑘
𝜆𝑘
VI- Les aides à l’interprétation

4)- la représentation des Variables


quantitatives supplémentaires:

• Une variable supplémentaire n’intervient


pas dans les calculs des distances entre
individus. Mais peut illustrer les axes.
VI- Les aides à l’interprétation

4)- la représentation des Variables


qualitatives supplémentaires:

• Certes, l’ACP est faite avec des variables


quantitatives, néanmoins, dans un sens
illustratif, on peut utiliser les variables
qualitatives comme supplémentaires.

• Une modalité est le barycentre des individus la


présentant. C’est pour cela qu’on la représente
sur le graphique des Individus.
VI- Les aides à l’interprétation

4)- la représentation des Variables


qualitatives supplémentaires:

• Rem : une modalité supplémentaire peut être


considérée comme un individu supplémentaire
« moyen », qui prendrait pour chaque variable
active la moyenne calculée sur l’ensemble des
individus la possédant.
VI- Les aides à l’interprétation

• 5)- Description Automatique des axes


Grâce au logiciel R, on peut avoir une
description automatique des axes pour toutes
les variables actives et supplémentaires, c’est-
à-dire une liste, par ordre, des variables les
plus corrélés et ce pour chaque axe.

> dimdesc(res.acp)

Cet aide devient très intéressant pour décrire


les axes lorsque le nombre de variables est très
grand.
VI- Les aides à l’interprétation

• 6)- Nombre d’axes à retenir


• Méthode du coude :
• Posons 𝜀1 = 𝜆1 − 𝜆2 ; 𝜀2 = 𝜆2 − 𝜆3 ; 𝜀3 = 𝜆3 − 𝜆4 ; …
• 𝑒𝑡 𝛿1 = 𝜀1 − 𝜀2 ; 𝛿2 = 𝜀2 − 𝜀3 ; …

• On retient les valeurs propres 𝜆1 , 𝜆2 , 𝜆3 … , 𝜆𝑘+1 telles


que 𝛿1 ; 𝛿2 ; … ; 𝛿𝑘 soient tous positifs…

• Méthode de Kaiser :
• On prend les axes correspondant aux valeurs propres
supérieures à 1.

• C’est la deuxième méthode qu’on retiendra !
VI- Les aides à l’interprétation

• 7)- Test de Significativité des axes

• Le résultat est donné, soit pour un axe soit


pour un plan, par les quatre Tables
données en Annexe.

• Si le pourcentage d’Inertie d’un axe


(respectivement un plan) (pour n et p
données) est supérieur à celui tabulé alors
l’axe (respectivement le plan) est
significatif à 95%.
VI- Les aides à l’interprétation

• 8)- Rotation VARIMAX des axes


• La rotation Varimax est celle qui maximise
la somme des carrées des facteurs(les u(k) ).
• Quand les axes ne sont pas assez
corrélées avec les variables, la rotation
varimax fourni de nouveaux axes très liées
à certaines variables et peu liées aux
autres. Mais cette procédure nécessite la
détermination du nombre d’axes retenus
(étape 6).
V- Exemple d’application de
l’ACP

• Le but de cette application est purement
pédagogique !
• On donne ci-après les consommations annuelles en
1972 (arrondies au Franc près) de 8 denrées
alimentaires (les variables). Les individus sont les 8
CSP (catégories socioprofessionnelles). Les données
sont donc des moyennes par CSP.
• Le tableau ci-dessous est de la forme
Observations/Variables
V- Exemple d’application de l’ACP

PAO PAA Thé JE POT LEC RAI PLP


AGRI 167 1 163 23 41 8 6 6
S AA G 162 2 141 12 40 12 4 15
PRIN 119 6 69 56 39 5 13 41
CSUP 87 11 63 111 27 3 18 39
CMOY 103 5 68 77 32 4 11 30
EMPL 111 4 72 66 34 6 10 28
OUVR 130 3 76 52 43 7 7 16
INAC 138 7 117 74 53 8 12 20
V- Exemple d’application de l’ACP

AGRI Exploitants agricoles PAO Pain ordinaire


SAAG Salariés agricoles PAA Autres pains
Professions
PRIN
indépendantes Thé
CSUP Cadres supérieurs JE Jus exotiques
CMOY Cadres moyens POT Pommes de terre
EMPL Employés LEC Légumes secs
OUVR Ouvriers RAI Raisin de table
INAC Inactifs PLP Plats préparés
V- Exemple d’application de l’ACP
• On écrit la matrice M comme suit
167 1 163 23 41 8 6 6
162 2 141 12 40 12 4 15
119 6 69 56 39 5 13 41
87 11 63 111 27 3 18 39
𝑀=
103 5 68 77 32 4 11 30
111 4 72 66 34 6 10 28
130 3 76 52 43 7 7 16
138 7 117 74 53 8 12 20
On effectue une ACP : normée par le logiciel R
> require(FactoMineR); require(factoextra)
> M <- read.csv2(file.choose(),row.names=1) # M
> res.cons <- PCA(M, graph = FALSE)
V- Exemple d’application de l’ACP

• On écrit la matrice de corrélation pour pouvoir


dégager certaines corrélations éventuelles :

> round(cor(M),2) # ou : round(cor( M[ , 1:8]) ,2)

PAO PAA The JE POT LEC RAI PLP


PAO 1.00 -0.77 0.93 -0.91 0.66 0.89 -0.83 -0.86
PAA -0.77 1.00 -0.60 0.90 -0.33 -0.67 0.96 0.77
The 0.93 -0.60 1.00 -0.75 0.52 0.79 -0.67 -0.83
JE -0.91 0.90 -0.75 1.00 -0.42 -0.84 0.92 0.72
POT 0.66 -0.33 0.52 -0.42 1.00 0.60 -0.41 -0.55
LEC 0.89 -0.67 0.79 -0.84 0.60 1.00 -0.82 -0.75
RAI -0.83 0.96 -0.67 0.92 -0.41 -0.82 1.00 0.83
PLP -0.86 0.77 -0.83 0.72 -0.55 -0.75 0.83 1.00

• Ou bien :
> library("PerformanceAnalytics")
> chart.Correlation(M, histogram=TRUE, pch=19)
2 6 10 20 60 4 8 12 5 20 35

PAO .
* *** ** ** * **

100 140
Density

-0.77 0.93 -0.91 0.66 0.89 -0.83 -0.86


.
6 10

PAA ** *** *
Density

x
-0.60 0.90 -0.33 -0.67 0.96 0.77
2

The .
* * *
Density

120
-0.75 0.52 0.79 -0.67 -0.83
x

60
JE ** ** *
Density

-0.84 0.92 0.72


20 60

-0.42
x

30 40 50
POT
Density

0.60 -0.41 -0.55


x
12

Density LEC * *
8

-0.82 -0.75
x
4

RAI **
Density

14
0.83

4 8
x

PLP
20 35

Density x
5

100 140 60 120 30 40 50 4 8 14

x
V- Exemple d’application avec
« factoextra »

> get_eigenvalue(res.cons)# res.cons$eig

eigenvalue variance.percent cumulative.variance.percent


Dim.1 6.207946839 77.59933549 77.59934
Dim.2 0.879681393 10.99601741 88.59535
Dim.3 0.415961123 5.19951404 93.79487
Dim.4 0.306454670 3.83068337 97.62555
Dim.5 0.168441497 2.10551872 99.73107
Dim.6 0.018067709 0.22584636 99.95692
Dim.7 0.003446769 0.04308461 100.00000

Deux composantes ont suffi pour expliquer plus de 88% de


l’information (Inertie totale).
Le Nombre d’axes à retenir :
La méthode de Kaiser: donne 1 axe, mais on doit ajouter le 2 eme
i0 <- which(res$eig[,1]>=1) # les n° des axes dont les val-proprs>=1
if(length(i0)==1) {
lambda <- data.frame(res$eig[1:2,1]) # réecrire comme data.frame pour pouvoir
ajouter les noms (lignes et colonnes)
names(lambda) <- "Kaiser nous permet de retenir le 1er axe mais on sera contraint de
prendre aussi le deuxieme:" # ajout nom de la colonne
row.names(lambda) <- paste("F",c(i0,2),sep="") # ajout noms des lignes (les components)
lambda
} else {
lambda <- data.frame(res$eig[i0,1])
names(lambda) <- paste("Kaiser nous a permis de retenir les",length(i0),"axes
suivants :")
row.names(lambda) <- paste("F",i0,sep="")
lambda}
• Kaiser nous permet de retenir le 1er axe mais on sera contraint de prendre aussi le
deuxième :
• F1 6.2079468
• F2 0.8796814
Méthode graphiques : # Il y a une autre méthode (voir plus loin): méthode de l'ebouli des valeurs propres ( tuyaux d'orgue : barplot)
> require(LeLogicielR)
> barplot(res.cons$eig[,1],names.arg =expression(F^1, F^2, F^3, F^4, F^5, F^6,F^7), col.axis=4
,col="darkgreen", yaxt = "n")
> axis(side=2,at=round(res.cons$eig[,1],1),labels=expression(lambda[1], lambda[2], , , ,
,lambda[7]),col=2,las=2,col.tick = 2)
> abline(h=1,lwd=1.7,lty=2,col="blue")
> fleches()
V- Exemple d’application avec « factoextra »

> fviz_eig(res.cons, addlabels = TRUE, ylim = c(0, 80))


Scree plot

80 77.6%

60
Percentage of explained variances

40

20

11%

5.2%
3.8%
2.1%
0.2% 0%
0

1 2 3 4 5 6 7
Dimensions
V- Exemple d’application de l’ACP
• > var <- get_pca_var(res.cons)
• > library("corrplot")
• > corrplot(var$cos2, is.corr=FALSE)

Dim.1

Dim.2

Dim.3

Dim.4

Dim.5
0.95

PAO
0.86

PAA 0.76

The 0.67

0.57
JE

0.48

POT
0.38

LEC 0.29

RAI 0.19

0.1
PLP

0
> plot(res.cons, col.var = 1:8)

Variables factor map (PCA)

1.0

POT
0.5

PAA
Dim 2 (11.00%)

The RAI JE
LEC
PAO
0.0

PLP
-0.5
-1.0

-1.0 -0.5 0.0 0.5 1.0

Dim 1 (77.60%)
> fviz_pca_var(res.cons, col.var = "cos2",
gradient.cols = c("#00AFBB", "#E7B800", "#FC4E07"),
repel = TRUE # Avoid text overlapping
)
Variables - PCA
1.0

POT

0.5 PAA
RAI cos2
The
PAO
Dim2 (11%)

JE 0.95

LEC PLP 0.90


0.0

0.85

0.80
-0.5

-1.0

-1.0 -0.5 0.0 0.5 1.0


Dim1 (77.6%)
V- Exemple d’application avec « XLSTAT »

Ici par exemple, on peut écrire F1 comme suit :

F1 =
V- Exemple d’application avec « XLSTAT »

Pour tracer le cercle de corrélation, on a besoin des


𝑘
𝑅 𝐹 ,𝑍 = 𝜆𝑘 𝑢𝑘
V- Exemple d’application de l’ACP

Pour une ACP Normée


les coordonnées d’une variable

=
Corrélations entre celle-là et les axes !
V- Exemple d’application de l’ACP

• Interprétations concernant la représentation des


variables dans le plan (F1 , F2) :
• Le premier axe mesure la répartition de la
consommation entre aliments ordinaires « bon
marché » (PAO, THE, LEC) et aliments plus
recherchés « chers » (PAA, JE, RAI, PLP). l’opposition
existante entre individus le long de l’axe 1 reflète,
par conséquent, l’opposition entre consommations
ordinaires et consommations recherchés.
• Le deuxième axe est caractéristique de la
consommation de pommes de terre, l’aliment le
plus consommé par les « inactifs »
V- Interprétation des Sorties logiciels

L’origine de la représentation des individus, montre un


individu (catégorie fictive) de consommation moyenne. On
voit aussi les coordonnées des 8 catégories sur le plan
principale F1 et F2
V- Exemple d’application de l’ACP

• Interprétations concernant la représentation des individus


dans le plan (F1 , F2) :
• Seule la catégorie « ouvrier » est mal représentée sur le plan (F1 , F2).
• Le premier axe met en évidence l’opposition (quant aux
consommations alimentaires évoquées dans le tableau) existant
entre cadres supérieurs et agriculteurs. Les autres catégories
s’échelonnent le long de cet axe selon la hiérarchie sociale
habituelle.
• Le deuxième axe est caractéristique des « inactifs »avec 75,6% ; qui
sont opposés à presque toutes les autres catégories.
>M <- read.csv2(file.choose,row.names=1)
> res.cons=PCA(M) ; res
> summary(> res.cons)

Call:
" res.cons <- PCA(M , scale.unit=TRUE, ncp=5, graph = FALSE)"
Eigenvalues
Dim.1 Dim.2 Dim.3 Dim.4 Dim.5 Dim.6 Dim.7
Variance 6.208 0.880 0.416 0.306 0.168 0.018 0.003
% of var. 77.599 10.996 5.200 3.831 2.106 0.226 0.043
Cumulative % of var. 77.599 88.595 93.795 97.626 99.731 99.957 100.000

Individuals
Dist Dim.1 ctr cos2 Dim.2 ctr cos2 Dim.3 ctr cos2
AGRI | 3.585 | -3.372 22.889 0.884 | -0.246 0.859 0.005 | 0.840 21.183 0.055 |
SAAG | 3.716 | -3.522 24.973 0.898 | -0.447 2.844 0.014 | 0.352 3.713 0.009 |
PRIN | 1.942 | 1.472 4.363 0.575 | 0.059 0.049 0.001 | -0.553 9.188 0.081 |
CSUP | 4.491 | 4.359 38.255 0.942 | 0.176 0.441 0.002 | 1.029 31.831 0.053 |
CMOY | 1.980 | 1.718 5.944 0.753 | -0.857 10.428 0.187 | -0.175 0.916 0.008 |
EMPL | 1.233 | 0.807 1.310 0.428 | -0.809 9.289 0.430 | -0.345 3.574 0.078 |
OUVR | 1.497 | -0.899 1.628 0.361 | -0.183 0.476 0.015 | -0.978 28.724 0.426 |
INAC | 2.390 | -0.563 0.638 0.056 | 2.307 75.615 0.932 | -0.170 0.870 0.005 |

Variables
Dim.1 ctr cos2 Dim.2 ctr cos2 Dim.3 ctr cos2
PAO | -0.975 15.312 0.951 | 0.129 1.900 0.017 | 0.104 2.615 0.011 |
PAA | 0.869 12.157 0.755 | 0.413 19.412 0.171 | 0.206 10.237 0.043 |
The | -0.870 12.194 0.757 | 0.189 4.068 0.036 | 0.439 46.326 0.193 |
JE | 0.931 13.960 0.867 | 0.244 6.776 0.060 | 0.047 0.540 0.002 |
POT | -0.614 6.070 0.377 | 0.698 55.328 0.487 | -0.360 31.098 0.129 |
LEC | -0.909 13.310 0.826 | 0.120 1.639 0.014 | 0.021 0.105 0.000 |
RAI | 0.929 13.917 0.864 | 0.306 10.626 0.093 | 0.164 6.464 0.027 | •
PLP | 0.901 13.081 0.812 | -0.047 0.252 0.002 | -0.104 2.614 0.011 |
4
3
Individuals factor map (PCA)

INAC
2
Dim 2 (11.00%)

1
0

AGRI CSUP
PRIN
OUVR
SAAG
CMOY
-1

EMPL
-2

-4 -2 0 2 4

Dim 1 (77.60%)
1.0 Variables factor map (PCA)

POT
0.5

PAA
RAI
The
PAO JE
Dim 2 (11.00%)

LEC
0.0

PLP
-0.5
-1.0

-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5

Dim 1 (77.60%)
Description automatique des axes:
dimdesc(res.cons , proba=0.06)
• $Dim.1
• $Dim.1$quanti
• correlation p.value
• JE 0.9309151 7.821882e-04
• RAI 0.9294859 8.308315e-04
• PLP 0.9011429 2.239726e-03
• PAA 0.8687483 5.110853e-03
• The -0.8700402 4.966446e-03
• LEC -0.9089814 1.758745e-03
• PAO -0.9749797 3.842664e-05

• $Dim.2
• $Dim.2$quanti
• correlation p.value
• POT 0.6976447 0.05437981
plot(res.cons,choix="ind",select="contrib 4")
> plot(res.cons , choix="ind" , col.ind=2 , cex=1.1 , select="cos2 .9")
> plot(res.cons,choix="var",lim.cos2.var = 0.95 , col.var=4)
1.0
0.5
Variables factor map (PCA)

RAI
Dim 2 (11.00%)

PAO
0.0
-0.5
-1.0

-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5

Dim 1 (77.60%)
> HCPC(res.cons)

Factor map

cluster 1
3

cluster 2
cluster 3
cluster 4
INAC
2
Dim 2 (11.00%)

CSUP
0

PRIN

AGRI OUVR
SAAG

EMPL CMOY
-1

-4 -2 0 2 4

Dim 1 (77.60%)
Hierarchical clustering on the factor map

cluster 1
cluster 2
cluster 3
cluster 4
5
4
3
height

Dim 2 (11%)
2.5
2.0
1

INAC
1.5
1.0
0.5
0.0
PRIN CSUP -0.5
AGRI OUVR
0

SAAG -1.0
EMPL CMOY
-4 -2 0 2 4 6

Dim 1 (77.6%)
Tables

• Quantile à 95 % du pourcentage d’inertie des 2


premières dimensions de 10000 PCA obtenue avec
des variables indépendantes
Pourcentage d’inertie expliqué par 1er plan lorsque indépendance entre variables
nbind 4 5 6 7 8 9 10 11 12 13 14 15 16
5 96.5 93.1 90.2 87.6 85.5 83.4 81.9 80.7 79.4 78.1 77.4 76.6 75.5
6 93.3 88.6 84.8 81.5 79.1 76.9 75.1 73.2 72.2 70.8 69.8 68.7 68.0
7 90.5 84.9 80.9 77.4 74.4 72.0 70.1 68.3 67.0 65.3 64.3 63.2 62.2
8 88.1 82.3 77.2 73.8 70.7 68.2 66.1 64.0 62.8 61.2 60.0 59.0 58.0

9 86.1 79.5 74.8 70.7 67.4 65.1 62.9 61.1 59.4 57.9 56.5 55.4 54.3
10 84.5 77.5 72.3 68.2 65.0 62.4 60.1 58.3 56.5 55.1 53.7 52.5 51.5
11 82.8 75.7 70.3 66.3 62.9 60.1 58.0 56.0 54.4 52.7 51.3 50.1 49.2
12 81.5 74.0 68.6 64.4 61.2 58.3 55.8 54.0 52.4 50.9 49.3 48.2 47.2
13 80.0 72.5 67.2 62.9 59.4 56.7 54.4 52.2 50.5 48.9 47.7 46.6 45.4
14 79.0 71.5 65.7 61.5 58.1 55.1 52.8 50.8 49.0 47.5 46.2 45.0 44.0
15 78.1 70.3 64.6 60.3 57.0 53.9 51.5 49.4 47.8 46.1 44.9 43.6 42.5
16 77.3 69.4 63.5 59.2 55.6 52.9 50.3 48.3 46.6 45.2 43.6 42.4 41.4
17 76.5 68.4 62.6 58.2 54.7 51.8 49.3 47.1 45.5 44.0 42.6 41.4 40.3
18 75.5 67.6 61.8 57.1 53.7 50.8 48.4 46.3 44.6 43.0 41.6 40.4 39.3
19 75.1 67.0 60.9 56.5 52.8 49.9 47.4 45.5 43.7 42.1 40.7 39.6 38.4
20 74.1 66.1 60.1 55.6 52.1 49.1 46.6 44.7 42.9 41.3 39.8 38.7 37.5
25 72.0 63.3 57.1 52.5 48.9 46.0 43.4 41.4 39.6 38.1 36.7 35.5 34.5
30 69.8 61.1 55.1 50.3 46.7 43.6 41.1 39.1 37.3 35.7 34.4 33.2 32.1
35 68.5 59.6 53.3 48.6 44.9 41.9 39.5 37.4 35.6 34.0 32.7 31.6 30.4
40 67.5 58.3 52.0 47.3 43.4 40.5 38.0 36.0 34.1 32.7 31.3 30.1 29.1
45 66.4 57.1 50.8 46.1 42.4 39.3 36.9 34.8 33.1 31.5 30.2 29.0 27.9
50 65.6 56.3 49.9 45.2 41.4 38.4 35.9 33.9 32.1 30.5 29.2 28.1 27.0
100 60.9 51.4 44.9 40.0 36.3 33.3 31.0 28.9 27.2 25.8 24.5 23.3 22.3
Pourcentage d’inertie si indépendance entre variables (suite)
nbind 17 18 19 20 25 30 35 40 50 75 100 150 200
5 74.9 74.2 73.5 72.8 70.7 68.8 67.4 66.4 64.7 62.0 60.5 58.5 57.4
6 67.0 66.3 65.6 64.9 62.3 60.4 58.9 57.6 55.8 52.9 51.0 49.0 47.8
7 61.3 60.7 59.7 59.1 56.4 54.3 52.6 51.4 49.5 46.4 44.6 42.4 41.2
8 57.0 56.2 55.4 54.5 51.8 49.7 47.8 46.7 44.6 41.6 39.8 37.6 36.4
9 53.6 52.5 51.8 51.2 48.1 45.9 44.4 42.9 41.0 38.0 36.1 34.0 32.7
10 50.6 49.8 49.0 48.3 45.2 42.9 41.4 40.1 38.0 35.0 33.2 31.0 29.8
11 48.1 47.2 46.5 45.8 42.8 40.6 39.0 37.7 35.6 32.6 30.8 28.7 27.5
12 46.2 45.2 44.4 43.8 40.7 38.5 36.9 35.5 33.5 30.5 28.8 26.7 25.5
13 44.4 43.4 42.8 41.9 39.0 36.8 35.1 33.9 31.8 28.8 27.1 25.0 23.9
14 42.9 42.0 41.3 40.4 37.4 35.2 33.6 32.3 30.4 27.4 25.7 23.6 22.4
15 41.6 40.7 39.8 39.1 36.2 34.0 32.4 31.1 29.0 26.0 24.3 22.4 21.2
16 40.4 39.5 38.7 37.9 35.0 32.8 31.1 29.8 27.9 24.9 23.2 21.2 20.1
17 39.4 38.5 37.6 36.9 33.8 31.7 30.1 28.8 26.8 23.9 22.2 20.3 19.2
18 38.3 37.4 36.7 35.8 32.9 30.7 29.1 27.8 25.9 22.9 21.3 19.4 18.3
19 37.4 36.5 35.8 34.9 32.0 29.9 28.3 27.0 25.1 22.2 20.5 18.6 17.5
20 36.7 35.8 34.9 34.2 31.3 29.1 27.5 26.2 24.3 21.4 19.8 18.0 16.9
25 33.5 32.5 31.8 31.1 28.1 26.0 24.5 23.3 21.4 18.6 17.0 15.2 14.2
30 31.2 30.3 29.5 28.8 26.0 23.9 22.3 21.1 19.3 16.6 15.1 13.4 12.5
35 29.5 28.6 27.9 27.1 24.3 22.2 20.7 19.6 17.8 15.2 13.7 12.1 11.1
40 28.1 27.3 26.5 25.8 23.0 21.0 19.5 18.4 16.6 14.1 12.7 11.1 10.2
45 27.0 26.1 25.4 24.7 21.9 20.0 18.5 17.4 15.7 13.2 11.8 10.3 9.4
50 26.1 25.3 24.6 23.8 21.1 19.1 17.7 16.6 14.9 12.5 11.1 9.6 8.7
100 21.5 20.7 19.9 19.3 16.7 14.9 13.6 12.5 11.0 8.9 7.7 6.4 5.7

Vous aimerez peut-être aussi