Vous êtes sur la page 1sur 77

Analyse Factorielle Exploratoire

Michel Tenenhaus
1. Les données de Kendall

48 candidats à un certain poste sont évalués sur 15 variables :

(1) Form of letter of application (9) Experience


(2) Appearance (10) Drive
(3) Academic ability (11) Ambition
(4) Likeability (12) Grasp
(5) Self-confidence (13) Potential
(6) Lucidity (14) Keeness to join
(7) Honesty (15) Suitability
(8) Salesmanship

2
S um m a

X
XX
1
X2
X
3
X4
X5
X
X
6
X
X7
X
81
X
9
1
X1
X
0
11
1
234
5
61
72
58
78
838
97
51
70
1
925
0
1
890
1
95
09
98
81
80
73
83
69
89
749
98
61
80
54
68
56
59
284
58
76
5
65
88
84
49
285
58
87
7
76
77
68
1
750
96
58
66
6
97
98
88
88
1
818
08
0
91
80
98
99
89
98
1
819
09
0
91
90
99
97
88
88
598
98
81
80
41
1
70
1
2
0
1 0
1
7
01
3
0
11
00
90
1
30
41
1
71
1
0
080
3
95
19
18
02
0
5
41
1
72
1
4
0
1 0
7
0
828
1
8
1 0
3
0
7
61
9
13
85
0
49
444
54
76
8
81
94
8
96
38
252
66
75
6
41
85
8
75
1
420
75
36
64
6
61
96
6
78
98
988
76
81
60
81
77
7
79
58
667
86
67
8
61
88
8
48
86
433
67
26
4
61
79
8
47
85
442
68
35
4
42
80
7
88
1
950
26
79
88
9
32
81
6
88
1
850
36
78
85
8
92
82
7
8
19
11
00
1
3
01
8
01
80
80
1
723
7
0
99
1
910
3
09
1
91
90
80
92
8
14
7
18
0
11
00
2
09
79
1
980
62
95
7
74
59
324
44
45
4
72
86
7
85
48
234
56
55
6
1
227
7
0
98
1
950
35
67
64
5
62
38
5
35
35
003
30
05
0
42
39
4
33
00
004
40
05
0
43
60
5
69
1
430
13
32
27
3
53
51
4
78
1
430
25
53
48
3
33
32
5
77
1
930
25
37
55
2
23
33
5
77
1
930
22
36
45
2
33
44
6
43
38
113
33
25
2
63
75
4
33
09
010
23
15
3
93
86
5
56
68
222
45
66
3
43
97
6
1
480
8
913
97
53
2
43
98
6
69
97
91
128
0
55
2
13
6
0
19
9
19
0
11
0
10
1
00
1
8
0
110
1
00
0
14
6
0
10
9
19
0
11
0
10
1
0
10
1
0
10
10
1
00
0
14
7
01
8
02
12
1
0 2
0
03
01
00
14
3
02
8
01
10
1
0 0
0
00
01
00
34
43
9
82
45
362
13
33
8
74
74
7
69
88
68
188
0
86
5
94
1
65
9
07
1
720
15
57
84
5
94
1
8
16
07
0
1
930
15
79
94
4
04
1
77
3
05
1
000
02
20
00
0
04
1
68
1
05
1
000
02
20
00
0
3
Tableau des corrélations
i o

e l a
X
X
X
X
X
X
X
X
X
X
XX
X
X
X1
2
3
1
41
5
1
6
1
7
1
8
1
9
0
6
9
8
4
6
2
87
9
8
6
5
8X
7
7
6 1
9
8
0
8
3
0
1
14
7
1
1
0
6X
7
4
4 2
4
2
3
4
0
2
1
70
6
6
4
4
8X
0
3
0 3
6
8
0
2
2
0
2
35
7
1
3
7
3X
6
5
7 4
2
8
1
5
1
2
0
80
6
5
4
2
1X
2
2
0 5
8
2
1
1
7
3
8
06
6
7
8
8
3X
7
7
6 6
7
4
4
0
0
5
0
60
1
6
0
5
6X
6
8
3 7
9
4
7
4
6
7
6
61
0
3
1
0
6X
5
9
8 8
8
1
1
9
6
1
5
76
3
0
7
5
9X
8
5
3 9
6
1
1
2
4
3
4
80
1
7
0
0
4X
8
3
3 1
5
4
0
3
4
7
2
85
0
5
0
0
4X
9
7
5 1
8
4
6
2
8
3
1
36
6
9
4
4
0X
6
9
8 1
7
3
7
7
0
6
2
76
5
8
8
9
6X
0
9
4 1
7
0
4
9
3
5
2
78
9
5
3
7
9X
9
0
6 1
6
9
4
0
0
7
0
63
8
3
3
5
8X
4
6
0 1

One of the questions of interest here is how the variables cluster,


in the sense that some of the qualities may be correlated or
confused in the judge’s mind. (There was no purpose in clustering
the candidates - only one was to be chosen). 4
2. Classification Ascendante Hiérarchique des variables
* * * H I E R A R C H I C A L C L U S T E R A N A L Y S I S * * *

Dendrogram using Complete Linkage (Méthode des voisins les plus éloignés)

Rescaled Distance Cluster Combine

C A S E 0 5 10 15 20 25
Label Num +---------+---------+---------+---------+---------+

X6 6 
X12 12  
X8 8   
X11 11   
X5 5   
X10 10  
X13 13   
X2 2  
X4 4   
X14 14   
X7 7  
X9 9  
X15 15  
X1 1  
X3 3 
5
Interprétation des blocs

Bloc 1 : Qualités humaines favorables au poste


(Appearance), Self-confidence, Lucidity, Salesmanship,
Drive, Ambition, Grasp, Potential

Bloc 2 : Qualités de franchise et de communication


Likeability, Honesty, Keenness to join

Bloc 3 : Expérience
Form of letter of application, Experience, Suitability

Bloc 4 : Diplôme
Academic ability
6
3. Uni-dimensionabilité d’un bloc de variables
Question :
Un bloc de variables Xj est-il essentiellement
unidimensionnel ?
Réponse :
1) La première valeur propre 1 de l’analyse en
composante principale du bloc est supérieure à 1,
les autres sont inférieures à 1.
2) Chaque variable est plus corrélée à la première
composante principale qu’aux autres composantes
principales.
3) Chaque variable Xj a une corrélation supérieure
à 0.5, en valeur absolue, avec la première composante.
7
Application : ACP de chaque bloc
Bloc 1
c
e e

p e
o
1
C
6
61X
7
1
82X
7
8
63X
0
6
34X
2
9
15X
5
7
86X
2
9
77X
1
3
08X
9
E

Bloc 1 unidimensionnel
8
Application
Bloc 2 Bloc 3

c
c

gee
C
C
0
2
2
0 1
1
6
3
6
0 2
2
4
4
0
0 3
3
E
E

oo
1
1
X
1X
1
X
1X
7
X
3X
8

9
4. Fiabilité de l’instrument de mesure
Mesure globale de l’homogénéité d’un bloc de
variables positivement corrélées entre elles :
L’Alpha de Cronbach
Question :
Comment mesurer globalement la fiabilité de
l’instrument de mesure ?
C’est à dire le niveau d’homogénéité d’un bloc
de variables xi positivement corrélées entre elles ?

Réponse :

Utilisation du Alpha de Cronbach


10
Le modèle
xi    ei , i  1,..., p

où :   vraie mesure
xi  item n° i

ei  erreur de mesure

avec les ei et  indépendants. 11


Définition du  de Cronbach
p
Score H   xi
i 1

 de Cronbach = Cor 2 ( H , )

Formule de calcul du  de Cronbach

 p 
 Cov( x , x )i j
 p 
 Var ( xi ) 
  
i j
   i 
  1
 p  1  Var ( H )  p  1  Var ( H ) 
 

  1, et = 1 lorsque toutes les corrélations entre les xi sont égales à 1


12
et toutes les variances des xi sont égales.
 de Cronbach pour items centrés-réduits
On a la décomposition suivante :
p p
Var ( xi )  Var ( xi )   Cov( x j , xk )
i 1 i 1 j k

Si les variables sont centrées-réduites on obtient :

Var ( H )  p   Cor ( x j , xk )
j k

Un bloc de variables positivement corrélées entre elles est


homogène si la corrélation moyenne
1
r  
p ( p  1) j  k
Cor ( x j , xk )

est grande.
13
 de Cronbach pour items centrées-réduites
Le rapport
 p 
 Cov( x , x )
i j
i j

   
 p  1  Var ( H )

devient : 1
 Cor ( xi , x j )
2 p ( p  1) i  j pr
  p 
Var ( H ) 1  ( p  1)r

Un bloc est considéré comme homogène si :


-   0.6 pour des recherches exploratoires
-   0.7 pour des recherches confirmatoires

14
Application :  de Cronbach de chaque bloc
Bloc 1

i o

e l
X
X
X
X
X
X11
1
2
1
5
6
8
0
1
1
7
1
06
7X
1
0
8
6
4
21
2X
1
8
0
6
8
83
7X
7
6
6
0
1
06
5X
1
4
8
1
0
04
8X
0
2
8
0
0
04
9X
6
1
3
6
4
40
6X
7
2
7
5
8
96
0X

Les corrélations sont toutes positives.


15
Bloc 1
R E L I A B I L I T Y A N A L Y S I S - S C A L E (A L P H A)

Item-total Statistics

Scale Scale Corrected


Mean Variance Item- Squared Alpha
if Item if Item Total Multiple if Item
Deleted Deleted Correlation Correlation Deleted

X2 41.2708 364.1591 .5052 .4435 .9599


X5 41.4167 327.0142 .8356 .7957 .9435
X6 42.0417 300.9344 .8633 .8823 .9404
X8 43.5625 289.2726 .8883 .8530 .9391
X10 43.0417 312.5940 .8122 .7783 .9438
X11 42.3750 305.6011 .8937 .8493 .9384
X12 42.1042 303.3293 .8834 .8853 .9390
X13 42.6667 301.1206 .8570 .8345 .9409

Reliability Coefficients 8 items

Alpha = .9503 Standardized item alpha = .9489

Scale = Somme des variables 16


Bloc 2
o

l
14
7
X
X
X

Item-total Statistics

Scale Scale Corrected


Mean Variance Item- Squared Alpha
if Item if Item Total Multiple if Item
Deleted Deleted Correlation Correlation Deleted

X4 13.6042 19.5208 .7823 .6127 .6185


X7 11.7083 25.1472 .5986 .4166 .8125
X14 14.1875 23.4747 .6312 .4695 .7820

Reliability Coefficients 3 items

Alpha = .8153 Standardized item alpha = .8138

17
Bloc 3
o

e l
X11
9
X
X
X

Item-total Statistics

Scale Scale Corrected


Mean Variance Item- Squared Alpha
if Item if Item Total Multiple if Item
Deleted Deleted Correlation Correlation Deleted

X1 10.1875 36.9641 .6165 .3824 .8184


X9 11.9583 28.3812 .7043 .5107 .7287
X15 10.2292 27.7974 .7318 .5405 .6981

Reliability Coefficients 3 items

Alpha = .8223 Standardized item alpha = .8237

18
5. ACP des données de Kendall
n c e

og fe S
V
V
ou
o
la
C
al
ta
at
ar
t
a
9
96
6
91
6
6
1
87
3
82
7
3
6
20
2
23
0
2
1
79
1
74
9
1
98
95
35
46
12
67
06
28
66
89
82
91 0
95
41 1
30
51 2
54
81 3
49
81 4
52
01 5
E

19
ACP des données de Kendall
a
e n

p o
12
3
4
2X
8X
1X
3X
5X
4X
9X
0
0X
6
5X
6
5X
3X
5X
8X
6X
0X
E x
a
4

Les corrélations inférieures à 0.5 en valeur absolue ne sont pas montrées. 20


ACP + « Rotation Varimax »
a
p o

p o
12
3
4
8X
7X
7X
3X
6X
8X
1X
6X
2X
0X
7X
2X
3X
8X
8X
E x
R
a
R .

Seules sont montrées les corrélations maximum en valeur absolue sur


chaque ligne. 21
6. Analyse Factorielle orthogonale
6.1. Les données
p variables aléatoires X1,…, Xp, en général centrées-réduites.

6.2. Le modèle

X1 = 11Y1 + … + 1mYm + e1
..
.
Xi = i1Y1 + … + imYm + ei
..
.
Xp = p1Y1 + … + pmYm + ep

où : Yj = facteurs communs centrés-réduits


ei = facteurs spécifiques centrés et de variance i
Les facteurs Y1,…, Ym, e1,…, em sont tous non corrélés entre eux. 22
6.3. Analyse Factorielle
(Option analyse en composantes principales)

Les données
p variables X1,…, Xp centrées-réduites.

Estimation des facteurs Y1, …, Ym

Les m premières composantes principales réduites.

Choix de m
Nombre de valeurs propres supérieures à 1.

23
Application Kendall
n c e

o
g fe S
V
o
uo
la
C
al
ta
at
ar
t
9
6
69
61
6
8
7
38
72
3
2
0
22
03
2
7
9
17
94
1
9
8
9 5
3
5
4 6
1
2
6 7
0
6
2 8
6
6
8 9
8
2
9 1 0
9
5
4 1 1
3
0
5 1 2
5
4
8 1 3
4
9
8 1 4
5
2
0 1 5
E

24
Calcul des saturations (loadings) ij

Les loadings ij sont les coefficients de régression des Yj


dans la régression de Xi sur les facteurs Y1,…, Ym.
Les facteurs étant orthogonaux (= non corrélés) on a :
ij = Cor(Xi, Yj)

Calcul des communautés (communalities) hi2


m m
h  R (Xi ; Y1 ,..., Ym )   cor (Xi , Yj )   ij2
2
i
2 2

j1 j1

25
Application Kendall
Matrice des corrélations entre les variables et les
2
u
facteurs
e a
nn
 ij hi
paoc
12
3
4
2 X
5
8
2
9X 1
X
6
3
8
7
9X 2
2 X
9
0
0
0X 3
3 X
6
0
5
1X 4
6 X
9
8
5
8X 5
2 X
5
8
2
0X 6
1 X
3
6
1
8X 7
3
X
X
8
1
6
5
0
5
5
9
00
X X
9
4
7
0
58
X X
1
3
8
6
69
X X
1
8
1
5
21
X X
1
2
5
8
35
X X
1
0
4
0
4X
5 X
1
6
5
3
8X
5 1
X
EEx
a
4P.
26
Calcul des spécificités i

m
Var(Xi )  1   ij
 2

j1
 i

hi2 = Var(ei) =
communauté spécificité

Qualité de la décomposition

 Var(Xi )  p 
i 1
 i1  ... 

i
2
 im

i
2
 i
i

Variance Variance Variance Variance


totale expliquée expliquée résiduelle
par Y1 ( = 1) par Ym ( = m) 27
Application Kendall avec m = 4
e n Communauté
p o
m
h  
1
2
342 2
5
8
2
9 X
i ij
3
8
7
9 X j1
9
0
0
0 X
6
0
5
1 X
9
8
5
8 X
5
8
2
0 X
3
6
1
8 X
1
6
5
0 X
5
5
9
0 X
4
7
0
5 X
3
8
6
6 X
8
1
5
2 X
2
5
8
3 X
0
4
0
4 X
6
5
3
8 X

p
Variance
expliquée  j   ij2 28
i 1
6.4. Décomposition de R en AF orthogonale

Modèle : Xi = i1Y1 + … + imYm + ei

Formules de décomposition :

Var(X i )  1   i12 + ... +  im


2
+ i
  i1 
 
  i1  im     i
 
 im 

Cor(Xi , X k )  Cov(X i , X k )  i1 k1  ...   im  km


  k1 
 
  i1 im   
 
 km  29
Formule générale
1 Cor(X1 , X 2 ) Cor(X1 , X p ) 
 1 Cor(X 2 , X p ) 
R 
 
 
 1 

 11 12 1m   11  21  p1   1 0 0 0 


  22  2m   12  22  p2   0  2 0 0 
  21

    
    
  p1  p2  pm  1m  2m  pm   0 0  p 
 ' 

R =  + 
30
6.5. Les objectifs de l’AF orthogonale
L’analyse factorielle orthogonale consiste à rechercher
une décomposition de la matrice des corrélations R de
la forme :

R =  + 
Les ij sont les saturations et les i les spécificités.

Méthodes usuelles d’extraction des saturations :


- Analyse en composantes principales
- Méthodes des facteurs principaux
- Méthodes des moindres carrés
- Méthodes des moindres carrés pondérés
- Maximum de vraisemblance 31
Application Kendall

R=
ti o n

re l a
X
X
X
XX
X
X
X
X
X
X
XX
X
X
1
23
4
5
1
6
1
71
8
19
11
0
6
4
0
4
9
8
4
36
6
2
6
8
8
7X
9
8
6
58
7
7
6 1
7
4
9
4
0
5
3
00
0
1
8
1
8
4X
7
1
1
06
7
4
4 2
4
6
4
9
3
4
0
92
9
1
2
7
4
0X
6
6
4
48
0
3
0 3
4
4
6
9
0
4
2
00
0
2
8
3
2
5X
7
1
3
73
6
5
7 4
1
1
2
0
1
4
1
22
7
0
8
8
5
0X
6
5
4
21
2
2
0 5
2
4
8
9
1
5
7
83
7
8
2
0
1
6X
6
7
8
83
7
7
6 6
3
5
7
8
4
1
0
85
1
0
4
6
0
0X
1
6
0
56
6
8
3 7
0
3
9
1
7
6
6
67
3
6
4
6
4
1X
0
3
1
06
5
9
8 8
3
0
8
3
1
9
6
91
4
5
1
7
9
6X
3
0
7
59
8
5
3 9
1
3
6
0
1
8
4
13
8
4
1
8
2
0X
1
7
0
04
8
3
3 1
6
9
5
8
0
0
4
87
6
2
4
8
3
5X
0
5
0
04
9
7
5 1
6
9
8
1
6
8
80
3
7
1
4
3
2
6X
6
9
4
40
6
9
8 1
3
4
7
8
7
6
0
76
0
2
3
7
7
6X
5
8
8
96
0
9
4 1
4
1
7
1
4
4
3
45
3
2
0
7
9
8X
9
5
3
79
9
0
6 1
4
9
6
2
4
3
0
27
7
0
9
6
0
3X
8
3
3
58
4
6
0 1

32
em=4 n

p o
1
2
34
5
8
2
9 X
3
8
7
9 X
9
0
0
0 X
6
0
5
1 X
9
8
5
8 X

̂ 
5
8
2
0 X
3
6
1
8 X
1
6
5
0 X
5
5
9
0 X
4
7
0
5 X
3
8
6
6 X
8
1
5
2 X
2
5
8
3 X
0
4
0
4 X
6
5
3
8 X

r̂ik  ˆ i1ˆ k1  ...  ˆ i4ˆ k 4


= Corrélation reproduite à l'aide du modèle 33
Corrélations reproduites Rˆ et résidus R  Rˆ
ed Co

X
XXXX
1
X2
X3
X
4
X5
X
6
X7
X
1
8
X1
9
111
01
23
R Xbe1 p r o
2
8
0
1
.
2
3.
6
4
2.
4
1
9
.8
2
2
.3
9
4
.
3
8
64
07
5
2
2
47
2
8
80
7
43
23
X b2
4
2
4
6
.
4
6.
1
3
9.
4
9
6
.4
0
1
.5
2
.
5
9
73
5
63
5
4
6
59
3
4
53
9
03
28
X b
3
0
6
0
8
.
2
0.
3
1
2
-.
0
7
1
.1
0
2
.2
3
5
.
3
1
44
5
22
4
1
2
60
0
00
3
12
85
X b
4
4
6
2
7
.
3
7.
1
2
4.
4
3
2
.3
4
5
.5
2
3
.
5
6
36
0
63
0
2
98
4
9
33
3
08
58
X 5b
8
3
1
3
.
8
2.
0
8
6.
7
2
7
.8
6
4
.7
3
.
3
7
64
2
52
4
6
6
80
5
8
67
5
02
54
X 6b
8
9
3
7
.
8
3.
1
2
0.
7
2
6
.8
2
.8
3
6
.
7
4
55
6
24
3
6
0
48
3
5
52
4
92
09
X 7 b
3
0
1
8
.
2
4.
2
6
2.
2
8
4
-
.2
5
1
.4
2
0
.
3
4
64
2
60
5
1
0
34
3
7
64
0
43
04
X 8 b
8
5
2
3
.
8
2.
2
3
4.
8
3
5
.8
2
6
.8
9
.
7
3
85
2
45
8
3
1
37
6
4
01
5
42
97
X 9 b
1
9
2
1
.
2
6.
7
3
2.
3
4
3
.3
2
0
.2
3
4
.
3
8
52
4
37
0
3
9
66
0
0
72
0
98
75
X 1 b
0
7
5
2
5
.
8
0.
3
2
8.
7
6
5
.8
2
0
.7
2
3
.
7
4
65
8
55
0
6
8
06
7
8
89
7
13
83
X 1 1b
8
5
2
4
.
8
3.
2
4
7.
8
3
9
.8
5
3
.8
3
.
7
0
55
0
44
7
0
1
56
0
3
78
9
19
64
X 1 2 b
8
6
4
2
.
8
2.
2
6
4.
7
0
0
.8
0
1
.8
1
0
.
8
9
05
8
95
1
4
5
45
9
5
15
1
17
11
X 1 3 b
7
9
4
0
.
7
8.
3
0
3.
7
8
3
.7
4
2
.8
7
8
.
8
6
25
6
25
6
3
5
28
5
39
9
75
06
X 1 4 b
5
4
0
4
.
5
9.
2
8
2.
5
2
.5
7
8
.5
4
5
.
5
0
58
04
3
0
5
95
7
8
85
6
10
54
X 1 5 b
4
3
0
0
.
5
3.
7
3.
5
2
8
.4
5
.5
1
8
.
5
2
44
97
8
4
5
79
5
5
39
4
16
45
RaX e1 si d
0
5
0
5
.
0
2
-.
1
4
-.
0
1
0
-
.2
0
6
.0
2
7
.
0
3
60
6
81
2
4
1
50
3
1
31
7
46
47
1
0
3
-
.
8
0
-.
0
0
-.
1
2
.X
5
0
7
.0
2
3
.
0
5
60
1
52
0
9
0
5
38
2
5
44
1
36
86
3
0
0
-
.
0
2
-.
0
1
6.
0
7
-
.X
1
0
.0
1
6
.
0
4
50
4
53
0
0
9
2
01
5
8
46
1
31
45
8
0
0
2
-
.
0.
0
2
7
-.
0
4
3
-
.X
9
0
6
.0
1
.
2
0
00
1
64
0
1
4
1
81
3
01
3
78
91
0
0
1
-
.
0
2
-.
0
6
-.
0
1
6
-
.X
0
4
5
.0
2
0
.
0
50
2
75
0
4
3
13
0
0
12
3
90
24
2
0
0
.
0
4
-.
0
1
8
-.
0
5
-
.X
0
3
5
.0
6
.
0
0
70
66
0
7
0
7
80
4
2
71
7
44
32
0
5
1
-
.
9
0
-.
0
4
-.
3
0
.X
0
9
.0
0
4
.
0
7
40
5
07
0
3
1
82
7
2
54
5
87
27
0
2
0
1
-
.
1
-.
0
2
5.
0
3
.X
0
0
.0
8
.
0
10
88
0
2
8
43
4
0
93
5
87
02
5
0
4
0
.
0
2
-.
5
3.
0
0
2
-
.X
0
7
5
.0
3
.
0
00
49
0
7
0
41
0
93
5
09
82
0
1
0
4
-
0
1.
0
2
3.
6
4
.X
0
5
4
.0
0
.
0
10
71
0
2
5
6
92
9
23
7
60
5
50
0
9
0
0
-
.
0
10
7.
0
7
1
-
.X
3
1
.0
2
3
.
0
32
0
71
0
5
2
50
5
1
74
71
0
19
5
0
0
2
.
0
1.
0
3
4
-0
7
3
-
.X
0
1
3
.4
7
.
0
90
6
41
0
2
8
81
0
0
62
72
9
13
0
8
0
1
.
0
1.
0
3
6
-.
0
6
-X
2
0
1
.0
3
8
.
1
00
2
41
0
0
7
1
79
1
52
0
93
03
0
5
0
8
-
.
0
-.
0
4.
2
0
8
-
.X
2
0
40
0
9
.
0
0
22
31
0
1
2
0
01
8
55
1
14
08
0
4
6
0
-
.
1
0
-.
0
2
7
-.
1
0
6
.X
0
4
5
.0
3
1
0
3
40
3
21
4
7
2
22
2
5
09
35
3
8
E xtr a c
a
R.e s i d
b
R.epr o

34
6.6. Les méthodes de rotation
Formule de décomposition (p = 3, m = 2) :

1 Cor(X1 , X 2 ) Cor(X1 , X 3 ) 

R 1 
Cor(X 2 , X 3 ) 
 1 

 11 12  1 0 0


   11  21  31  
  21  22      0 2 0 
 12  22  32 
  31  32   0 0  3 

1 0 
TT '   
0 1  35
Les méthodes de rotation

Matrice de rotation d’un angle  :

Y Y´  x '  cos() sin()   x 


 y '    sin() cos()   y 
y´     
cos A
*
y
*
T
-sin
X
 cos x
sin
Matrice de rotation T :
*
x´ T´T = T T´= I

x´ = Proj(A) sur l’axe X´ X´


y´ = Proj(A) sur l’axe Y´ 36
Indétermination de la décomposition

1 Cor(X1 , X 2 ) Cor(X1 , X 3 ) 
R   1 Cor(X 2 , X 3 ) 
 Var(X 3 ) 
 11 12  1 0 0
   11  21  31  
  21  22  TT '     0 2 0 
 12  22  32 
  31  32   0 0  3 

I
Nouvelle matrice des saturations après rotation :

 11 12   11 12 


 cos() sin( 
    21   
 22    21  22   
  
 32   31  32   
sin( ) cos( )
  31
T 37
Les méthodes de rotation VARIMAX et QUARTIMAX

 11 12   11 12 



    21   
 22    21  22  T
  31  32  31 32 

Objectifs :

(1) Pour chaque colonne de  les |ij| sont proches de 0 ou 1 :


==> Facteurs bien typés. C’est l’objectif de VARIMAX.
(2) Sur chaque ligne de  il y a un |ij| proche 1 et tous
les autres proches de 0 :
==> Typologie des variables. C’est l’objectif de QUARTIMAX.
38
Exemple avec les blocs 2 et 3
o

e l
X
X
X
X11
19
4
7
8
6
6
77X
0
3
1
65X
3
0
7
36X
1
7
0
55X
6
3
5
08X
5
6
5
80X

e2 a
R (Xj;Y1,Y2) n
p o
1
2c
0
5XX
3
4
7
2
X
X
X
X
X
=
0
8X
4
6XX
0
5XX
E
Seulement dans a
2
39
l’option ACP
Exemple avec les blocs 2 et 3
Component Plot
1.0
x7

x4
.5
x14

0.0

x1
x15
Component 2

-.5 x9

-1.0
-1.0 -.5 0.0 .5 1.0

Component 1
40
Utilisation de la rotation Varimax
a
e n
s
p o
1
2 C
1
2
8
8 1
0
5 X
8
8 2
3
4
7
2
X
XE *
0
8 XR
4
6 X
0
5 X
E
a
2 T ( TT = I )
a
p

p
1
2
o

X
4
7
6
4 X

==
7
5 X
8
3 X
3
5 X
1
3 X
E
R41
a
R
Utilisation de la rotation varimax
Component Plot in Rotated Space
1.0 x4
x7
x14

.5

x15
x1

0.0 x9
Component 2

-.5

-1.0
-1.0 -.5 0.0 .5 1.0

Component 1 42
Exemple Kendall complet
Application (ACP + Varimax)
a
p o

p o
12
3
4
6
0
8
6X
6
2
1
8X
1
8
7
8X
6
5
2
2X
8
4
6
2X
3
9
9
4X
6
2
3
1X
7
6
7
1X
3
2
2
2X
8
2
1
9X
7
2
6
8X
6
7
8
6X
1
9
9
7X
7
4
8
2X
1
7
7
5X
E x
R
a
R .
43
Application (ACP + Varimax)
Présentation améliorée
a
p o

p o
12
3
4
8X
7X
7X
3X
6X
8X
1
9X
6
1X
2X
0X
7X
2X
3X
7
8
2X
8X
E x
R
a
R .

Corrélations inférieures à 0.4 en valeur absolue non montrées 44


6.7. Estimation des facteurs communs
(AF orthogonale)

On recherche une variable (ou score)

Ŷj  a j1X1  ...  a jp Xp


aussi proche que possible de Yj.

La régression de Yj sur X1,…, Xp donne :

ˆ ˆ ' 
a j  (X 'X)1 X 'Yj  ( ˆ )1 
ˆ
j

ˆ est la j-ième colonne de 


où  ˆ.
j

45
Application (ACP + Varimax)
Coefficients appliqués aux variables centrées-réduites

e C

p o
1
2
3
4
7
2
3
1X
6
9
7
9X
0
2
4
7X
8
0
8
8X
9
1
1
8X
4
5
1
1X
3
8
0
9X
4
6
5
2X
3
2
0
0X
4
5
6
0X
6
8
1
8X
6
4
9
8X
8
2
9
4X
6
6
6
1X
3
1
5
0X
E x
R
C46
Estimation des facteurs
a
u m

c
ctt
te
te
ee
uu
1
88
481
1
1
86
742
9
0
76
683
6
5
29
874
9
1
60
515
9
5
95
176
0
6
03
077
7
1
59
718
1
6
45
299
5
5
06
491
2 0
9
77
451
1 1
1
84
261
0 2
5
31
951
7 3
1
04
061
0 4
4
01
381
7 5
7
03
151
3 6
5
24
131
5 7
7
59
951
5 8
2
81
391
0 9
7
35
182
5 0
a
L .
i

47
7. Test de sphéricité de Bartlett
Test : H0 : R = Identité
(aucune corrélation entre les X)

On rejette H0 au risque  de se tromper si

2p  5
 2
  (n  1  ) ln | R |
6
2p  5
 (n  1  ) rik2
6 ik

 p(p  1) 
est supérieur au seuil  2
1-  2 
48
Application

a
K
3A

0BA
5Sd
0 S

49
8. Kaiser-Meyer-Olkin Measure
of Sampling Adequacy
La corrélation partielle
Xi = i0 + i1Y1 + … + imYm + i
Xk = k0 + k1Y1 + … + kmYm + k

==> Cor(Xi, Xk / Y1, …, Ym) = Cor(i, k)


Pour un modèle factoriel :
Xi =  i1Y1 + … +  imYm + ei Les facteurs
spécifiques sont
==> Cor(Xi, Xk / Y1, …, Ym) = Cor(ei, ek) = 0 non corrélés entre
eux.
« Anti-image correlation » -aik :
Si le modèle factoriel est vrai les aik = cor(Xi, Xk/ Autres X)
sont faibles en valeur absolue. 50
Application Kendall

g e

e C
X
X
X
XX
X
X
X
X
XX
X
X
1
X
2
X
34
5
6
17
1
8
1
9
11
10
1
Xa 1
2
7
7
3
1
9
1
37
2
1
9
4
1
03
4
6
4
40
2
57
2
8
1
4
8
2
6
6X
8
4
4
3
0
9
4a
7
9
0
0
17
1
42
4
2
2
1
5
6
7
4
4X
0
9
6
8
2
4
0a
5
4
1
6
67
0
03
2
X a4
1
5
7
8
8
0
0
33
1
1
4
6
6
07
8
8
5
35
0
65
X a5
1
3
1
2
4
4
6
01
3
2
2
9
2
34
0
3
8
27
3
59
X a6
0
3
4
9
0
2
2
86
9
9
8
5
3
48
1
5
0
25
3
92
1
6
0
6
4
8
0
0X
0
7
3
4
4
1
34
6
4
8
91
0
0a
7
5
3
9
4
7
9
6
4
7X
8
0
0
3
1
0
61
2
0
0
47
2
8a
8
6
X a
9
5
7
6
6
0
1
1
18
5
3
6
5
5
41
0
5
1
74
4
00
X 1a
4
6
4
1
0
4
6
35
2
8
9
0
5
82
0
1
3
28
9
56
X 1a
2
7
4
1
1
3
6
23
8
2
8
2
6
95
4
7
2
06
1
39
1
0
0
5
7
2
7
8X
5
9
7
4
5
9
16
7
4
8
67
4
41
8a

0
3
2
6
1
9
0
8X
0
4
3
8
3
7
00
2
4
9
14
2
21
3 a

X 1 a
2
0
5
5
4
5
0
66
9
5
7
9
2
02
8
0
5
34
2
17
X 1 a
7
1
7
1
4
2
2
55
6
9
0
2
2
55
6
0
6
98
3
75
a
M .e

51
Kaiser-Meyer-Olkin Measure of Sampling Adequacy

Comparaison entre les corrélations rik et les corrélations


partielles aik :
r 2
ik
KMO  ik

r  a
ik
2
ik
ik
2
ik

KMO Qualité espérée de


l'analyse factorielle
.90 Marvelous
.80 Meritorious
.70 Middling
.60 Mediocre
.50 Miserable
<.50 Unacceptable
52
9. CONCLUSION (!!!!)

… we find ourselves in sympathy with the growing group of


statisticians who doubt if FA is worth using except in a few
particular types of application. For example Hills (1977) has
said that FA is not « worth the time necessary to understand it
and carry it out ». He goes on to say that he regards FA as an
« elaborate way of doing something which can only be crude,
namely picking out clusters of inter-related variables, and
then finding some sort of average of the variables in a cluster
in spite of the fact that the variables may be measured on
different scales. »
C. Chatfield & A.J. Collins, 1980

53
10. Autres méthodes d’extraction des
saturations

- Méthodes des facteurs principaux


- Méthodes des moindres carrés
- Méthodes des moindres carrés pondérés
- Maximum de vraisemblance

54
10.1 La matrice des saturations
Modèle : Xi = i1Y1 + … + imYm + ei

Les ij sont les saturations (ou loadings)

Matrice des saturations dans SPSS


- Yj = Composantes principales
 11 1m  réduites :
 
  Component Matrix
   i1 im  - Yj orthogonaux :
  Factor Matrix
  - Yj corrélés :
 p1  pm 
 Pattern Matrix

Si les Yj sont orthogonaux : ij = Cor(Xi, Yj).


Si les Yj sont corrélés, les Cor(Xi, Yj) sont données dans la « Structure Matrix
55 ».
10.2 Communauté et spécificité en AF orthogonale
Modèle : Xi = i1Y1 + … + imYm + ei

Décomposition de la variance :

m
Var(Xi )  1   ij
 2

j1
 i

hi2 = Var(ei) =
communauté spécificité
Communauté initiale et finale :
m
h 2
i   (Xi , Yj )
cor
j1
2

= R 2 (X i ; Y1 ,..., Ym ) = communauté finale (extraction)


 R 2 (X i ; Autres X) = communauté initiale
(option autre que l’ACP) 56
10.3 Qualité de la décomposition en AF orthogonale
Modèle : Xi = i1Y1 + … + imYm + ei

Décomposition de la variance :
De
Var(Xi )  1   + ... + 
2
i1
2
im + i

On déduit :

 Var(Xi )  p 
i 1
 i1  ... 

i
2
 im
i
 2
 
i
i

Variance Variance Variance


Variance
expliquée expliquée résiduelle
totale
par Y1 par Ym
57
10.4 Méthodes des facteurs principaux

Modèle : Xi = i1Y1 + … + imYm + ei

Utilisation des formules de décomposition :

 i1 
 
Var(Xi ) - i = h i2 =  i1 im   
 
 im 

  k1 
 
Cor(X i , X k ) =  i1  im   
 
 km 
58
Méthode des facteurs principaux
Exemple p=3 et m=2

1 0 0  1  1 Cor(X1 , X 2 ) Cor(X1 , X 3 ) 


R   0  2 0    1 2 Cor(X 2 , X 3 ) 
 0 0  3   1   3 

 h12 Cor(X1 , X 2 ) Cor(X1 , X 3 )   11 12 


     11  21  31 
2
Cor(X 2 , X 3 )    21  22  
 32 
= h2
 12  22
 
   31  32 
2
 h3

Algorithme itératif : on part des communautés initiales, on estime


les saturations, puis on recalcule les communautés à l’aide des
saturations. On itère jusqu’à convergence des communautés. 59
Application Kendall
ur n
aM

a
at i
c
c a
1 X
12
3
4
7
3
42
04
0
XX
0
6
86
91
0
XX
8
51
59
6X
0 X
8
79
55
7X
6 X
1
38
42
0X
5 X
7
02
21
4X
8 XX
5
32
13
6
1
6
89
2X
5
9X
9
9
61
0X
6
2X
5
9
16
7X
8
7X
7
6
38
6X
2
7X
1
4
30
04
1
XX
4
7
02
64
0
XX
6
69
68
9X
9 X
8
11
28
7X
6 X
E
Ea
x
4

60
Application Kendall
Facteurs Facteur principaux
ACP principaux + rotation varimax

n c e

o
o
g ff
e SS
n
V
T
u
o
Vu
l
o
VF
a
al
o
ta
al
t
aa
r
t
aa
t
ar
t
i
7
9
4
6
46
0
71
7
111
8
8
2
7
63
0
92
6
445
1
2
0
0
62
0
13
7
015
1
7
6
9
21
8
04
7
417
9
895
3
546
1
267
0
628
6
689
8
291 0
9
541 1
3
051 2
5
481 3
4
981 4
5
201 5
E x

61
Application Kendall
a
a c

oacrt
1
23
4
1
2
3
42FX
1
9 X
2
0 X
3
4 X
4
3 X
E
1RX
6 X
8 X
6 9X
114X
8 5X
632X
9 6X
7 2X
1
259
7X
E
R
a
R

62
10.5 Méthode des moindres carrées

Minimiser  (rik  rik )


ˆ 2
ik
ik

r̂ij  ˆ i1ˆ k1  ...  ˆ im ˆ km


= Corrélation reproduite à l'aide du modèle

63
Application Kendall
u a
n

a
i t i
c a
3
1 X
8
4 X
2
1 X
3
8 X
8
6 X
0
5 X
1
9 X
7
1 X
3
9 X
8
5 X
0
3 X
2
3 X
4
0 X
1
7 X
5
6 X
E
a
O
1
s 64
10.6 Méthodes des moindres carrés généralisée

Modèle : Xi = i1Y1 + … + imYm + ei, Var(ei) = i

(rik  rˆik )2
Minimiser 
ik
ik ˆ i
ˆk


r̂ij  ˆ i1ˆ k1  ...  ˆ im ˆ km
= Corrélation reproduite à l'aide du modèle

et rik  rˆik
 Cor(X i , X k | Y1 ,..., Ym )  Cor(ei , e k )
ˆ i
ˆk
calculé sur les données. 65
10.7 Méthode du maximum de vraisemblance
Modèle : Xi = i1Y1 + … + imYm + ei , Var(ei) = i
Hypothèse :
Les variables Xj suivent une loi multinormale de
moyenne  et de matrice de covariance .
Notations :
S = matrice de covariances observée sur un échantillon de taille n
ˆ ˆ ' 
C   ˆ matrice de covariance reconstituée par le modèle

Maximisation :
On recherche les saturations et les spécificités estimées
maximisant le logarithme de la vraisemblance des données :

1 1 1
L( S , C )  cste  (n  p  2)  ln | S |  (n  1)  ln | C |  (n  1)  Tr C 1S 
2 2 2
66
10.8 Test de validité du modèle à m facteurs

On rejette le modèle à m facteurs au risque  de se tromper


si :
 1 2  |C|
   n  1  (2p  5)  m  Ln
2
 12 ()
 6 3  |S|

où C est calculée par maximum de vraisemblance


1
et  = (p  m) 2  p  m  .
2
Remarque :
 1 2  (sik  cik ) 2
 2
  n  1  (2p  5)  m  
 6 3  ik 
ˆ i
ˆk
sik  cik
où est une estimation de cor(Xi , X k | Y1 ,..., Ym )
ˆ i 67
ˆk
Application aux données de Kendall

iqg m=4

iqg m=5

i m = 6q
g

Ce test est connu pour rejeter trop facilement le modèle.


68
11. Analyse Factorielle oblique
11.1. Les données
p variables aléatoires X1,…, Xp, en général centrées-réduites.

11.2. Le modèle

X1 = 11Y1 + … + 1mYm + e1
..
.
Xi = i1Y1 + … + imYm + ei
..
.
Xp = p1Y1 + … + pmYm + ep

où :
- Les facteurs communs Yj peuvent être corrélés entre eux.
- Les facteurs spécifiques ei ,…, em sont tous non corrélés entre eux
et avec les facteurs communs. 69
Le modèle X1 = 11Y1 + … + 1mYm + e1
..
.
Xi = i1Y1 + … + imYm + ei
..
.
Xp = p1Y1 + … + pmYm + ep

s’écrit aussi  X 1  11 1m   Y1   e1 


      
    
 X p   p1  pm  Ym  em 
  
X Λ Y e

X = ΛY + e
70
Le modèle de l’analyse factorielle oblique :
X = ΛY + e

  E (YY ')
 matrice des corrélations entre les facteurs communs

  E (ee ')
 matrice de covariance des facteurs spécifiques

  E (XX') = E[(ΛY + e)(ΛY + e) ']


 Λ E (YY ') Λ ' E (ee ')   ΛΛ ' 
 
71
12.3. Les méthodes de rotation oblique
Formule de décomposition (p = 3, m = 2) :

1 Cor(X1 , X 2 ) Cor(X1 , X 3 ) 

R 1 
Cor(X 2 , X 3 ) 
 1 

 11 12  1 0 0


   11  21  31  
  21  22      0 2 0 
 12  22  32 
  31  32   0 0  3 

où  = (T’T)-1 est une matrice


T T '
de corrélation 72
Options SPSS
• Direct Oblimin Method
A method for oblique (nonorthogonal) rotation. When delta
equals 0 (the default), solutions are most oblique. As delta
becomes more negative, the factors become less oblique.
To override the default delta of 0, enter a number less than or
equal to -0.8.

• Promax Rotation
An oblique rotation, which allows factors to be correlated.
This rotation can be calculated more quickly than a direct
oblimin rotation, so it is useful for large datasets.

73
Application aux données de Kendall
Matrice des corrélations  entre les facteurs

Component Correlation Matrix

Component 1 2 3 4
1 1.000 .325 .452 .046
2 .325 1.000 .156 .074
3 .452 .156 1.000 -.021
4 .046 .074 -.021 1.000
Extraction Method: Principal Component Analys is .
Rotation Method: Oblimin with Kaiser Normalization.

74
Matrice des saturations ih
Pattern Matrixa

Component
1 2 3 4
x5 .999 -.259 -.015 -.054
x11 .968 .020 -.087 -.037
x8 .967 .068 -.110 -.053
x6 .871 -.041 .096 .010
x10 .787 .237 -.007 -.052
x12 .750 .126 .195 .150
x13 .637 .206 .298 .232
x9 -.049 .870 -.094 .191
x1 -.038 .853 .066 -.153
x15 .263 .767 -.018 .069
x7 .026 -.304 .911 .027
x4 -.056 .209 .903 -.067
x2 .332 .071 .349 .236
x3 .000 .085 .016 .929
x14 .291 .321 .472 -.519
Extraction Method: Principal Component Analys is .
Rotation Method: Oblimin with Kaiser Normalization.
a. Rotation converged in 8 iterations.

Difficile à interpréter car les facteurs sont corrélées entre eux.


75
Matrice des Cor(Xi, Yj)
Structure Matrix

Component
1 2 3 4
x8 .937 .361 .339 .000
x11 .934 .318 .354 .011
x5 .906 .059 .398 -.027
x6 .902 .257 .483 .045
x12 .886 .411 .550 .190
x10 .858 .488 .386 .002
x13 .849 .477 .613 .270
x2 .523 .251 .505 .249
x15 .507 .855 .219 .138
x9 .200 .853 .016 .255
x1 .261 .839 .185 -.093
x4 .417 .326 .912 -.072
x7 .339 -.152 .874 -.013
x14 .585 .451 .665 -.492
x3 .078 .157 .010 .935
Extraction Method: Principal Component Analys is .
Rotation Method: Oblimin with Kaiser Normalization.

Cette matrice est plus naturelle à interpréter. 76


Matrice des Cor(Xi, Yj) améliorée
Structure Matrix

Component
1 2 3 4
x8 .937
x11 .934
x5 .906
x6 .902
x12 .886 .550
x10 .858
x13 .849 .613
x2 .523 .505
x15 .507 .855
x9 .853
x1 .839
x4 .912
x7 .874
x14 .585 .665
x3 .935
Extraction Method: Principal Component Analys is .
Rotation Method: Oblimin with Kaiser Normalization.

Cette matrice est encore plus facile à interpréter. 77

Vous aimerez peut-être aussi