Académique Documents
Professionnel Documents
Culture Documents
M atthieu Somé1
Volume horaire : 48 h
CM : 22 h
TD :14 h
TP :12 h
2 ACP
3 AFC
4 ACM
5 Méthodes de classification
Définition (Échantillon)
On considère une variable aléatoire réelle X et n réalisations i.i.d. X1 ; . . . ; Xn .
On appelle Xi la réalisation du i-ième individu pour la variable X .
Définition (poids)
Chaque individu i est affecté par un poids pi . Les pi vérifient
n
X
pi > 0, pi = 1
i=1
2
Dans le cas général σ2X = nj=1 pi Xi − X . L’écart-type empirique est la
P
n
X
ou sXY = Cov(X, Y) = pi Xi − X Yi − Y
i=1
Définition
On appelle corrélation théorique (resp. empirique) entre X et Y la quantité
!
Cov(X, Y) sXY
ρX,Y = Cor(X, Y) = p p resp. rXY = √
Var(X) Var(Y) SXX SYY
10 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 10 / 117
Rappels
Variables quantitatives
ACP
Covariance et corrélation
AFC
T héorèmes fondamentaux des Probabilités
ACM
Rappels d’algèbre
Méthodes de classification
√ X − E[X ]
np →n→∞ N(0, 1).
Var(X )
x1
Définition (Matrices)
Une matrice A = An;p de n lignes et p colonnes est un tableau
A = ... ..
..
. .
···
an,1 an,p
AB = ln
alors
BA = ln , et on note B = A −1
ACP
x1p
1
x1 · · ·
X = ... . . . ..
.
xnp
1
xn · · · n,p
n n
⊤
X X
p
g = pi xi , · · · ,
1
pi xi ∈ Rp
i=1 i=1
g = X ⊤ DIn
avec
In = (1, · · · , 1)⊤ ∈ Rn
Le nuage NY = {x1 − g, · · · , xn − g} est un nuage centré. Son barycentre est 0
dans Rp .
Matriciellement, la matrice centré Y est
Y = X − In g ⊤
= (ldn − In I⊤
n D) X
V = X ⊤ DX − gg ⊤ = Y ⊤ DY
Preuve : A faire
Théorème
Si R est une matrice symétrique réelle, alors elle est diagonalisable dans une
base orthonormée (base composée de vecteurs unitaires orthogonaux).
Théorème
Toute matrice de variance/covariance est symétrique définie positive (à
condition que chaque variable soit de variance strictement positive).
PP ⊤ = P ⊤ P = Id
et
A = PDP ⊤
où la matrice diagonale D une matrice diagonale composée des values
propres de A dans l’ordre des vecteurs propres dans P
1 0 0
0 2 0
D =
0 0 3
σ1
−1
0
..
D1/σ = .
σp p,p
−1
0
Rappelons que
1 p
x1p − x
1
x1 − x ···
.. .. ..
Y = . . .
1 p
xnp − x
1
xn − x ···
n,p
On pose alors
xi − x j
j
Z = YD1/σ =
σj
n,p
Z est une matrice dont toutes les colonnes sont de moyennes empiriques 0 et
de variances empiriques égales à 1 (Montrer ce résultat!!!)
cov(x i ,x j )
Notons rij la corrélation empirique des variables X i et X j : rij = si sj
La matrice R de corrélation empirique
peut se récrire
Définition
On appelle inertie totale du nuage des individus , I, la moyenne pondérée des
carrés des distances des points au centre de gravité :
n
X n
X n
X
I= 2
pi dM (xi , g) = pi ||xi − g||2M = pi ||yi ∥2M
i=1 i=1 i=1
Théorème
Soit X un tableau de données et Z sa version centrée réduite. Si X possède p
variables (colonnes) alors
n n
1 XX
2
IX = pi pj
xi − xj
M
2
i=1 j=1
où ŷiF
désigne la projection orthogonale de yi sur F. Autrement dit,
IF (N) = I N̂ F
n o
où N̂ F = ŷiF , pi est le projeté du nuage centré.
X n
2 n
X n
2 X
I∆u = I N̂ u = pi
ŷiu
M = pi yi⊤ Mu = pi u⊤ Myi yi⊤ Mu
i=1 i=1 i=1
n ,
X
= u⊤ M pi yi yi⊤ Mu = u⊤ MVMu, avec ŷiu = ⟨yi ; u⟩M u = yi⊤ Mu u
i=1
31 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 31 / 117
Inertie explique par un sous espace F
Proposition (Décomposition de l’inertie)
1 Si F est un s.e.v. de Rp et si F ⊥ désigne son supplémentaire orthogonal
(au sens du produit scalaire défini par M) on a la décomposition suivante :
I = IF + IF⊥
2 De façon plus générale, si F = F1 ⊕ F2 et F1 ⊥ F2 (au sens du produit
scalaire défini par M), alors
I F = I F1 + I F2
Théorème
Soit X un tableau de données et Z sa version centrée réduite. Si X possède p
variables (colonnes) alors
IZ = p
Définition
On appelle sous-espace principal de dimension k, tout sev de dimension k
solution de (Pk ).
Théorème
Soit Ek un sous espace vectoriel de dimension k < p portant l’inertie
maximale du nuage, alors un sous-espace de dimension k + 1 portant l’inertie
maximale est
Ek ⊕ ∆uk +1
où uk +1 est un vecteur M-orthogonal à Ek et ∆uk +1 est une droite vectorielle
M-orthogonale à Ek portant l’inertie maximale parmi toutes les droites
vectorielles M-orthogonales à Ek .
Définition
Les axes ∆u1 ; . . . ; ∆up sont appelés axes principaux d’inertie de l’ACP.
u1⊤ MVMu1
MVMu1 = Mu1 = I∆u1 Mu1 ⇔ VMu1 = I∆u1 u1
u1⊤ Mu1
On a alors I∆u1 = λ1 .
I∆uj = λj
Définition
Les vecteurs uj sont appelés vecteurs principaux de l’ACP.
39 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 39 / 117
Calcul des axes principaux
Preuve
Notez que la matrice VM est M-symétrique puisque
Remarque
Pp
En prenant, k = p, on retrouve I = Trace(VM) = j=1
λj
et par suite IEr = I. Le nuage est ici entièrement contenu dans le sev Er .
Définition
Le vecteur Rn
c1j
c2j
j
c = .. = YMuj
.
cnj
Remarque
Pour j > r, les CP c j sont égales au vecteur nul de Rn car l’inertie expliquée
par ces axes est nulle.
cj
dj = p
λj
Pour j > r, cj = 0.
Muj p
1
i ..
h i h X
j 1 p 1 p
c = YMuj = y · · · y Muj = y · · · y yk
.
= Muj
k
k =1
Muj
p
2 On a vu que (cf (diapo 16)) le barycentre des données (cij ) est donné par
l’expression matricielle
c = C ⊤ DI = U ⊤ MY ⊤ DI = U ⊤ My = 0
Notez que
h i h i h i
VMU = VM u1 · · · up = VMu1 · · · VMup = λ1 u1 · · · λp up
⊤ ⊤ ⊤
u1 u1 Mu1 ··· u1 Mup
.. .. ..
h i
U ⊤ MU M u1 · · · up =
=
. . .
p ⊤ p⊤ p⊤
u Mu1 ··· p
(u ) u Mu
D 1 1E D E
u ; u · · · u1 ; up
M M
.. ..
= = Idp
D . E .
up ; u1 · · · ⟨u , up ⟩
p
M M
Proposition
1 Les valeurs propres non nulles de l’ACP(Y ⊤ ; M; D) du nuage des
variables V sont les valeurs propres non nulles (λ1 , · · · , λr ) de
l’ACP(Y ; D; M) du nuage N des individus .
2 Les axes principaux de l’ACP(Y ⊤ ; M; D) correspondant aux valeurs
propres non nulles (λ1 , · · · , λr ), sont les facteurs principaux (d1 ; . . . ; dr )
de l’ACP(Y ; D; M) du nuage des individus.
⊤
Les composantes principales de l’ACP(Y ; M; D) du nuage V
non nulles
3
√ √
des variables sont λ1 u1 , · · · , λr ur . Autrement dit, les facteurs
principaux de l’ACP(Y ⊤ ; M; D) du nuage V des variables, sont les axes
principaux (u1 ; . . . ; ur ) de l’ACP(Y ; D; M) du nuage des individus,
correspondant aux valeurs propres non nulles.
Preuve
(à établir)
Définition
La qualité globale de la représentation du nuage NX sur le s.e. principal Ek
engendré par (u1 ; . . . , uk ) est mesurée par le % d’inertie expliquée par Ek
IEk λ1 + λ2 + · · · + λk
= Pp
I λj j=1
Pk j 2
∥ŷiEk ||2M ci
j=1
cos 2
yi , ŷiEk = = P 2
∥yi ∥2M p
cij
j=1
Si cos2 yi , ŷiEk est proche de 1, l’individu i appartient "presque" à Ek , et il
est donc bien représenté sur Ek .
Si cos2 yi , ŷiEk est proche de 0, l’individu i est mal représenté sur Ek .
Ainsi, la qualité de représentation de l’individu i sur le premier plan principal
E2 est mesurée par
E
2 2 2
ŷi 2
M
ci1 + ci2
cos2 yi , ŷiE2 = = P 2
∥yi ∥2M p
cij
j=1
54 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 54 / 117
Contribution d’un individu à un axe (détection d’individus aberrants/influents)
n
X 2
λk = var c k
= pi cik
i=1
Interpretation : Si tous les individus ont la même poids (1/n) alors les contributions
n’apportent pas plus d’information que les coordonnées et les individus ayant de fortes
contributions peuvent être détectés sur les boites à moustaches des composantes
principales c 1 ; . . . ; c r , ou des facteurs principaux d 1 ; . . . ; d r .
55 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 55 / 117
Représentation des variables.
Définition
Pour tout k et l ≤ r, la projection du nuage V sur le plan principal engendré
par (d k ; d l ) est appelée carte des variables.
j=1 j
Remarque
1 L’étude des corrélations des var. z j avec la CP c k permet d’interpréter c k
en fonction des z j . Cette étude des corrélations peut se faire par l’étude
des proximités des projections ẑ j avec le point (1; 0) du plan (v k ; v l ).
2 Les cartes des variables facilitent l’interprétation de′ la matrice des
corrélations des variables. Si deux variables ẑ j et ẑ j sont bien
j′
représentées par leurs projections ẑ et ẑ sur le plan (v k ; v l ) alors :
j
′ ′
▶ ẑ j et ẑ j proches indique une forte corrélation linaire entre ẑ j et ẑ j ,
j′
▶ ẑ j et ẑ diamétralement opposés indiquent une corr. nég. proche de -1,
′
▶ des directions de ẑ j et ẑ j presque orthogonales indiquent une faible
′
corrélation entre z j et z j .
Définition (Interprétabilité)
On ne garde que les axes interprétables grâce aux variables de départ.
▶ des individus pour identifier ceux qui sont influents pour l’orientation d’un
axe et ceux qui ont une contribution excessive. Il est important de vérifier
qu’il ne s’agit pas de données erronées et de faire une nouvelle analyse en
les considérant en supplémentaires.
1 Pour une carte des variables : étudier les angles entre les projections des
variables en termes de covariance ou de corrélation dans le cas d’une
ACP normée pour dégager éventuellement des groupes de variables.
Vérifier les tendances visualisées sur la carte par un examen de la
matrice de corrélation.
2 Pour une carte d’individus : étudier les proximités ou les oppositions entre
les points en termes de "comportement" et dégager éventuellement des
groupes d’individus et des comportements singuliers de certains. Vérifier
les caractéristiques dégagées par un examen des données de départ.
Table:
62 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 62 / 117
Rappels
ACP
AFC ACP
ACM
Méthodes de classification
AFC
Profils lignes
ni1 nic
Li = ième profil-ligne = ,··· , ∈ Rc
ni· ni·
Tableau des valeurs empiriques des modalités yi sachant que l’on a observé
les modalités xi .
Profils colonnes
!
n1j nrj
Cj = jème profil-colonne = ,··· , ∈ Rr
n·j n·j
Tableau des valeurs empiriques des modalités xi sachant que l’on a observé
les modalités yi .
à montrer!!!
Ecart à l’indépendance
ni· n·j 2
r X
X c nij − n
tn = ni· n·j
i=1 j=1 n
L
tn est une réalisation d’une variable Tn −→ χ2(r−1)(c−1) qd n → +∞.
Tr = Dr−1 N et Tc = NDc−1
Proposition(Preuve !!)
1 Le centre de gravité gc du nuage Mc (profil-moyen des colonnes) a pour
coordonnées : n1·
n f1·
. .
gc = .. = .. ∈ Rr
nr·
n fr·
2 Les points Cj de Mc , ainsi que leur centre de gravité gc , appartiennent à
un sous-espace affine de Rr , à savoir l’hyperplan Hr−1 de dimension
r − 1 défini par :
r
X
(x1 , · · · , xr ) ∈ Rr ;
Hr−1 = xi = 1
i=1
71 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 71 / 117
Nuage des profils-colonnes
c
n nij ni ′ j 2
X
dχ22 (Li , Li ′ ) = −
n·j ni· ni ′ ·
j=1
′
= (Li − Li ′ ) M (Li − Li ′ ) = ⟨Li − Li ′ , Li − Li ′ ⟩M
où M = nDc−1 .
Distance entre deux-profils-colonnes Ci et Cj ′
r !2
X n nij nij
dχ22 Cj , Cj ′ = −
ni· n·j n·j ′
i=1
′
= Cj − Cj ′ M Cj − Cj ′ =< Cj − Cj ′ , Cj − Cj ′ >M
Théorème
Supposons que deux colonnes de N, Cj et Cj ′ ont même profil, i.e.
nij nij ′
= pour tout i = 1, · · · , r
n.j n.j ′
.
Indication : calculer dχ2 (Li , Li ′ ) − d̃χ2 L̃i , L̃i ′
Profil-lignes
r
X
I (Mr ) = fi· dχ22 (Li , gr )
i=1
r c
ni· X n nij n·j 2
X
= −
n n·j ni· n
i=1 j=1
r X
c
ni· n nij n·j 2 1
X
= − = tn
n n·j ni· n n
i=1 j=1
Profil-colonnes
1
I (Mc ) = tn
n
1 ⊤ −1
V = X ⊤ DX − gg ⊤ = Y ⊤ DY = N Dr N − gr gr⊤
n
et la matrice à diagonaliser est :
c
X n
< Ogr , gr x >χ2 = (x − gr )⊤ Mgr = n (x − gr )⊤ Dc−1 gr = gr (j) (x(j) − gr (j))
n.j
j=1
c c c
n n·j n·j X nj
X X
= xj − = xj − = 1 − 1 = 0.
n·j n n n
j=1 j=1 j=1
ngr gr⊤ Dc−1 est en fait la matrice de projection orthogonale sur (Ogr ). En effet,
si un vecteur x est orthogonal (au sens du chi2) à gr ,
ngr gr⊤ Dc−1 x = ⟨gr , x⟩χ2 gr = 0. On a :
Proposition
Soit L la matrice
L = N ⊤ Dr−1 NDc−1 = Tr⊤ Tc .
Soit (uk , k ∈ {1, · · · , r − 1}) les vecteurs principaux autres que gr (définis par
Luk = λk uk , λk , 1 ). Les composantes principales donnent les coordonnées
des profils-lignes sur chaque axe : pour tout i ∈ {1, . . . , r},
Ceci se récrit
c k = Tr nDc−1 uk = nDr−1 NDc−1 uk
2 ⊤ ⊤ r
X
Dr c k
2 = Dr c k −1 k k k k 2 2
χ
nDr D r c = n c D r c = n n i. c (i) = n var ck =
i=1
Composantes
principales
Soit c̃ k les CP de l’ACP des profils-colonnes.
Elle donne les coordonnées des profils-colonnes sur l’axe de vecteur
directeur vk :
r
D E X nij
c̃ k (j) = vk , Cj = nCj⊤ Dr−1 vk = n vk (i)
χ2 ni n.j
i=1
OU
1
vk = √ Tc uk
λk
1
uk = √ Tr⊤ vk
λk
√
Preuve : Rappelons que Dr c k = n λk vk . Par ailleurs, on a
c k = nDr−1 NDc−1 uk et donc Dr c k = nNDc−1 uk . On en déduit que
1 1
vk = √ NDc−1 uk = √ Tc uk
λk λk
√
En multipliant cette identité par Tr⊤ , on obtient Tr⊤ vk = √1
λk
Luk = λk uk
r
1 X nij
c̃k (j) = √ ck (i)
λk i=1 n.j
Preuve :
c k = nDr−1 NDc−1 uk = √1 nDr−1 NDc−1 Tr⊤ vk = √1 nDr−1 NDc−1 N ⊤ Dr−1 vk =
λk λk
√1 Dr−1 N c̃ k
λk
En écrivant cette relation coordonnées par coordonnées, on obtient pour tout
i ∈ {1, . . . , r},
c
1 X nij k
c k (i) = √ c̃ (j).
λk ni
j=1
p p p p
X X 1 X 1 X 1
Li −gr = c k (i)uk = √ c k (i)Tr⊤ vk = √ c k (i)N ⊤ Dr−1 vk = √ ck
k =1 k =1 λk k =1 λk k =1 λk
p p
nij n·j X 1 k n.j k ni n·j ni· n·j X 1 k
− = √ c (i) c̃ (j) ⇔ nij − = √ c (i)c̃ k (j)
ni· n
k =1 λk n n n
k =1 λk
Nuage Mr Nuage Mc
Eléments de base
des r profils-lignes dans Rc des c profils-colonnes dans Rr
Tr = Dr−1 N Tc⊤ =Dc−1 N ⊤
Tableau des données
(r, c) (c, r)
nDc−1 Métrique du chi2 nDr−1
L = Tr⊤ Tc = N Dr−1 NDc−1
⊤ C= Tc Tr⊤ = NDc−1 N ⊤ Dr−1
Matrice à diagonaliser
(c, c) (r, r)
uk : Luk = λk uk vk : Cvk = λk vk
avec λk , 1 Vecteurs principaux avec λk , 1
uk = √1 Tr⊤ vk vk = √1 Tc uk
λk λk
c k = nDr−1 NDc−1 uk c k = nDc−1 N ⊤ Dr−1 vk
nij nij
c k (i) = n cj=1 n ,n uk (j) c̃ k (j) = n ri=1 n ,n vk (i)
P P
√ i j Composantes principales √ i j
Dr c = n λk vk
k
Dc c̃ = n λk uk
k
Pc nij k Pr nij k
c k (i) = √1 j=1 ni c̃ (j) c̃ k (j) = √1 i=1 n c (i)
λk λk j.
Table:
Éléments supplémentaires
Les points supplémentaires sont des profils qui n’entrent pas dans la
construction des axes mais qui sont représentés dans les plans factoriels.
ACM
Le but de l’ACM est d’étendre une étude AFC au cas de plus de deux
variables : χ1 ; . . . ; χp lorsque p ≥ 2.
Définition
On va remplacer la j-ième colonne par mj colonnes d’indicatrices : 0 partout
et 1 à la valeur correspondant à xij .
Exemple
On considère trois variables avec respectivement 3, 2 et 2 modalités,
mesurées sur 4 individus. On va avoir l’équivalence entre les deux série de
tableaux :
1 2 1 1 0 0 0 1 1 0
3 1 2 0 0 1 1 0 0 1
2 1 1 0 1 0 1 0 1 0
3 1 2 0 0 1 1 0 0 1
Définition
Le tableau de contingence des variables χj et χk est donnée par
Nj,k = Xj⊤ Xk
Définition
La matrice des effectifs marginaux de la variable est χj est
Dj = Xj⊤ Xj
Exemple
! !
0 1 2 3 0
N2,1 = D2 =
1 0 0 0 1
92 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 92 / 117
Définition
On considère la matrice X = X1 |X2 | · · · |Xp , qui possède n lignes et
m1 + · · · + mp colonnes.
Définition
La somme des éléments de chaque ligne de X est égale à p.La tableau des
profils lignes est donc p1 X .
Définition
La somme de chaque colonne est égale à l’effectif de la modalité
correspondante. Le tableau des profils colonnes est donc XD −1 ou
D1 0
..
D = .
0 Dp
avec
! ! !
⊤ X1⊤ X1⊤ X1 X1⊤ X2 D1 N
X X= (X1 X2 ) = =
X2⊤ X2⊤ X1 X2⊤ X2 N⊤ D2
.
Les composantes sont donc valeurs propres de
! ! !
1 D1−1 0 D1 N 1 Im1 D1−1 N
=
2 0 D2−1 N⊤ D2 2 D2−1 N ⊤ Im2
On a m1 + m2 − 1 valeurs propres non nulles, ce qui est pus grand que dans
le cas classique (min (m1 − 1, m2 − 1))
√
λk
!
1+ ak
µk = associee à
2 bk
√
1 − λk
!
ak
µ′k = associee à
2 −bk
X = X1 |X2 | · · · |Xp
Définition
Le tableau de Burt est B = X ⊤ X qui est le tableau de contingence des
variables χ1 . . . , χp
⊤
X1 X1 X1⊤ X2 ··· X1⊤ Xp D1
N1,2 ··· N1,p
X ⊤ X X2⊤ X2 N2,1 D2
2 1
B = .. .. .. = .
.. ..
.
⊤.
. . .
. .
⊤
Xp X1 ··· Xp Xp Np,1 ··· Dp
1 −1
D Bak = µk ak
p
avec
1 ⊤
a Dak = µk
np k
.
100 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 100 / 117
Coordonnées des individus
Soit ck le vecteur à n composantes des coordonnées des n individus sur l’axe
factoriel associé à la valeur propre µk . On a
1 1
ck = √ Xa
µk p k
La variance de ck est donc
1 ⊤ 1 1 1 ⊤
Var (ck ) = ck ck = ak⊤ X ⊤ Xak = ak⊤ (pµk Dak ) = a Dak = µk
n µk np 2 µk np 2 np k
. Les seuls termes non nuls dans le calcul de Xak sont les coordonnées de la
catégorie de chaque
√ variable possédée par l’individu.
A un facteur 1/ λk , la coordonnée d’un individu est égale à la moyenne
simple des coordonnées des catégories auquel il appartient. On a aussi
1
ak = √ D −1 X ⊤ ck
λk
.
Les seuls termes non nuls de X ⊤ ck sont les coordonnées des individus ayant
une modalité donnée.
101 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 101 / 117
√
A un facteur 1/ λk près, la coordonnée d’une catégorie est égale à la
moyenne simple des coordonnées des nj individus de cette catégorie.
On a aussi
1
ak = √ D −1 X ⊤ ck
λk
.
Les seuls termes non nuls de X ⊤ ck sont les coordonnées des individus ayant
une modalité donnée.
√
A un facteur 1/ λk près, la coordonnée d’une catégorie est égale à la
moyenne simple des coordonnées des nj individus de cette catégorie.
102 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 102 / 117
Représentation
103 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 103 / 117
Variables et axes factoriels
1 X
2
nj (ak , j)
µk np
j modalites de
104 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 104 / 117
Individus et axes factoriels
2
La normalisation de ck est ni+1 (ck ,i ) = nµk , où ck ,i la coordonnée de
P
l’individu i sur l’axe factoriel k associé à la valeur propre µk .
La contribution d’un individu est
(αk ,i )2
nµk
.
Cette contribution est comparée à 1/n comme en ACP/AFC.
La qualité de représentation de l’individu i par les l premiers axes :
(ck ,i )2
P1
k =1
(ck ,i )2
Pq
k =1
.
105 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 105 / 117
Valeurs propres
106 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 106 / 117
La contribution d’une catégorie à l’inertie est
nj 2 1
nj
d (j, g) = 1−
np p n
C’est une fonction décroissante de l’effectif. il faut donc éviter les catégories
d’effectifs trop faible qui se retrouvent sur le premier axe.
La contribution de la variable χi est
X 1
n j mi − 1
1− =
pi n p
j modaliés de
.
C’est un fonction croissante du nombre de modalités. Il faut éviter si possible
un trop grand nombre de modalités pour les variables.
107 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 107 / 117
Choix des axes
On va garder les axes tels que µk > 1/p car la moyenne des valeurs
propres est 1/p.
Les axes que l’on peut interpréter en regardant les contributions des
variables.
108 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 108 / 117
points communs entre AFC et ACM
Lorsque p = 2 les coordonnées des modalités sont les mêmes pour les deux
analyses.
( coordonnée )2
×
valeur propre
109 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 109 / 117
Différences en AFC et ACM
n.j
np en ACM
Pp
Le nombre de valeur propres est min (m1 − 1, m2 − 1) en AFC i=1
mi − p
110 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 110 / 117
Rappels
ACP
AFC ACM
ACM
Méthodes de classification
Méthodes de classification
111 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 111 / 117
Rappels
ACP
Méthode de k-means
AFC
Classification hiérarchique
ACM
Méthodes de classification
Proposition
L’inertie intra-classe n’augmente jamais.
112 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 112 / 117
Rappels
ACP
Méthode de k-means
AFC
Classification hiérarchique
ACM
Méthodes de classification
113 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 113 / 117
Rappels
ACP
Méthode de k-means
AFC
Classification hiérarchique
ACM
Méthodes de classification
114 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 114 / 117
Rappels
ACP
Méthode de k-means
AFC
Classification hiérarchique
ACM
Méthodes de classification
115 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 115 / 117
References
2. Diday E., Lemaire J., J. Pouget et al. (1982), Eléments d’analyse des données, Dunod.
3. Lebart L., Morineau A., Fenelon J-P. (1981), Traitement des données statistiques, Dunod.
116 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 116 / 117
MERCI
117 M atthieu SOMÉ, UTS - LIME LISE 3 Analyse des données 117 / 117