Résumé iv
Abstract v
Introduction générale vi
1 Notions préliminaire 1
1.1 Statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Un peu de vocabilaire . . . . . . . . . . . . . . . . . . . . 1
1.2.1 Vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Multiplication par un scalaire et addition . . . . . . . . . 4
1.2.6 Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
i
TABLE DES MATIÈRES ii
1.6.1 la variance . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.2 l’écart type . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.3 l’étendue ou amplitude . . . . . . . . . . . . . . . . . . . 15
1.7 Variables centrées-réduites . . . . . . . . . . . . . . . . . . . . . . 15
1.8.1 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Le problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Les types des tableaux pouvent être traités par l’ACP . . . . . . . 22
3 Application 49
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Matériel utilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.1 Présentation des données . . . . . . . . . . . . . . . . . . . 50
3.3.2 Réalisation d’une ACP avec l’ade4 . . . . . . . . . . . . . 51
Conclusion 66
Résumé
iv
Abstract
v
Introduction générale
vi
0. Introduction générale vii
Notions préliminaire
1.1 Statistique
1.1.1 Généralités
“La Statistique”: est une méthode d’analyse des ensembles comportant un
grand nombre d’éléments. C’est une science qui permet de traiter et d’analyser
les résultats des mesures e¤ectuées sur les individus d’une population relati-
vement à un certain nombre de caractères. Les résultats des mesures sont, en
général, appelés observations. Pour extraire l’information contenue dans ces ob-
servations il est nécessaire d’utiliser un certain nombre d’opérations logiques qui
caractérisent les méthodes statistiques. Les éléments soumis à l’analyse doivent
appartenir à un ensemble homogène et être délimités avec précision. Par la suite,
ces éléments sont ordonnés et classés relativement à leurs mesures.
Pour être e¢ cace, les méthodes statistiques doivent formaliser simplement le
problème posé en utilisant des concepts mathématiques abstraits.
Par exemple, tous les éléments classés dans le même sous- groupe sont consi-
dérés comme équivalents.
1
1. Notions préliminaire 2
Par exemple, les étudiants d’une classe, les contribuables français, les ménages
lillois ...
- Les éléments de la population sont appelés les individus ou unités statis-
tiques.
X Individu : élément de la population étudiée.
X Variable : propriété commune aux individus de la population, que l’on
souhaite étudier. Elle peut être :
- qualitative : lorsque les modalités (ou les valeurs) qu’elle prend sont dé-
signées par des noms. Par exemples, les modalités de la variable Sexe sont :
Masculin et Féminin ; .
- quantitative (numérique) : lorsqu’elle est mesurée par un nombre (les Notes
des Etudiants à l’Examen de Statistique, le Chi¤re d’A¤aire par PME, le Nombre
d’Enfants par Mé-nage, ...), le poids, le volume. On distingue encore les variables.
- continues : toutes les valeurs d’un intervalle de R sont acceptables.
Par exemple : le chi¤re d’a¤aire par PME peut être 29000,1e, 29000, 12e,
..., même si dans la pratique il faut l’arrondir
- discrétes : seul un nombre discret de valeurs sont possibles.
Par exemple : le nombre d’espéces ressencées sur une parcelle.
Les valeurs observées pour les variables s’appellent les données.
–Echantillon : partie étudiée de la population.
Statistique descriptive
Statistique inférentielle
Les données ne sont pas considérées comme une information compléte, mais
une information partielle d’une population in…nie. Il est alors naturel de sup-
poser que les données sont des réalisations de variables aléatoires, qui ont une
certaine loi de probabilité. Nécessite outils mathématiques plus pointus (théorie
des probabilités).
- Questions typiques :
1. Estimation de paramétres.
2. Intervalles de con…ance.
3. Tests d’hypothése.
4. Modélisation : exemple (régression linéaire).
-Lorsque l’on observe une seule variable pour les individus de la population,
on parle de statistique univariée, et de statistique multivariée lorsqu’on en ob-
serve au moins deux.
-La statistique descriptive multivariée ,en général ,est un domaine trés vaste.
La premiére étape consiste à étudier la représentation graphique, et la description
des paramétres de position, de dispersion et de relation. Ensuite, les méthodes
principales se séparent en deux groupes.
1- Les méthodes factorielles
Cherchent à réduire le nombre de variables en les résumant par un petit
nombre de variables synthétiques. Selon que l’on travaille avec des va-
1. Notions préliminaire 4
1.2.1 Vecteur
Un élément de Rn est une suite ordonnée de n éléments de R. On peut disposer
cette suite, appelée vecteur soit en ligne, soit en colonne.
2 3
3
6 7
Exemple 1 le vecteur a = [3; 0], est un vecteur ligne et le vecteur b = 4 2 5
0
est un vecteur colonne.
Deux vecteurs lignes (ou deux vecteurs colonnes) peuvent s’additionner s’ils
sont de même dimension, soit a et b deux vecteurs de Rn
2
3 2 3 2 3
a1 b1 a1 + b 1
6 . 7 6 .. 7 6 .. 7
a+b=6 . 7 6
4 . 5+4 . 7 6
5=4 . 7
5
an bn an + b n
1. Notions préliminaire 5
Ou c1 , c2 2 R.
a1 u 1 + a2 u 2 + aJ u J = 0
implique que a1 = a 2 = : : : = aj = 0
1. Notions préliminaire 6
1. u + v 2 V
2. au 2 V , pour tout a 2 R
Produit scalaire
1.2.6 Norme
p
kuk = (u; u)
v
u n
uX
d (u; v) = ku vk = t (ui vi )2
i=1
hu; viv
Pv (u) =
kvk2
1.3.2 Matrice
une matrice est un tableau de nombres, par exemple :
2 3
a11 : : : a1j : : : a1p
6 . .. .. 7
6 .. . . 7
6 7
6 7
A = 6 ai1 : : : aij : : : aip 7
6 . .. .. 7
6 .. . . 7
4 5
an1 : : : anj : : : anp
- Le produit d’un vecteur par une matrice est la représentation d’une appli-
cation linéaire dans la base Canonique.
- La transposée de la matrice X, notée X t , est obtenue à partir de X en
interchangeant les lignes et les colonnes. C’est à dire, (X t )ij = xji .
Remarquer que si X est une matrice de taille n p, alors X t est une matrice
de taille p n:
Exemple 12 :
2 3
1
6 7
X = 4 1:5 5
1
Un vecteur ligne X t est une matrice avec une seule ligne. Remarquer que la
notation souligne le fait que c’est la transposée d’un vecteur colonne.
Exemple 13 :
h i
X t = 1 1:5 1
Exemple 14 :
1. Notions préliminaire 10
2 3 2 3
3 2 1 2 1 0
6 7 6 7
64 6 17 63 1 27
X=6
68
7 et : Y =6 7
4 1 07
5
64
4 5 47
5
2 1 5 1 2 3
2 3
5 3 1
6 7
6 7 7 37
6
X +Y =6 7
7
412 6 45
3 3 8
Multiplication par un scalaire : Soit X une matrice de taille n p, et un
nombre réel (aussi appelé scalaire), alors la matrice X est de taille n p, et a
pour coe¢ cients :
Exemple 15
( X)ij = xij
Exemple 16 : 2 3
3 2 1
6 7
64 6 17
X=6
68
7 et : =2
4 1 07
5
2 1 5
2 3
6 4 2
6 7
6 8 12 2 7
6
2X = 6 7
16 2 0 7
4 5
4 2 10
Multiplication de matrices : Soit X une matrice de taille n p, et Y
une matrice de taille p q, alors la matrice XY est de taille n q, et a pour
coe¢ cients : p
X
(XY )ij = xik ykj
k=1
Exemple 17 : 2 3
" # 3 1
3 2 1 6 7
X= et : Y = 44 15
4 6 1
2 1
1. Notions préliminaire 11
" #
19 6
XY =
38 11
La transposée véri…e les propriétés suivantes :
1. (X + Y )t = X t + Y t
2. (XY )t = X t Y t
@
AX = A0
@X
Si A est symétrique (et donc n = p)
@ 0
X AX = 2AX
@X
Ax = x
1X
n
x= xi
n i=1
n
xh =
X
n
1
xi
i=1
1.5.4 médiane
La médiane x e est la valeur telle que la moitiée des observations lui sont
supérieures (ou égales) et la moitié inférieures (ou égales). Il est clair que la
médiane existe pour toutes les distributions (ce qui n’est pas le cas de la moyenne)
de plus, elle est peu sensible aux valeurs extrêmes.
1. Notions préliminaire 13
1.5.6 le mode
est la (ou les) valeur(s) pour laquelle les e¤ectifs sont maximums, il est en
général assez di¢ cile de l’évaluer (quand il existe) sur des échantillons de petite
taille.
Ces paramétres (comme leur nom l’indique) mesurent la dispersion des don-
nées. La moyenne ne donne qu’une information partielle. En e¤et, il est aussi
important de pouvoir mesurer combien ces données sont dispersées autour de la
moyenne. Il existe plusieurs maniéres de mesurer la dispersion des donnée.
1. Notions préliminaire 14
1.6.1 la variance
On considére les données xj de la j eme variable, l’idée est de calculer la
somme, pour chacune des données de cette variable, des distances à la moyenne,
et de diviser par le nombre de données. Une premiére idée serait de calculer :
1X
n
1
(xij xj ) = [(x1j xj ) + : : : + (xnj xj )] :
n i=1 n
mais dans ce cas là, il y a des signes + et qui se compensent et faussent
l’information.
alors qu’il y a une certaine dispersion autour de la moyenne. Pour palier
à la compensation des signes, il faut rendre toutes les quantités que l’on somme
de même signe, disons positif. Une idée est de prendre la valeur absolue, et on
obtient alors l’écart à la moyenne. Une autre maniére de procéder est de prendre
les carrés, on obtient alors la variance :
1X
n
1
V ar (xj ) = (xij xj )2 = (x1j xj )2 + : : : + (xnj xj )2
n i=1 n
Notation matricielle
La variance s’écrit naturellement comme la norme d’un vecteur. Cette inter-
prétation géométrique est utile pour la suite.
On dé…nit la matrice des moyennes arithmétiques, notée X par :
2 3
x1 : : : xp
6. . 7
X=6 . . . ... 7
4. 5
x1 : : : xp
1. Notions préliminaire 15
1 1 1 2
V ar(Xj ) = < (X X)j ; (X X)j >= ((X X)j )t (X X)j = (X X)j
n n n
xmax
j = max xij
i2f1;:::;ng
xmax
j = min xij
i2f1;:::;ng
wj = Xjmax Xjmin
Les données d’une variable sont dites centrées si on leur soustrait leur moyenne.
Elles sont dites centrées réduites si elles sont centrées et divisées par leur écart-
type. Les données d’une variable centrées réduites sont utiles car elles n’ont plus
d’unité, et des données de variables di¤érentes deviennent ainsi comparables.
1. Notions préliminaire 16
Si X est la matrice des données, on notera Xcr la matrice des données centres
réduites.
Par dé…nition, on a :
xij xj
(Xcr )ij = (xcr )ij =
(xj )
Remarque 21 : que si (xj ) est nul la quantité ci-dessus n’est pas bien dé…nie.
Mais dans ce cas, on a aussi xij xj = 0 pour tout i, de sorte que l’on pose
(xcr )ij = 0
1.8.1 Covariance
1 1
Cov(X(i); X(j)) = < (X X)(i); (X X)(j) >= < ((X X)(i))t ; (X X)(j) >
n n
1
Cov(Xi ; Xj ) = < Xi ; Xj > Xi Xj
n
1. Notions préliminaire 17
1
Cov(Xi ; Xj ) = Xi Xi ; Xj Xj
n
1
= Xi Xi 1; Xj Xj 1
n
1
= hXi ; Xj i Xi 1; Xj Xj hXi ; 1i + Xi Xj h1; 1i
n
1
= hXi ; Xj i nXi Xj nXj Xi + nXi Xj
n
(car h1; Xj i = nXj ; hXi ; 1i = nXi et h1; 1i = n)
1
= ( hXi ; Xj i) Xi Xj
n
1 2
V ar(Xi ) = ( kXj k2 ) Xj
n
Matrice de covariance :
Les variances et covariances sont naturellement répertoriées dans la matrice
de covariance des données X, de taille p p, notéeV (X) = V , dé…nie par :
1 t
V (X) = (X X) (X X)
n
De sorte que l’on a
Cov(Xi ; Xi ) = V ar(X)ii
Remarquer que les coe¢ cients sur la diagonale de la matriceV (X) donnent
les variances.
La variabilité totale de la matrice des données X; est par dé…nition :
1. Notions préliminaire 18
p
X
T r(V (X)) = V ar(X(i))
i=1
Cette quantité est importante car elle donne en quelque sorte la quantité
d’information qui est contenue dans la matrice X: Elle joue un rôle clé dans
l’ACP:
D E
Cov(Xi ; Xj ) (X X)i ; (X X)j
r(Xi ; Xj ) = =
(Xi ) (Xj ) (X X)i : (X X)j
= cos((X X)i ; (X X)j )
(R(X))ij = r(Xi ; Xj )
Remarquer que les éléments diagonaux de cette matrice sont tous égaux à 1.
Analyse en composantes
principales
2.1 Introduction
2.2 Le problème
21
2. Analyse en composantes principales 22
par l’ACP
L’ACP s’applique à des tableaux à deux dimensions croisant des individus
et des variables quantitatives ou pouvant être considérées comme telles. Selon
la nature de ces variables, on distingue trois grandes catégories de tableaux qui
peuvent être traités par l’ACP, ce sont :
- Les tableaux de mesures :
Les variables sont obtenues à partir de comptages ou de recensement, ces
variables continues ou entières sont quantitatives.
- Les tableaux de notes :
Les variables sont obtenues à partir de notations. Les notes sont des variables
qualitatives ordinales qui peuvent être généralement assimilées à des variables
quantitatives.
- Les tableaux des rangs :
Les variables sont des rangs, les n individus sont classés de 1 à n, du meilleur
au plus mauvais, du plus rapide au plus lente, etc.
v1 v2 vj vp
2 3
u1 x11 x12 x1j x1p
6 7
u2 6 x21 x22 x2j x2p 7
.. 6 . .. .. .. 7
. 6 .. . . . 7
6 7
X= 6 7
ui 6 xi1 xi2 xij xip 7
6 7
.. 6 .. .. .. .. 7
. 4 . . . . 5
un xn1 xn2 xnj xnp
on note xij la valeur de la variable vj pour le i-éme individus.
Chaque individus est représenter par le vecteur de ces mesures sur les va-
riables :
0
h i
ui = uti = xi1 xi2 xij xip
ce qui implique :
2. Analyse en composantes principales 24
2 3
xi1
6 7
6 xi2 7
6 .. 7
6 . 7
6 7
ui = 6 7
6 xij 7
6 7
6 .. 7
4 . 5
xip
L’espace des individus est Rp , alors chaque individus est représenté dans un
espace a¢ ne d’un origine O (0; 0; : : : ; 0) par un point de p coordonnées, l’en-
semble des points qui représentent les unités est appelé “nuage des individus”.
Et de même, chaque variable est représenter par le vecteur :
2 3
x1j
6 7
6 x2j 7
6 . 7
6 .. 7
6 7
vj = 6 7
6 xij 7
6 7
6 .. 7
4 . 5
xnj
L’espace des individus est Rn , alors chaque variables est représenté dans un
espace a¢ ne d’un origine O (0; 0; : : : ; 0) par un point de n coordonnées, l’en-
semble des points qui représentent les variables est appelé “nuage des variables”.
p
X
2
d (ui ; ui0 ) = (xij xi0 j )2
j=1
= kui ; ui0 k2
avec cette distance, toutes les variables jouent le même rôle et les axes dé…nis
par les variables constituent une base orthogonale.
On associe un produit scalaire entre deux vecteurs :
p
X
!; ou!0 i =
hou xij xi0 j = uti ui0
i i
j=1
P
p
vité
Si les données ont étés recueleillies à la suite d’un tirage aléatroire à proba-
bilités égales, les n individus ont tous même importance n1 , dans le calcul des
caractéristiques de l’échantillon. Il n’en pas toujours ainsi et il est utile pour cer-
taines applications de travailler avec des poids pi éventuellement di¤érents d’un
individus à l’autre.
2. Analyse en composantes principales 26
Ces poids, qui sont des nombres positifs de somme 1, sont regroupés dans
une matrice diagonale Dp de taille n.
2 3
p1 0
6 7
6 p2 7
6 7
6 7
6 7
Dp = 6 ... 7
6 7
6 7
6 7
4 5
0 pn
dans le cas le plus usuel de poids égaux, on a :
1
Dp = In
n
Ces poids intervient dans le calcul de la moyenne de chaque variable qui est
dé…ni par :
Xn
xj = pi xij
i=1
1X
n
xj = xij
n i=1
Xn
var (xj ) = Sx2j = pi (xij xj )2
i=1
oubien :
1X
Sx2j = (xij xj )2
n i=1
aussi le coe¢ cient de corrélation :
cov (j; k) X
n
xij xj xik xk
r (j; k) = p = pi
var (j) var (k) i=1
S xj S xk
Le point O (0; 0; : : : ; 0) correspondant au vecteur de coordonnés toutes nulles,
est l’origine du repère usuel. La dé¢ cultée est si les coordonnées des points du
2. Analyse en composantes principales 27
nuage des individus sont grandes, le nuage est éloigné de cette origine. La solution
est de choisir une origine liée au nuage lui-même, c’est le centre de gravité dé…nie
par :
G = X t Dp 1n
G = X t Dp 1n
2 32 32 3
x11 x21 xi1 xn1 1
n
0 1
6 76 1 76 7
6x12 x22 xi2 xn2 7 6 7 617
6 . .. .. .. 7 6 n 76 7
6 .. . . . 7 6 76 7
6 76 76 7
= 6 76 .. 7 6.7
6x1j x2j xij xnj 7 6 . 7 6 .. 7
6 76 76 7
6 .. .. .. .. 7 6 76 7
4 . . . . 54 54 5
1
x1p x2p xip xnp 0 n
1
2 n 3
1
P
6 n i=1xi1 7 2 3
6 P 7
61 n 7 x1
6 n xi2 7 6 7
6 i=1 7 6x2 7
6 . 7 6 7
6 .. 7 6 7
6 7 6 7
= 6 P 7=
61 x 7 6 7
n
6n ij 7 6 xj 7
6 i=1 7 6 7
6 . 7 4 5
6 .. 7
6 n 7 xp
41 P 5
n
xip
i=1
2 3
x11 x1 x12 x2 x1j xj x1p xp
6 7
6 x21 x1 x22 x2 x2j xj x2p xp 7
6 .. .. .. .. 7
6 . . . . 7
6 7
Xc = 6 7
6 xi1 x1 xi2 x2 xij xj xip xp 7
6 7
6 .. .. .. .. 7
4 . . . . 5
xn1 x1 xn2 x2 xnj xj xnp xp
alors un individus ui est dé…nie par le vecteur des coordonnées centrées donné
par :
2 3 2 0 3
xi1 x1 xi1
6 7
6xi2 x2 7 6 xi2 7
0
6 7 6 7
6 .. 7 6 7
6 . 7 6 7
uci = 6 7=6
6x 7
0
7
6 xij xj 7
6 6
7 6 ij 7
6 .. 7 4 7 5
4 . 5
0
xip xp xip
on a aussi la relation :
Xc = X 1n Gt = I 1n 1tn Dp X
2. Analyse en composantes principales 29
2 3
var (v1 ) cov (v1 ; v2 ) cov (v1 ; vj ) cov (v1 ; vp )
6 7
6cov (v2 ; v1 ) var (v2 ) cov (v2 ; vj ) cov (v2 ; vp )7
6 .. .. .. .. 7
6 . . . . 7
6 7
V =6 7
6cov (vj ; v1 ) cov (vj ; v2 ) var (vj ) cov (vj ; vp )7
6 7
6 .. .. .. .. 7
4 . . . . 5
cov (vp ; v1 ) cov (vp ; v2 ) cov (vp ; vj ) var (vp )
2 3
1
P
n
02 1
P
n
1
P
n
1
P
n
6 i=1xi1
n n
x0i1 x0i2 n
x0i1 x0ij n
x0i1 x0ip 7
6 P i=1
P
i=1
P
i=1
P 7
61 n 0 0 1 1
n
1
n
0 7
6 n xi2 xi1 x02
i2 x0i2 x0ij x 0
i2 ip 7
x
6 i=1 n n
i=1
n
i=1 7
6 .. .. .. .. 7
1X
n 6 . . . . 7
t 6 7
uci uci = 6 P n P
n P P n 7=V
n i=1 6 1 x0 x0 1
x0ij x0i2 1
x02 1
x 0 0 7
x
6n ij i1 n n ij n ij ip 7
6 i=1 i=1 i=1 7
6 .. .. .. .. 7
6 7
6 n . . . . 7
41 P 0 0 1
P
n
1
P
n
1
P 02 5
n
xip xi1 n
x0ip x0i2 n
x0ip x0ij n
xip
i=1 i=1 i=1
où :
x0ij = xij xj
si : 3 2
utc1
6 t 7
6 uc2 7
6 . 7
6 .. 7
6 7
Xc = 6 t 7
6 ucj 7
6 7
6 .. 7
4 . 5
utcn
on peut écrire :
1 t
X Xc V =
n c
Si on veut travailler avec des variables centrées réduites, on passe du tableau
des valeurs centrées au tableau des valeurs centrées réduites donnée par :
1
Xcr = (DV ) 2 Xc
où :
2 3
1
0
6 1
7
6 1 7
6 2 7
6 .. 7
1 6 . 7
(DV ) 2 =6
6 1
7
7
6 j 7
6 .. 7
6 . 7
4 5
1
0 p
2. Analyse en composantes principales 31
c’est une matrice diagonale qui a sur sa diagonale principale les inverses des
écarts-type empiriques des variables.
Alors la matrice de corrélation et donnée par :
2 3
1 r12 r1j r1p
6 7
6r21 1 r2j r2p 7
6 . .. .. .. 7
6 .. . . . 7
6 7
R=6 7
6rj1 rj2 1 rjp 7
6 7
6 .. .. .. .. 7
4 . . . . 5
rp1 rp2 rpj 1
c’est une matrice de p p dont sa diagonale principale tous ses valeurs égale
1, et ailleurs les coe¢ cients de corrélation empiriques de ces variables deux à
deux (les expréssions sont données dans le chapitre 1).
on a :
1 t 1 1
R= X Xcr = (D ) 2 V (D ) 2
n cr
2 x1j xj x1p xp
3
x11 x1 x12 x2
6 x21 1 x1 2 j
x2j xj x2p xp 7
p
6 x22 x2 7
6 1 2 j p 7
6 .. .. .. .. 7
1 6 . . . . 7
Xcr = (DV ) 2 Xc = 6
6 xi1 x1 xi2 x2 xij xj xip xp 7
7
6 1 7
6 . 2
..
j
.. .. 7
p
6 .. . . . 7
4 5
xn1 x1 xn2 x2 xnj xj xnp xp
1 2 j p
IG = trace (R) = p
2.6 L’inertie
Elle mesure la dispertion du nuage des individus par rapport à son centre de
gravité. Si ce moment d’inertie est grand, le nuage est trés dispersé, tandis que
s’il est petit, le nuage est trés concentré sur son centre de gravité.
Une inertie nulle signi…e que tous les individus sont presque identiques. L’iner-
tie du nuage sera égale à la somme des variables, c’est-à-dire, l’inertie totale est
égale à la trace de la matrice de covariance V .
p
" n # p
X 1X 2
X
IG = (xij xj ) = var (vj ) = trace (V )
j=1
n i=1 j=1
IG = trace (R) = p
1X 2
n
I = d (h i
ui )
n i=1
où h i est la projection orthogonale de ui sur l’axe .
Cette inertie mesure la proximitée à l’axe du nuage.
1X 2
n
IS = d (hSi ui )
n i=1
où hSi est la projection orthogonale de ui sur le sous-espace S .
IS + IS = IG
Dans le cas particulier où le sous-espace est de dimension 1, c’est-à-dire est
un axe, IS est une mesure de l’allongement du nuage selon cet axe. On emploie
pour IS les expresions “d’inertie portée par l’axe ” ou bien “d’inertie expliquée
par l’axe ”.
En projetant le nuage des individus sur un sous-espace S, on perd l’inertie
mesurée par IS , on ne conserve que celle mesurée par IS :
De plus, si on décompose l’espace Rp comme la somme de sous-espaces de
dimension 1 et orthogonaux entre eux :
1 2 p
2. Analyse en composantes principales 34
IG = I 1
+I 2
+ +I p
On appelle axes principaux d’inertie les axes de direction les vecteurs propres
de V normés à 1.
- Explication :
Soit F un sous ensemble de Rp , et soit fi la projection orthogonale de ui sur
F, alors :
X
n
pi kui fi k2 soit minimal
i=1
X
n
pi kfi Gk2
i=1
donc :
X
n
2
X
n
2
X
n
pi kui Gk pi kui fi k = pi kfi Gk2
|i=1 {z } |i=1 {z } |i=1 {z }
l’inertie totale
minimiser cette maximiser
quantiter (carrés des l’inertie du nuage
distances entre points projeté
individus et leurs projections)
! 2
Expressions algébriques de I 1
et de Ga1
D ! ! E2
d2 G; h 1i
= Gui ; Ga1 = at1 uci utci a1
On utilisant la symétrie du produit scalaire. On en déduit :
" n #
1X t X
n
1
I = a uci utci a1 = at1 uci utci a1
1
n i=1 1 n i=1
entre crochets on reconnaît la matrice de covariance empirique V des p va-
riables
I 1
= at1 V a1
et :
! 2
Ga1 = at1 a1
2. Analyse en composantes principales 36
Recherche du maximum
@g (a1 )
= 2V a1 2 1 a1 = 0
@a1
Donc le systéme à résoudre est :
(
V a1 1 a1 = 0 : : : : : : : : : (1)
t
a1 a1 = 1 : : : : : : : : : (2)
De la relation (1), on obtient que a1 est vecteur propre de V associé à la
valeur propre 1 . Si on multiplie (1) par at1 on obtient :
at1 V a1 t
1 a1 a1 =0
et en utilisant l’équation (2) on trouve que :
at1 V a1 = 1
alors :
I 1
= 1
I 2
= at2 V a2
cette inertie doit être maximum avec les deux contraintes suivantes :
at2 a2 = 1
et :
at2 a1 = 0
IG = I 1
+I 2
+ ::: + I p
= 1 + 2 + ::: + p
ca ( k =IG ) = k
k k
cr ( k =IG ) = =
IG 1 + 2 + ::: + p
1 + 2 + 21
cr ( 1 2 =IG ) = =
IG 1 + 2 + ::: + p
Ces pourcentages d’inertie sont des indicateurs qui rendent compte de la part
de variabilité du nuage des individus expliquée par ces sous-espaces. Si les der-
nières valeurs propres ont des valeurs faibles, on pourra négliger la variabilité
qu’expliquent les axes correspondants. On ce contente souvent de faire des re-
présentations du nuage des individus dans un sous-espace engendré par les d
premiers axes si ce sous-espace explique un pourcentage d’inertie proche de 1.
On peut ainsi réduire l’analyse à un sous-espace de dimension d p:
Pour dé…nir le nombre d’axes étudiés, on étudier les valeurs propres obtenues.
Chaque valeur propre correspond à la part d’inertie projetée sur un axe donné.
2. Analyse en composantes principales 39
On sait que la somme des valeurs propres est égale à l’inertie totale du nuage
(=nombre de variable en ACP normé), on caractérise ainsi chaque axe par le
pourcentage d’inertie qu’il permet d’expliquer. On ne retient donc que les axes
avec les plus fortes valeurs propres. Le choix des axes retenus est un peut délicat.
On peut donner quelques règles :
- Règle du coude : On observe souvent de fortes valeurs propres au départ
puis ensuite de faibles valeurs avec un décrochage dans le diagramme. On retient
les axes avant le décrochage.
A chaque axe est assciée une variable appelée composante principale. La com-
posante c1 est le vecteur renfermant les cordonnées des projections des individus
sur l’axe 1, et la composante c2 est le vecteur renfermant les cordonnées des
projections des individus sur l’axe 2, . . . etc. Alors, pour obtenir ces coordon-
nées, on écrit que chaque composante principale est une combinaison linéaire
des variables initiales.
8
>
< c1 = a11 x1 + a12 x2 + : : : + a1j xj + : : : + a1p xp
>
c2 = a21 x1 + a22 x2 + : : : + a2j xj + : : : + a2p xp
>
> ..
: .
ce qui signi…e que la valeur de c1 pour l’individus i est donnée par :
La variance d’une composante principale est égale à l’inertie portée par l’axe
principale qui lui est associé, par exemple la variance de la première compsante
principale c1 égale à 1 ;. . . ect. Puisque les axes sont orthogonaux, les compo-
santes principales sont non corrélées deux à deux.
De façon générale, on construit la composante d’ordre k où :
2. Analyse en composantes principales 41
Les individus sont associés à des points des coordonnées sont les variables,
Pour faire la représentation des individus dans les plans dé…nis par les nouveaux
axes, il su¢ t de calculer les coordonnées des individus dans les nouveaux axes.
Soit yik la coordonnée de l’unité ui sur l’axe k , c’est la projection orthogonale
!
le vecteur Gui sur l’axe k . Alors :
D ! E
yik = Gui ; !
ak = atk uci
et :
Yi = At uci
- Seule les individus bien représenter sont pris en compte dans l’interprétation,
On calcule la somme des qlt dans le plan et on véri…e que cette somme n’est pas
trop faible par rapport à la qualité moyenne du plan.
- On réalise le bilan en positif et en négatif des individus qui ont la plus
forte contribution pour un axe donné, On donne ainsi en parallèle avec l’analyse
des variables une signi…cation concrête à ces axes en terme d’opposition entre
individus et variables ou tendance particulière.
- On réalise des groupes, à l’aide éventuelle de la fonction s.class, dans le cas
de groupes préexistants (homme-femme par exemple) ou on construit arbitrai-
rement ces groupes en raison des proximités entre individus.
- En présence de trop nombreux individus, on peut utiliser des individus type
et réaliser une analyse sur ce individus.
- L’utilisation d’individus supplémentaires non utilisés dans l’ajustement mais
a posteriori permet également d’éclairer l’analyse.
1
P
n
Contribution absolue d’un individu à un axe I k
étant égale à n
d2 (h ki
; G) ;
i=1
1X 2
n
ca (ui = k ) = d (h ki
; G)
n i=1
Puisque tous les individus ont le même poids. Un individu contribuera d’au-
tant plus à la confection d’un axe, que sa projection sur cet axe sera éloignée du
centre de gravité du nuage. Inversement, un individu dont la projection sur un
axe sera proche du centre de gravité contribuera faiblement à l’inertie portée par
2. Analyse en composantes principales 46
cette axe. On se sert de ces contributions pour interpréter les nouveaux axes de
l’ACP en fonction des individus.
1
P
n D ! !E
d2 (h ; G) 1
Gui ; Gak 1 t
n
i=1
ki
n a u ut a
n k ci ci k
cr (ui = k) = = =
I k k k
X
n
cr (ui = k) =1
i=1
X
n
2
Yk;v j
= k
i=1
2 p 2
Yk;v k akj
ctr (j; k) = j
= = a2kj
k k
où akj est en fait la projection sur l’axe k du vecteur directeur de l’axe por-
teur de la variable j. Pour voir la contribution d’une variable à la formation d’un
axe k, il su¢ t d’élever au carré chaque composante de ak :De plus, les composantes
de ak donnent les combinaisons linéaires des variables d’origine qui dé…nissent
les nouvelles variables de variance maximale (composantes principales).
Règles d’interprétation
- L’analyse se fait axe par axe, en parallèle sur les variables et les individus.
2. Analyse en composantes principales 47
- Plus ctr est grande, plus l’in‡uence de l’individu est grande. On ne retient
donc que les plus fortes valeurs (il y a souvent un décrochage après quelques
valeurs).
- La contribution est considérée comme positive si l’individu est dans la partie
positive de l’axe.
- La contribution est considérée comme négative si l’individu est dans la
partie négative de l’axe.
- Le bilan des contributions peut être présenter pour un axe donné sous
forme d’un tableau avec les principales contributions + et –des individus et des
variables, en précisant la valeur de contribution.
Nous pouvons considérer que certaines variables sont des variables explica-
tives et d’autres des variables à expliquer. Nous mettrons en supplémentaire les
variables à expliquer. Celle-ci sera introduite à la …n de l’analyse a…n de la po-
sitionner sur le plan principal. D’autres variables peuvent manquer de …abilité.
On peut légitimement hésiter à les introduire dans l’analyse. Elles peuvent être
utilisées comme variables supplémentaires.
De nouveaux individus pourront être mis en supplémentaires dans l’analyse
(nouvelles variétés, nouveaux traitement, etc. . . ), Les individus supplémentaires
sont introduits en …n d’analyse, après le calcul des vecteurs propres. On peut
aussi mettre en supplémentaires des données (variables ou individus) dont on
doute de la …abilité. Ces données seront positionnées sur le plan principal sans
participer activement aux calculs.
Par opposition, les individus ou les variables qui ne sont pas supplémentaires
sont dits actifs (sous entendu : actifs dans le calcul des composantes principales).
2.10.1 Avantages
- Simplicitée mathématique :
2. Analyse en composantes principales 48
L’ACP est une méthode factorielle car la réduction du nombre des carac-
tères ne se fait pas par une simple sélection de certains d’entre eux, mais par
la construction de nouveaux caractères synthétiques obtenus en combinant les
caractères initiaux au moyen des “facteurs”. Cependant, il s’agit seulement de
combinaisons linéaires, les seuls véritables outils mathématiques utilisés dans
l’ACP sont le calcul des valeurs/vecteurs propres d’une matrice, et les change-
ment de base.
Sur le plan mathématique, l’ACP est donc une méthode simple à mettre en
œuvre.
- Simplicité des résultats :
Grâce aux graphiques qu’elle fournit, l’ACP permet d’appréhender une grande
partie de ces résultats d’un simple coup d’œil.
- Puissance :
L’ACP a beau être simple, elle n’en est pas moins puissante. Elle o¤re, en
quelques opération seulement, un résumé et une vue complète des relations exis-
tant entre les variables quantitatives d’une population d’étude, résultats qui
n’auraient pas pu être obtenus autrement, ou bien uniquement au prix de mani-
pulations fastidieuses.
- Flexibilité :
L’ACP est une méthode très souple, puisqu’elle s’applique sur un ensemble de
données de contenu et de taille quelconques, pour peu qu’il s’agisse de données
quantitatives organisées sous forme individus/variables. Cette souplesse d’utili-
sation se traduit surtout par la diversité des applications de l’ACP, qui touche
tous les domaines.
2.10.2 Inconvénients
En tant que méthode d’analyse de données, l’ACP n’a pas réellement d’in-
convénients en soi. Elle s’applique simplement sur des cas précis et pour générer
un type de résultat particulier. Cela n’aurait donc aucun sens de dire que c’est
un inconvénient de l’ACP qu’elle ne s’applique pas en dehors de ce contexte.
De même, étant donné qu’il s’agit avant tout d’une technique de résumé de
données, la perte d’information forcément engendrée n’est pas un inconvénient,
mais plutôt une condition d’obtention du résultat, même si elle occulte parfois
des caractéristiques pourtant représentatives dans certains cas particuliers.
Chapitre 3
Application
3.1 Introduction
- Présentation du logiciel R :
Le logiciel R est un logiciel de statistique cree par Ross Ihaka et Robert
Gentleman. Il est à la fois un langage informatique et un environnement de
travail : les commandes sont exécutées grâce à des instructions codées dans un
langage relativement simple, les résultats sont a¢ chés sous forme de texte et les
graphiques sont visualisés directement dans une fenètre qui leur est propre. Le
logiciel R est particulièrement performant pour la manipulation de données, le
calcul et l’a¢ chage de graphiques.
R est un logiciel dans lequel de nombreuses techniques statistiques modèrnes
et classiques ont été implémentées. Les méthodes les plus courantes permettant
49
3. Application 50
de réaliser une analyse statistique telles que : statistique descriptive, tests d’hy-
pothèses, analyse de la variance.
3.3 Méthodologie
Les données sont importer depuit un …chier Microsoft Exel 2007, elles ont
été ventilées en pourcentage par année, la somme des éléments d’une même ligne
vaut prèsque 100, de manière à éviter les e¤ets dus à l’in‡ation. Ce …chier est
enregistrer dans le répertoire de travail "Mes documents".
Dans le logiciel R, on exécute la commande :
3. Application 52
> X<-read.csv2(…le.choose(),header=FALSE)
R a¢ che une feunêtre de …chier "Mes documents", nous donne la main pour
choisir d’ouvrire un document, aprés le chois on clique "ouvrire" et on tape dans
R la commande :
>X
Le logiciel R a¢ che le résultat suivant :
V1 V2 V3 V4 V5 V6
1 18:47 7:47 24:06 19:40 27:06 3:54
2 20:19 5:38 24:43 15:36 30:85 3:79
3 18:59 5:21 26:20 16:66 28:44 4:89
4 22:00 5:19 22:81 18:61 27:64 3:75
5 26:89 6:25 16:86 18:36 28:26 3:38
6 30:24 5:78 13:98 21:29 25:59 3:12
7 35:49 6:09 8:42 22:78 24:84 2:37
8 26:81 6:85 16:35 28:40 19:05 2:55
9 24:92 6:71 18:37 30:88 14:45 4:67
- Pour ronnomer les lignes et les colonnes, on exécute :
> rownames(X)<-c("2008","2009","2010","2011","2012","2013","2014","2015","2016")
> colnames(X)<-c("INV","STO","CRE","FPR","DET","RNE")
>X
- Le logiciel R a¢ che :
IN V ST O CRE F P R DET RN E
2008 18:47 7:47 24:06 19:40 27:06 3:54
2009 20:19 5:38 24:43 15:36 30:85 3:79
2010 18:59 5:21 26:20 16:66 28:44 4:89
2011 22:00 5:19 22:81 18:61 27:64 3:75
2012 26:89 6:25 16:86 18:36 28:26 3:38
2013 30:24 5:78 13:98 21:29 25:59 3:12
2014 35:49 6:09 8:42 22:78 24:84 2:37
2015 26:81 6:85 16:35 28:40 19:05 2:55
2016 24:92 6:71 18:37 30:88 14:45 4:67
- Pour a¢ che les propriètés de X, on exécute :
> summary(X)
3. Application 53
IN V ST O CRE FPR
M in: : 18:47 M in: : 5:190 M in: : 8:42 M in: : 15:36
1stQu: : 20:19 1stQu: : 5:380 1stQu: : 16:35 1stQu: : 18:36
M edian : 24:92 M edian : 6:090 M edian : 18:37 M edian : 19:40
M ean : 24:84 M ean : 6:103 M ean : 19:05 M ean : 21:30
3rdQu: : 26:89 3rdQu: : 6:710 3rdQu: : 24:06 3rdQu: : 22:78
M ax: : 35:49 M ax: : 7:470 M ax: : 26:20 M ax: : 30:88
DET RN E
M in: : 14:45 M in: : 2:370
1stQu: : 24:84 1stQu: : 3:120
M edian : 27:06 M edian : 3:540
M ean : 25:13 M ean : 3:562
3rdQu: : 28:26 3rdQu: : 3:790
M ax: : 30:85 M ax: : 4:890
- Pour a¢ che l’image du nuage des individus et des colonne, on tape :
> plot(X)
R nous a¢ che la …gure :
3. Application 54
- scannf = si TRUE, l’histogramme des valeurs propres est représenté (il faut
alors choisir le nombre d’axes quand la question est posée par le programme).
Si FALSE, l’histogramme n’est pas représenté, et il faut alors préciser le nombre
d’axes à garder avec l’option nf ci-après.
- nf = nombre de valeurs propres à conserver dans l’analyse (par défaut =
2).
Si on tappe :
> ACP
Le logiciel R a¢ che le résultat suivant :
Duality diagramm
class : pca dudi
$call : dudi.pca(df = X, center = TRUE, scale = FALSE, scannf = FALSE,
nf = 2)
$nf : 2 axis-components saved
$rank : 4
eigen values : 75.82 31.72 0.7773 0.2212
vector length mode content
1 $cw 6 numeric column weights
2 $lw 9 numeric row weights
3 $eig 4 numeric eigen values
data.frame nrow ncol content
1 $tab 9 6 modi…ed array
2 $li 9 2 row coordinates
3 $l1 9 2 row normed scores
4 $co 6 2 column coordinates
5 $c1 6 2 column normed scores
other elements : cent norm
Les éléments clés de ce résultat :
- call : cet objet garde une trace de la façon dont ont été conduit les calculs
lors de l’appel de la fonction "dudi.pca".
- nf : cet entier donne le nombre de facteurs conservés dans l’analyse.
- rank : cet entier donne le rang (rank) de la matrice diagonaliser.
- cw : (column weight) c’est un vecteur qui donne le poids des colonnes (poids
des variables). Par défaut, chaque variable a un poids de 1.
3. Application 56
- lw : (line weight) c’est un vecteur qui donne le poids des lignes (poids des
individus). Par défaut, chaque individus a un poids de n1 .
- eig : (eig values) c’est un vecteur qui donne les valeurs propres.
- tab : le data frame tab contient les données du tableau initial aprés centrage.
- li : donne les coordonnées des individus (lignes).
- l1 : donne les coordonnées des individus (lignes), les vecteurs sont de norme
unité.
- col : donne les coordonnées des variables (colonnes).
- c1 : donne les coordonnées des variables (colonnes), les vecteurs sont de
norme unité.
- cent : (cent pour centrage) ce vecteur donne les moyennes des variables
analysées.
> ACP$eig
[1] 75:8201143 31:7238616 0:7773070 0:2212107
> cumsum(ACP$eig)
[1] 75:82011 107:54398 108:32128 108:54249
- La matrice de variance-covariance :
> C<-as.matrix(ACP$tab)
> V<-(1/9)*(t(C)%*%C)
>V
- D’aprés les résultats des valeurs propres, on remarque que l’inertie totale
est grande, cela signi…e que le nuage est trés dispersé auteur de centre de gravité.
Aussi d’aprés les résultats de la matrice variace-covariance , on remarque que
les variances des variables sont trés hétérogènes.
Alors, pour donner la même importance à toutes les variables, on retraite
les données par une analyse en composantes principales normée et on travaille
3. Application 57
avec les données aprés centrage et réduction. Pour cela on reexécute la fonction
"dudi.pca" avec le paramètre "scale=TRUE", on obtient le résultat :
> ACP<-dudi.pca(X,center=TRUE,scale=TRUE,scannf=FALSE,nf=2)
> ACP
Duality diagramm
class : pca dudi
$call : dudi.pca(df = X, center = TRUE, scale = TRUE, scannf = FALSE,
nf = 2)
$nf : 2 axis-components saved
$rank : 4
eigen values : 3.34 1.735 0.7589 0.1659
vector length mode content
1 $cw 6 numeric column weights
2 $lw 9 numeric row weights
3 $eig 4 numeric eigen values
data.frame nrow ncol content
1 $tab 9 6 modi…ed array
2 $li 9 2 row coordinates
3 $l1 9 2 row normed scores
4 $co 6 2 column coordinates
5 $c1 6 2 column normed scores
other elements : cent norm
- Alors, la matrice centrée réduite est :
> ACP$tab
- La matrice de corrélation :
> C<-as.matrix(ACP$tab)
>C
> R<-(1/9)*(t(C)%*%C)
>R
> inertiepc<-cumsum(ACP$eig/som*100)
> inertiepc
[1] 55:66621 84:58592 97:23423 100:00000
- L’histogramme des valeurs propres (l’inertie en pourcentages) :
> barplot(inertiep)
L’Axe 1 :
On utilise les résultats des coordonées des individus dans les nouveaux axes :
on compare les valeurs de la colonne Axis1 à la racine de la première valeur
p
propre 3:3399723=1.82755911, le signe donnant le sens de contribution. On
obtient :
- +
2014 2009
2015 2010
Le premier axe met donc en opposition la structure de bilan les années 2009
et 2010 aux deus années 2014 et 2015.
L’Axe 2 : On utilise les résultats des coordonées des individus dans les nou-
veaux axes : on compare les valeurs de la colonne Axis2, à la racine de la deusième
p
valeur propre 1:7351824=1.317263224, le signe donnant le sens de contribution.
On obtient :
- +
2016 2014
L’axe 2 oppose l’année 2014 à l’année 2016.
- On remarque aussi :
Suivant l’Axe 1, les années (2008, 2009, 2010, 2011) ont plus que la moyenne
de les postes (INV, FPR, CRE, DET, RNE) et les années (2013, 2014, 2015,
2016) ont moins que la moyenne de les postes (INV, FPR, CRE, DET, RNE).
Suivant l’Axe 2, les années (2009, 2011, 2012, 2013, 2014) ont plus que la
moyenne de les postes (DET, RNE) et les années (2008, 2010, 2015, 2016) ont
moins que la moyenne de les postes (DET, RNE).
b/ D’aprés les variables :
> ACP$co
Comp1 Comp2
IN V 0:8254079 0:5013737
ST O 0:5416940 0:4863493
CRE 0:8830852 0:4249946
FPR 0:8115719 0:5437368
DET 0:7175014 0:6478417
RN E 0:6418294 0:5927075
> s.corcircle(ACP$co)
3. Application 63
- +
CRE
IN V
DET
FPR
RN E
L’axe 1 oppose les postes CRE, DET et RNE aux postes INV et FPR.
Toutes les variables sont bien représentées sur l’axe excepté STO. La première
composante principale explique donc correctement tous les postes, sauf le dernier
poste (STO).
3. Application 64
- +
RN E DET
L’axe 2 oppose le poste DET au poste RNE. Les autres variables sont assez
mal représentées sur l’axe, donc assez mal expliquées par celui-ci.
On remarque que les postes STO et FPR ont une forte corrélation entre eux
(corrélées positivement), le même pour les postes CRE et RNE, les postes INV et
DET ne sont pas corrélées, le même pour les postes STO et FPR avec les postes
CRE et RNE, la poste INV est corrélée négativement avec les postes CRE et
RNE, le même pour la poste DET et les postes STO et FPR
- Alors :
L’axe 1 oppose donc les années (2009,2010) et (2014,2015), marquées par
un poids important dans la structure de leur bilan des postes INV et FPR, et
un poids faible des postes CRE, DET et RNT aux années plus récentes, qui
présentent le pro…l inverse. Pour illustrer ce résultat, nous pouvons revenir aux
données sources. En nous servant des indications du tableau initial, nous avons :
Annee DET RN E
2014 24:84 2:37
2016 14:45 4:67
M oyenne 19:645 3:52
M inimum 14:45 2:37
M aximum 24:84 4:67
Conclusion
L’interprétation de l’ACP peut être achevée par une analyse des proximités
entre points sur les plans factoriels. En e¤et, au vu des graphiques, on peut distin-
guer plusieurs groupes. Avant d’interpréter ces proximités, il s’agit de s’assurer
de la qualité de représentation des points :
Les individus sont donc tous à peu près bien représentés sur les axes. Les
variables bien représentées sont celles qui sont proches du bord du cercle des
corrélations (telles que ; en particulier les variables qui sont situées sur les axes
et de coordonnée 1).
Ici, schématiquement, trois périodes apparaissent :
- La période de 2008 à 2011 : Le bilan est alors marqué par les postes créances
(CRE), dettes (DET) et résultats net et résultats d’exercices (RNE).
- La période de l’année 2012 à l’année 2014 : Le bilan est alors marqué par
le poste dettes (DET), le poste d’investissements (INV) est peu important.
- La période de l’année 2015 à l’année 2016 : Le bilan est alors marqué par
le poste résultats net et résultats d’exercices (RNE), le poste d’investissements
(INV) est peu important.
66
Bibliographie
[1] Andrés Bouchier, L’analyse des données à l’usage des non mathématiciens
2ème Partie L’analyse en composantes principales, Janvier 2006, AGRE M-
INRA-Formation Permanente
[2] Antoine Ayache et Julien Hamonier, Cours de Statistique Descriptive
[3] Antoine Gournay, Analyse statistique multivariée, Septembre 2012, Institut
de Mathématiques Univercité de Neuchâtel
[4] Arnoud MARTIN, L’analyse de données, Septembre 2004, Polycopie de
cours ENSIETA.Réf1463
[5] C. DUBY et S. ROBIN, Analyse en Composantes Principales, 10 juillet
2006, Institut National Algonomique Paris
[6] Emmanual Duguet, Rappels de Statistiques et d’Algèbre Linéaire, Sep-
tembre 2010
[7] Emmanuel ROUX, Alfredo HERNANDEZ et Guy CARRAULT, Méthodes
d’Analyses Factorielles ACP et AFCM, Avril 2004
[8] Gilbert SAPORTA, Probabilités, analyse des données et statistique 2006
[9] Jean-Marc Labatte, Biostatistique Rappels de cours et travaux dirigés Ana-
lyse des données, 2011-2012
[10] Jean-Marc Lasgouttes, Variables quantitatives : analyse en composantes
principales
[11] M.Taleb, Paramètres de dispertion
[12] Maghlaoui DAKHMOUCHE, Introduction à la Statistique Descriptive,
Ecole Préparation en Siences Economiques Commerciale et des Siences
de Gestion de Constantine
[13] Maxime HERVE, Aide-mémoire de statistique appliquée à la biologie Rap-
pels de statistique descriptive, 2010
[14] Nicolas MEYER, Statistique descriptive, Novembre 2010, Laboratoire de
Biostatistique et Informatique Médicale Fac de Médcine de Strasbourg
[15] Pierre-Louis GONZALEZ, L’ANALYSE EN COMPOSANTES PRINCI-
PALE A.C.P
67