Vous êtes sur la page 1sur 74

Table des matières

Résumé iv

Abstract v

Introduction générale vi

1 Notions préliminaire 1
1.1 Statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Un peu de vocabilaire . . . . . . . . . . . . . . . . . . . . 1

1.1.3 Collecte de données . . . . . . . . . . . . . . . . . . . . . 2

1.1.4 Deux directions en statistique . . . . . . . . . . . . . . . . 3

1.1.5 Statistique univariée / multivariée . . . . . . . . . . . . . . 3

1.2 Espece vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2.1 Vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Multiplication par un scalaire et addition . . . . . . . . . 4

1.2.3 Vecteurs linéairement indépendants . . . . . . . . . . . . . 5

1.2.4 Sous-espace vectoriiel . . . . . . . . . . . . . . . . . . . . . 6


1.2.5 Espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . 6

1.2.6 Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.7 Distance entre deux vecteurs . . . . . . . . . . . . . . . . . 7

1.3 Application linéaire et matrices . . . . . . . . . . . . . . . . . . . 7

1.3.1 Application linéaire . . . . . . . . . . . . . . . . . . . . . . 7


1.3.2 Matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

i
TABLE DES MATIÈRES ii

1.3.3 Le produit d’une matrice et d’un vecteur . . . . . . . . . 8

1.3.4 Opérations sur les matrices . . . . . . . . . . . . . . . . . 9

1.3.5 Dérivation matricielle . . . . . . . . . . . . . . . . . . . . 11


1.4 Les valeurs propres et les vecteurs propres . . . . . . . . . . . . . 11

1.5 Paramétres de position . . . . . . . . . . . . . . . . . . . . . . . . 12

1.5.1 Moyenne arithmétique . . . . . . . . . . . . . . . . . . . . 12


1.5.2 moyenne géométrique . . . . . . . . . . . . . . . . . . . . 12
1.5.3 moyenne harmonique . . . . . . . . . . . . . . . . . . . . 12
1.5.4 médiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.5 les quartiles . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.6 le mode . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.7 les extrêmes . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Paramétres de dispersion . . . . . . . . . . . . . . . . . . . . . . 13

1.6.1 la variance . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.2 l’écart type . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.3 l’étendue ou amplitude . . . . . . . . . . . . . . . . . . . 15
1.7 Variables centrées-réduites . . . . . . . . . . . . . . . . . . . . . . 15

1.8 Paramétres de relation entre deux variables . . . . . . . . . . . . . 16

1.8.1 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.8.2 Corrélation de Bravais-Pearson . . . . . . . . . . . . . . . 18

1.8.3 Matrice de corrélation . . . . . . . . . . . . . . . . . . . . 19

1.9 La méthode de multiplication de Lagrange . . . . . . . . . . . . . 19

2 Analyse en composantes principales 21


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.2 Le problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.3 Les types des tableaux pouvent être traités par l’ACP . . . . . . . 22

2.4 Objectifs de l’ACP . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.5 Données et principes de l’ACP . . . . . . . . . . . . . . . . . . . . 23

2.5.1 Tableau de données . . . . . . . . . . . . . . . . . . . . . . 23


2.5.2 Choix d’une distance . . . . . . . . . . . . . . . . . . . . . 25
PREFACE iii

2.5.3 Les poids a¤ectés aux individus et le centre de gravité . . . 25


2.5.4 Matrice centrée . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5.5 Matrice de covariance et matrice de corrélation . . . . . . 29
2.5.6 Analyse en composantes principales normé . . . . . . . . . 31
2.6 L’inertie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.6.1 L’inertie du nuage des individus par rapport à un axe pas-
sant par G . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.6.2 L’inertie du nuage des individus par rapport à un sous-
espace vectriel S passant par G . . . . . . . . . . . . . . . 33
2.6.3 Décomposition de l’inertie totale . . . . . . . . . . . . . . 33
2.7 Eléments principaux . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.1 Axes principaux . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7.2 Composantes principales . . . . . . . . . . . . . . . . . . . 40
2.8 Etude des individus et des variables dans les nouveaux axes . . . . 41
2.8.1 Représentation graphique des individus . . . . . . . . . . . 41
2.8.2 Représentation graphique des variables . . . . . . . . . . . 42
2.8.3 Qualité de la représentation . . . . . . . . . . . . . . . . . 44
2.8.4 Interprétation des nouveaux axes . . . . . . . . . . . . . . 45
2.9 Individus et variables supplémentaires . . . . . . . . . . . . . . . . 47
2.10 Avantages et inconvénients de l’ACP . . . . . . . . . . . . . . . . 47
2.10.1 Avantages . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.10.2 Inconvénients . . . . . . . . . . . . . . . . . . . . . . . . . 48

3 Application 49
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Matériel utilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.1 Présentation des données . . . . . . . . . . . . . . . . . . . 50
3.3.2 Réalisation d’une ACP avec l’ade4 . . . . . . . . . . . . . 51

Conclusion 66
Résumé

L’analyse en Composantes Principales (ACP) est une méthode d’analyse de


données. Elle cherche à synthétiser l’information contenue dans un tableau croi-
sant des individus et des variables quantitatives. Produire un résumé d’informa-
tion au sens de l’ACP c’est établir une similarité entre les individus, chercher
des groupes d’individus homogènes, mettre en évidence une typologie d’indivi-
dus. Quant aux variables c’est mettre en évidence des bilans de liaisons entre
elles, moyennant des variables synthétiques et mettre en évidence une typologie
de variables. L’ACP cherche d’une façon générale à établir des liaisons entre ces
deux typologies. Dans ce mémoire, on exhibe la théorie mathématique de l’ACP
tout en illustrant par une application réelle traité par le logiciel R.
Mots clés : Analyse en composante principale, Analyse de données, variables
quantitatives.

iv
Abstract

Principal Component Analysis (PCA) is a method of data analysis. It seeks


to synthesize the information contained in a cross-section of individuals and
quantitative variables. Producing a summary of information within the meaning
of the ACP is to establish a similarity between individuals, to look for groups
of homogeneous individuals, to highlight a typology of individuals. As for the
variables, it is possible to demonstrate link balances between them, by means of
synthetic variables and to highlight a typology of variables. The ACP generally
seeks to establish links between these two typologies. In this dissertation, we
present the mathematical theory of the PCA while illustrating by a real appli-
cation processed by software R.
Keywords : Principal Component Analysis, Data Analysis, Quantitative Va-
riables.

v
Introduction générale

Les méthodes multifactorielles permettent d’obtenir des représentations gra-


phiques qui constituent le meilleur résumé possible de l’information contenue
dans un grand tableau de données. Pour cela, il faut consentir à une perte d’in-
formation a…n de gagner en lisibilité. En fonction des phénomènes que l’on veut
étudier et de la nature du tableau de données dont on dispose, on appliquera
telle ou telle méthode multifactorielle. En e¤et, il n’existe pas une méthode facto-
rielle d’analyse des données, mais un ensemble de méthodes, reposant toutes sur
les mêmes théories mathématiques. Ainsi, on trouvera les principales méthodes
suivantes :
-ACP : Analyse en Composantes Principales, pour les tableaux de variables
quantitatives.
-AFTD : Analyse Factorielle d’un Tableau de Distances, pour les tableaux
de distances.
-AFC : Analyse Factorielle des Correspondances, pour les tableaux de contin-
gence.
-ACM : Analyse des Correspondances Multiples, pour les tableaux de va-
riables qualitatives.
-STATIS : Structuration des Tableaux A Trois Indices de la Statistique,
AFM : Analyse Factorielle Multiple, DACP : Double Analyse en Composante
Principale, sont quelques méthodes basées sur les précédentes et adaptées à
l’étude de phénomènes temporels ou de répétition.
-La liste n’est pas exhaustive.
Ces méthodes reposent toutes sur les mêmes notions théoriques, mais chacune
produit un genre de résumé spéci…que et s’applique sur un types de donnée précis.
C’est pourquoi on devra choisir la méthode la plus adaptée au type d’information
que l’on possède et aux phénomènes qu’on veut étudier.
L’ACP fait en réalité partie d’un ensemble de méthodes d’analyse de données,
appelées méthodes multifactorielles. De façon générale, celles-ci ont pour but
de résumer de la façon la plus …dèle possible un grand ensemble de données,
c’est-à-dire d’observations di¤érentes (les variables) pour chaque membre d’une
importante population d’étude (les individus). Ce résumé engendre toujours une
perte d’information, mais c’est au pro…t des informations les plus pertinentes et
de la lisibilité, donc de la meilleure interprétation.

vi
0. Introduction générale vii

Ce mémoire est constitué de trois chapitres.


Chapitre I :Dans ce premier chapitre nous présentons les outils mathéma-
tiques nécessaires qui seront utilisés lors de tout le mémoire, à savoir l’algèbre
linéaire et la statistique descriptive multidimensionnelle.
Chapitre II : ce chapitre présente la méthode théorique de l’analyse en com-
posante principale.
Chapitre III : ce chapitre est consacré essentiellement à une application réelle
avec des données réelles (rapporter directement de l’Entreprise Nationale des
Travaux aux Puits notée ENTP de Hassi-Messaoud, wilaya de Ouargla), L’ACP
a été réalisé en utilisant le logiciel R.
Chapitre 1

Notions préliminaire

1.1 Statistique

1.1.1 Généralités
“La Statistique”: est une méthode d’analyse des ensembles comportant un
grand nombre d’éléments. C’est une science qui permet de traiter et d’analyser
les résultats des mesures e¤ectuées sur les individus d’une population relati-
vement à un certain nombre de caractères. Les résultats des mesures sont, en
général, appelés observations. Pour extraire l’information contenue dans ces ob-
servations il est nécessaire d’utiliser un certain nombre d’opérations logiques qui
caractérisent les méthodes statistiques. Les éléments soumis à l’analyse doivent
appartenir à un ensemble homogène et être délimités avec précision. Par la suite,
ces éléments sont ordonnés et classés relativement à leurs mesures.
Pour être e¢ cace, les méthodes statistiques doivent formaliser simplement le
problème posé en utilisant des concepts mathématiques abstraits.
Par exemple, tous les éléments classés dans le même sous- groupe sont consi-
dérés comme équivalents.

1.1.2 Un peu de vocabilaire

- Population : On appelle population l’ensemble des unités statistiques ou


individus étudiés par le statisticien.

1
1. Notions préliminaire 2

Par exemple, les étudiants d’une classe, les contribuables français, les ménages
lillois ...
- Les éléments de la population sont appelés les individus ou unités statis-
tiques.
X Individu : élément de la population étudiée.
X Variable : propriété commune aux individus de la population, que l’on
souhaite étudier. Elle peut être :
- qualitative : lorsque les modalités (ou les valeurs) qu’elle prend sont dé-
signées par des noms. Par exemples, les modalités de la variable Sexe sont :
Masculin et Féminin ; .
- quantitative (numérique) : lorsqu’elle est mesurée par un nombre (les Notes
des Etudiants à l’Examen de Statistique, le Chi¤re d’A¤aire par PME, le Nombre
d’Enfants par Mé-nage, ...), le poids, le volume. On distingue encore les variables.
- continues : toutes les valeurs d’un intervalle de R sont acceptables.
Par exemple : le chi¤re d’a¤aire par PME peut être 29000,1e, 29000, 12e,
..., même si dans la pratique il faut l’arrondir
- discrétes : seul un nombre discret de valeurs sont possibles.
Par exemple : le nombre d’espéces ressencées sur une parcelle.
Les valeurs observées pour les variables s’appellent les données.
–Echantillon : partie étudiée de la population.

1.1.3 Collecte de données

La collecte de données (obtention de l’échantillon) est une étape clée, et


délicate. Nous ne traitons pas ici des méthodes possibles, mais attirons l’attention
sur le fait suivant :

Hypothése sous-jacente en statistique : l’échantillon d’individus étudié est


choisi au hasard parmi tous les individus qui auraient pu être choisi.
=) Tout mettre en oeuvre pour que ceci soit véri…é.

1.1.4 Deux directions en statistique


1. Notions préliminaire 3

Statistique descriptive

Elle a pour but de décrire, c’est-à-dire de résumer ou représenter, par des


statistiques, les données disponibles quand elles sont nombreuses.
- Questions typiques :
1. Représentation graphique.
2. Paramétres de position, de dispersion, de relation.
3. Questions liées à des grands jeux de données.

Statistique inférentielle

Les données ne sont pas considérées comme une information compléte, mais
une information partielle d’une population in…nie. Il est alors naturel de sup-
poser que les données sont des réalisations de variables aléatoires, qui ont une
certaine loi de probabilité. Nécessite outils mathématiques plus pointus (théorie
des probabilités).
- Questions typiques :
1. Estimation de paramétres.
2. Intervalles de con…ance.
3. Tests d’hypothése.
4. Modélisation : exemple (régression linéaire).

1.1.5 Statistique univariée / multivariée

-Lorsque l’on observe une seule variable pour les individus de la population,
on parle de statistique univariée, et de statistique multivariée lorsqu’on en ob-
serve au moins deux.
-La statistique descriptive multivariée ,en général ,est un domaine trés vaste.
La premiére étape consiste à étudier la représentation graphique, et la description
des paramétres de position, de dispersion et de relation. Ensuite, les méthodes
principales se séparent en deux groupes.
1- Les méthodes factorielles
Cherchent à réduire le nombre de variables en les résumant par un petit
nombre de variables synthétiques. Selon que l’on travaille avec des va-
1. Notions préliminaire 4

riables quantitatives ou qualitatives, on utilisera l’analyse en composantes prin-


cipales, ou l’analyse de correspondance. Les liens entre deux groupes de variables
peuvent être traités grâce à l’analyse canonique.
2- Les méthodes de classi…cation
Vise à réduire le nombre d’individus en formant des groupes homogénes.

1.2 Espece vectoriel

1.2.1 Vecteur
Un élément de Rn est une suite ordonnée de n éléments de R. On peut disposer
cette suite, appelée vecteur soit en ligne, soit en colonne.
2 3
3
6 7
Exemple 1 le vecteur a = [3; 0], est un vecteur ligne et le vecteur b = 4 2 5
0
est un vecteur colonne.

La transposition transforme un vecteur ligne en vecteur colonne et récipro-


quement.

1.2.2 Multiplication par un scalaire et addition

On peut multiplier un vecteur par un scalaire, soit un scalaire c 2 R et un


vecteur colonne a de Rn ,alors
2 3 2 3
a1 ca1
6 . 7 6 .. 7
c a=c 6 .. 7 = 6 . 7
4 5 4 5
an can

Deux vecteurs lignes (ou deux vecteurs colonnes) peuvent s’additionner s’ils
sont de même dimension, soit a et b deux vecteurs de Rn
2
3 2 3 2 3
a1 b1 a1 + b 1
6 . 7 6 .. 7 6 .. 7
a+b=6 . 7 6
4 . 5+4 . 7 6
5=4 . 7
5
an bn an + b n
1. Notions préliminaire 5

En utilisant la multiplication par un scalaire et l’addition, on peut dé…nir


une combinaison linéaire de deux vecteur a et b :
2 3 2 3 2 3
a1 b1 c 1 a1 + c 2 b 1
6 . 7 6 7 6
.. 7 6 .. 7
c1 a + c2 b = c1 6 .. 7 + c2 6 . 5=4 . 7
4 5 4 5
an bn c 1 an + c 2 b n

Ou c1 , c2 2 R.

De…nition 2 : soit K un corps commutatif d’élément unité noté 1. On nomme


espace vectoriel K, sur un ensemble E muni d’une loi de composition interne
(+)conférant à E la structure de groupe commutatif ou abélien, et d’une seconde
loi dite externe, application de E K dans E notée ( ), aussi appelée multipli-
cation, faisant intervenir les éléments de K , appelés scalaires.

- Cette loi externe doit véri…er les axiomes suivants : x, y 2 E ; a,b 2 K


désignant des scalaires :
1. a (x + y) = a x+a y (distributivite)
2. (a + b) x=a x+b x (distributivite)
3. a (b x) = ab x (associativite)
4. 1 x=x
- Si on prend K = R, on véri…e que Rn doté de la loi interne (+) et de la loi
externe ( ) est un espace vectoriel.

1.2.3 Vecteurs linéairement indépendants

De…nition 3 : Les vecteurs u1 ,. . . ,uj , . . . , uJ sont dit linéairement indépen-


dants, si :

a1 u 1 + a2 u 2 + aJ u J = 0

implique que a1 = a 2 = : : : = aj = 0
1. Notions préliminaire 6

1.2.4 Sous-espace vectoriiel


De…nition 4 : Un sous-ensemble non-vide V de Rn est un sous-espace vecto-
riel, si pour tous u et v 2 V :

1. u + v 2 V
2. au 2 V , pour tout a 2 R

Dimension d’un sous espase vectoriel

De…nition 5 : La dimension d’un sous-espace vectoriel est le plus petit nombre


de vecteurs su¢ sants pour l’engendrer.

Cette dimension correspond en particulier au nombre de vecteurs constituant


une base quelconque de V .

1.2.5 Espace euclidien

Produit scalaire

On dé…nit la multiplication d’un vecteur ligne a par un vecteur colonne b


comme le résultat scalaire :
2 3
b1
6 . 7 X n
a b = [a1 ; : : : ; an ] 6 .. 7 = ai bi:
4 5
i=1
bn

Le produit scalaire de deux vecteurs colonnes a et b de même dimension est


notéha; bi et est dé…ni par :
2 3
b1
6 . 7 X n
0
ha; bi = a b = [a1 ; : : : ; an ] 6 .. 7 = ai bi:
4 5
i=1
bn

De…nition 6 : Un espace euclidien est un espace vectoriel muni d’un produit


scalaire.
1. Notions préliminaire 7

1.2.6 Norme

De…nition 7 : La norme (ou longueur) d’un vecteur colonne u est :

p
kuk = (u; u)

Vecteur de norme égale à 1 est dit normé.

1.2.7 Distance entre deux vecteurs

De…nition 8 : La distance entre les vecteurs u et v de Rn est dé…nie par :

v
u n
uX
d (u; v) = ku vk = t (ui vi )2
i=1

De…nition 9 : La projection d’un vecteur u sur un vecteur v est dé…nie par :

hu; viv
Pv (u) =
kvk2

1.3 Application linéaire et matrices

1.3.1 Application linéaire


une appliation f( ) de RJ dans RI est dite linéaire si pour tous u et v de RJ
et tout a 2 R :
1. f (u + v) = f (u) + f (v)
2. f (au) = af (u)
1. Notions préliminaire 8

1.3.2 Matrice
une matrice est un tableau de nombres, par exemple :
2 3
a11 : : : a1j : : : a1p
6 . .. .. 7
6 .. . . 7
6 7
6 7
A = 6 ai1 : : : aij : : : aip 7
6 . .. .. 7
6 .. . . 7
4 5
an1 : : : anj : : : anp

est une matrice de n lignes et de p colonnes.


Exemple 10 : n = 3, p = 4
2 3
3 4 8 2
6 7
X = 42 6 1 15
1 1 0 5
(X)22 = X22 = 6
(X)13 = X13 = 8
- En statistique, on manipule souvent des matrices. Par convention, les lignes
représentent souvent les unités statistiques,et les colonnes des variables. Comme
les vecteurs, les matrices peuvent être multipliées par un scalaire. On peut éga-
lement additionner deux matires à condition qu’elles aient le même nombre des
lignes et de colonnes.sous cette même condition, on peut aussi dé…nir une com-
binaison linéaire de deux matrices.

1.3.3 Le produit d’une matrice et d’un vecteur

Soient une matrice A de dimension n p et un vecteur colonne u de dimension


p le produit Au est donné par :
2 3
P
p
2 3 2 3 6 a1j uj 7
a11 : : : a1j : : : a1p u1 6 j=1 7
6 . .. 7 6 . 7 6 .. 7
6 .. ..
. . 7 6 .. 7 6 6 . 7
7
6 7 6 7 6 P p 7
6 7 6 7
Au = 6 ai1 : : : aij : : : aip 7 6 uj 7 = 6 aij uj 7
6 . .. 7 6 . 7 6 7
6 .. ..
. 7 6 .. 7 6 j=1 7
4 . 5 4 5 6 6
..
.
7
7
an1 : : : anj : : : anp up 6 p 7
4 P 5
anj uj
j=1
1. Notions préliminaire 9

- Le produit d’un vecteur par une matrice est la représentation d’une appli-
cation linéaire dans la base Canonique.
- La transposée de la matrice X, notée X t , est obtenue à partir de X en
interchangeant les lignes et les colonnes. C’est à dire, (X t )ij = xji .
Remarquer que si X est une matrice de taille n p, alors X t est une matrice
de taille p n:

Exemple 11 : Reprenant l’exemple ci-dessus, on a :


2 3
3 2 1
6 7
64 6 17
Xt = 668 1
7
4 07
5
2 1 5
- Un vecteur colonne X est une matrice avec une seule colonne.

Exemple 12 :
2 3
1
6 7
X = 4 1:5 5
1

Un vecteur ligne X t est une matrice avec une seule ligne. Remarquer que la
notation souligne le fait que c’est la transposée d’un vecteur colonne.

Exemple 13 :
h i
X t = 1 1:5 1

1.3.4 Opérations sur les matrices

Voici les opérations élémentaires dé…nies sur les matrices :


Addition : Soient X et Y deux matrices de même taille, de tailles n p.
Alors la matrice X + Y est de taille n p, et a pour coe¢ cients :

(X + Y )ij = xij + yij

Exemple 14 :
1. Notions préliminaire 10

2 3 2 3
3 2 1 2 1 0
6 7 6 7
64 6 17 63 1 27
X=6
68
7 et : Y =6 7
4 1 07
5
64
4 5 47
5
2 1 5 1 2 3
2 3
5 3 1
6 7
6 7 7 37
6
X +Y =6 7
7
412 6 45
3 3 8
Multiplication par un scalaire : Soit X une matrice de taille n p, et un
nombre réel (aussi appelé scalaire), alors la matrice X est de taille n p, et a
pour coe¢ cients :

Exemple 15
( X)ij = xij

Exemple 16 : 2 3
3 2 1
6 7
64 6 17
X=6
68
7 et : =2
4 1 07
5
2 1 5
2 3
6 4 2
6 7
6 8 12 2 7
6
2X = 6 7
16 2 0 7
4 5
4 2 10
Multiplication de matrices : Soit X une matrice de taille n p, et Y
une matrice de taille p q, alors la matrice XY est de taille n q, et a pour
coe¢ cients : p
X
(XY )ij = xik ykj
k=1

Exemple 17 : 2 3
" # 3 1
3 2 1 6 7
X= et : Y = 44 15
4 6 1
2 1
1. Notions préliminaire 11

" #
19 6
XY =
38 11
La transposée véri…e les propriétés suivantes :
1. (X + Y )t = X t + Y t
2. (XY )t = X t Y t

1.3.5 Dérivation matricielle


Soit A 2 Mnp et X 2 Mp1 où : Mnp est une notation concerne la matrice de
taille n p et Mnp concerne la matrice de taille p 1;alors :

@
AX = A0
@X
Si A est symétrique (et donc n = p)

@ 0
X AX = 2AX
@X

1.4 Les valeurs propres et les vecteurs propres

De…nition 18 : (valeur propre)


Soit A une matrice carrée, alors est un valeur propre de A si et seulement
si il existe un vecteur non nul x tel que :

Ax = x

Théorème 19 : Soit A une matrice carrée alors est valeur propre de A si et


seulement si det (A I) = 0
!
Preuve. En e¤et Ax = x () (A I) x = 0
Dons pour qu’il existe x non nul solution de Ax = x il faut et il su¢ t
! !
qu’il existe une autre solution que 0 au systéme (A I) x = 0 et donc le
déterminant det (A I) soit nul

De…nition 20 : (valeur propre)


Soit A une matrice carrée et est valeur propre de A. Alors tout vecteur x
non nul tel que Ax = x est un vecteur propre associeé à la valeur propre :
1. Notions préliminaire 12

1.5 Paramétres de position

Les paramétres de position, aussi appelés valeurs centrales, servent à carac-


tériser l’ordre de grandeur des données.
´

1.5.1 Moyenne arithmétique


Elle est plus souvent appelée moyenne, et est en général notée x , elle est
calculée en utilisant la formule :

1X
n
x= xi
n i=1

1.5.2 moyenne géométrique


La moyenne géométrique (xg ) est toujours inférieure (ou égale) à la moyenne
arithmétique. Elle est donnée par :
" # n1
Y
n
xg = xi
i=1

1.5.3 moyenne harmonique


La moyenne harmonique (xh ) est toujours inférieure (ou égale) à la moyenne
géométrique, elle est en général utilisée pour calculer des moyennes sur des in-
tervalles de temps qui séparent des événements. Elle est donnée par :

n
xh =
X
n
1
xi
i=1

1.5.4 médiane
La médiane x e est la valeur telle que la moitiée des observations lui sont
supérieures (ou égales) et la moitié inférieures (ou égales). Il est clair que la
médiane existe pour toutes les distributions (ce qui n’est pas le cas de la moyenne)
de plus, elle est peu sensible aux valeurs extrêmes.
1. Notions préliminaire 13

Lorsque le nombre d’observations est pair, la médiane n’est pas dé…nie de


façon unique. La valeur usuellement retenue est la moyenne des observations de
rang n2 et de rang n2 + 1:

1.5.5 les quartiles


Les quartiles sont au nombre de trois. La médiane est le deuxiéme.Le premier
quartile q1 est la valeur telle que 75% des observations lui sont supérieures (ou
égales) et 25% inférieures (ou égales).
Lorsqu’il n’est pas dé…ni de façon unique, on utilise généralement la moyenne
des observations qui l’encadrent pour le calculer.
Le troisiéme quartile q3 est la valeur telle que 25% des observations lui sont
supérieures (ou égales) et 75% inférieures (ou égales).
Lorsqu’il n’est pas dé…ni de façon unique, on utilise la moyenne des observa-
tions qui l’encadrent pour le calculer.

1.5.6 le mode
est la (ou les) valeur(s) pour laquelle les e¤ectifs sont maximums, il est en
général assez di¢ cile de l’évaluer (quand il existe) sur des échantillons de petite
taille.

1.5.7 les extrêmes


Ce sont les minimum et maximum de l’échantillon .
La moyenne n’est pas toujours le meilleur indice pour d’écrire la position des
données, tout dépend de la forme de la distribution.
En e¤et, pour des distributions non symétriques ou multimodales,il est sou-
vent préférables de donner les percentiles qui sont plus facile à interpréter.

1.6 Paramétres de dispersion

Ces paramétres (comme leur nom l’indique) mesurent la dispersion des don-
nées. La moyenne ne donne qu’une information partielle. En e¤et, il est aussi
important de pouvoir mesurer combien ces données sont dispersées autour de la
moyenne. Il existe plusieurs maniéres de mesurer la dispersion des donnée.
1. Notions préliminaire 14

1.6.1 la variance
On considére les données xj de la j eme variable, l’idée est de calculer la
somme, pour chacune des données de cette variable, des distances à la moyenne,
et de diviser par le nombre de données. Une premiére idée serait de calculer :

1X
n
1
(xij xj ) = [(x1j xj ) + : : : + (xnj xj )] :
n i=1 n
mais dans ce cas là, il y a des signes + et qui se compensent et faussent
l’information.
alors qu’il y a une certaine dispersion autour de la moyenne. Pour palier
à la compensation des signes, il faut rendre toutes les quantités que l’on somme
de même signe, disons positif. Une idée est de prendre la valeur absolue, et on
obtient alors l’écart à la moyenne. Une autre maniére de procéder est de prendre
les carrés, on obtient alors la variance :

1X
n
1
V ar (xj ) = (xij xj )2 = (x1j xj )2 + : : : + (xnj xj )2
n i=1 n

1.6.2 l’écart type


est la racine carrée de la variance.est la racine carrée de la variance. l’écart-
type est noté (Xj ) et on dé…nit par:
v
q u n
u1 X
(xj ) = V ar (Xj ) = t (xij xj )2 :
n i=1

Notation matricielle
La variance s’écrit naturellement comme la norme d’un vecteur. Cette inter-
prétation géométrique est utile pour la suite.
On dé…nit la matrice des moyennes arithmétiques, notée X par :
2 3
x1 : : : xp
6. . 7
X=6 . . . ... 7
4. 5
x1 : : : xp
1. Notions préliminaire 15

alors la matrice X X est :


2 3
x11 x1 : : : x1P xP
6 .. .. .. 7
X X=6
4 . . . 7
5
xn1 x1 : : : xnp xp

Et donc la variance des données xj de la j eme variable est égale à n1 fois


le produit scalaire de la j eme colonne avec elle même ; autrement dit à n1 fois la
norme au carré du vecteur donné par la j eme colonne. Mathématiquement, on
écrit ceci ainsi :

1 1 1 2
V ar(Xj ) = < (X X)j ; (X X)j >= ((X X)j )t (X X)j = (X X)j
n n n

1.6.3 l’étendue ou amplitude


est dé…nie comme la di¤érence entre la maximum et le minimum. Soit xj
les données de la j eme variable. L’étendue est notée wj ,
Mathématiquement, on dé…nit :

xmax
j = max xij
i2f1;:::;ng

xmax
j = min xij
i2f1;:::;ng

wj = Xjmax Xjmin

1.7 Variables centrées-réduites

Les données d’une variable sont dites centrées si on leur soustrait leur moyenne.
Elles sont dites centrées réduites si elles sont centrées et divisées par leur écart-
type. Les données d’une variable centrées réduites sont utiles car elles n’ont plus
d’unité, et des données de variables di¤érentes deviennent ainsi comparables.
1. Notions préliminaire 16

Si X est la matrice des données, on notera Xcr la matrice des données centres
réduites.
Par dé…nition, on a :
xij xj
(Xcr )ij = (xcr )ij =
(xj )

Remarque 21 : que si (xj ) est nul la quantité ci-dessus n’est pas bien dé…nie.

Mais dans ce cas, on a aussi xij xj = 0 pour tout i, de sorte que l’on pose
(xcr )ij = 0

1.8 Paramétres de relation entre deux variables

Aprés la description uni-dimensionnelle de la matrice des données, on s’inté-


resse à la liaison qu’il existe entre les données des di¤érentes variables. Nous les
comparons deux à deux.
Rappelons le contexte général. Nous avons les données X1 ; : : : ; XP de p
variables observées sur n individus.

1.8.1 Covariance

Pour tout i et j compris entre 1 et p, on dé…nit la covariance entre les données


Xi et Xj des ieme et j eme variables, notée Cov(X(i); X(j))
par :

1 1
Cov(X(i); X(j)) = < (X X)(i); (X X)(j) >= < ((X X)(i))t ; (X X)(j) >
n n

Théorème 22 : (K o•ning Huygens)La covariance est égale à :

1
Cov(Xi ; Xj ) = < Xi ; Xj > Xi Xj
n
1. Notions préliminaire 17

Par dé…nition de la matriceX; nous avonsXi = Xi 1, oùXi est la moyenne


des données de la ieme variable, et 1 est le vecteur de taille n 1, formé de 1.
Utilisant la bilinéarité du produit scalaire, nous obtenons :

1
Cov(Xi ; Xj ) = Xi Xi ; Xj Xj
n
1
= Xi Xi 1; Xj Xj 1
n
1
= hXi ; Xj i Xi 1; Xj Xj hXi ; 1i + Xi Xj h1; 1i
n
1
= hXi ; Xj i nXi Xj nXj Xi + nXi Xj
n
(car h1; Xj i = nXj ; hXi ; 1i = nXi et h1; 1i = n)
1
= ( hXi ; Xj i) Xi Xj
n

1. Cov(Xi ; Xj ) = n1 ((X X)t (X X))ij c’est à dire : Cov(Xi ; Xj ) est le


coe¢ cient (i; j)de la matrice n1 (X X)t (X X)
2. Cov(Xi ; Xi ) = V ar(Xi )
3. La covariance est symétrique, i.e. : Cov(Xi ; Xj ) = Cov(Xj ; Xi )
4. Dans le cas de la variance, le Théoréme de Köning-Huygens s’écrit :

1 2
V ar(Xi ) = ( kXj k2 ) Xj
n
Matrice de covariance :
Les variances et covariances sont naturellement répertoriées dans la matrice
de covariance des données X, de taille p p, notéeV (X) = V , dé…nie par :

1 t
V (X) = (X X) (X X)
n
De sorte que l’on a

Cov(Xi ; Xi ) = V ar(X)ii
Remarquer que les coe¢ cients sur la diagonale de la matriceV (X) donnent
les variances.
La variabilité totale de la matrice des données X; est par dé…nition :
1. Notions préliminaire 18

p
X
T r(V (X)) = V ar(X(i))
i=1

Cette quantité est importante car elle donne en quelque sorte la quantité
d’information qui est contenue dans la matrice X: Elle joue un rôle clé dans
l’ACP:

1.8.2 Corrélation de Bravais-Pearson

La corrélation de Bravais-Pearson entre les données X(i) et X(j) des ieme et


j eme variables, notée r(X(i) ; X(j) ); est par dé…nition :

D E
Cov(Xi ; Xj ) (X X)i ; (X X)j
r(Xi ; Xj ) = =
(Xi ) (Xj ) (X X)i : (X X)j
= cos((X X)i ; (X X)j )

Proposition 23 : La corrélation de Bravais-Pearson satisfait les propriétés :


1. r(Xi ; Xj ) = 1
2. jr(Xi ; Xj )j 1
3. jr(Xi ; Xj )j = 1, si et seulement si il existe un nombre a 2 R, tel que

(X X)j = a(X X)i


Pour le point 1, il su¢ t d’écrire :
D E 2
(X X)i ; (X X)i (X X)i
r(Xi ; Xj ) = = 2 =1
(X X)i : (X X)i (X X)i
Le point 2 est une conséquence du fait que la corrélation est un cosinus. De
plus le cosinus de l’angle formé par deux vecteurs vaut 1 en valeur absolue, si et
seulement si ces deux vecteurs sont colinéaires, ce qui est exactement la condition
donnée au point 3.
Conséquences :
1. Notions préliminaire 19

1 Le Point 3 s’écrit en composantes :

X1j Xj = a(X1i Xi ); . . . ; (Xnj Xj ) = a(Xnj Xi )

ainsi jr(Xi ; Xj )j = 1, si et seulement si il y a une dépendance linéaire entre


les données Xi et Xj des ieme et j eme variables.
2 Si la corrélation est proche de 1, cela implique une relation linéaire entre
les données, mais pas forcément une causalité. Ces deux phénoménes peuvent
être reliés entre eux par une troisiéme variable, non mesurée qui est la cause des
deux.
Par exemple, le nombre de coups de soleil observés dans une station balnéaire
peut être fortement corrélé au nombre de lunettes de soleil vendues ; mais aucun
des deux phénoménes n’est la cause de l’autre.
3 Si la corrélation est proche de 0, cela ne signi…e pas qu’il n’y a pas de
relation entre les données des variables, cela veut seulement dire qu’il n’y a pas
de relation linéaire. Elle pourrait par exemple être quadratique, ou autre.

1.8.3 Matrice de corrélation

De maniére analogue à la matrice de covariance, on dé…nit la matrice de


corrélation, de taille p p, notée R (X) = R, par :

(R(X))ij = r(Xi ; Xj )

Remarquer que les éléments diagonaux de cette matrice sont tous égaux à 1.

1.9 La méthode de multiplication de Lagrange


Le multiplicateur de Lagrange est une méthode permettant de trouver les
points stationnaires (maximum, minimum...) d’une fonction dérivable d’une ou
plusieurs variables, sous contraintes. Visuellement, la méthode des multiplica-
teurs de Lagrange permet de trouver un optimum, sur la …gure ci-dessous le
point le plus élevé possible, tout en satisfaisant une contrainte, sur la …gure un
point de la ligne rouge. Le théorème clé se conçoit aisément dans un exemple de
1. Notions préliminaire 20

dimension 2. Le point recherché est celui où la courbe rouge ni ne monte ni ne


descend.

Figure 1 : Multiplicateur de Lagrange

Formellement, on note comme suit l’écriture du Lagrangien :

L(x; ) = (x) + (x)

avec x les variables de contrôle …gurant dans la fonction à maximiser ou de


minimiser, (x) est la fonction à optimiser, le multiplicateur de Lagrange et
(x) la contrainte du programme d’optimisation.
Chapitre 2

Analyse en composantes
principales

2.1 Introduction

L’analyse en composantes principales notée ACP, est une méthode descriptive


à cause de représenter sous forme graphique l’essentiel de l’information contenue
de données quantitatives .
L’objectif est ici de faire une synthèse de l’ensemble du tableau a…n de :
- Synthétiser les liaisons entre variables (cercle de corrélation), dé…nir les
variables qui sont dans le même sens, dans un sens opposé, indépendantes ...
- Représenter dans un plan les individus a…n de déterminer les individus
proches ou éloignés, les regrouper en classe homogène..., on parle de topologie
des individus.
- Construire de nouvelles variables, appelées composantes principales, non
corrélées et qui permettent de synthétiser l’information.
Ainsi, au lieu d’analyser le tableau à travers de p variables, on se limitera
à l’étude de quelques variables synthétiques, les composantes principales. La
di¢ cultée sera de donner un sens à ces variables et de propose une analyse de
résultats.

2.2 Le problème

21
2. Analyse en composantes principales 22

Il s’agit de synthétiser les données contenus dans le tableau X, pour cela on


construit un petit nombre de variables, c1 ; c2 ; : : : appelées compsantes principales.
Permettant de saisir l’essentiel du tableau X:
Ainsi, on détermine une variable synthétique c1 la première composante prin-
cipale combinaison linéaire des variables Xj , cette première composante prin-
cipale ne su¢ t généralement par résumer de façon satisfaisante les données du
tableau X: Aussi, on construit une deuxième composante principale. Puis une
troisième. . .

2.3 Les types des tableaux pouvent être traités

par l’ACP
L’ACP s’applique à des tableaux à deux dimensions croisant des individus
et des variables quantitatives ou pouvant être considérées comme telles. Selon
la nature de ces variables, on distingue trois grandes catégories de tableaux qui
peuvent être traités par l’ACP, ce sont :
- Les tableaux de mesures :
Les variables sont obtenues à partir de comptages ou de recensement, ces
variables continues ou entières sont quantitatives.
- Les tableaux de notes :
Les variables sont obtenues à partir de notations. Les notes sont des variables
qualitatives ordinales qui peuvent être généralement assimilées à des variables
quantitatives.
- Les tableaux des rangs :
Les variables sont des rangs, les n individus sont classés de 1 à n, du meilleur
au plus mauvais, du plus rapide au plus lente, etc.

2.4 Objectifs de l’ACP

Il existe plusieurs approches di¤érentes de l’ACP, mais toutes s’accordent sur


les conditions de son application et son objectif général.
Cette méthode s’applique aux ensembles de données quantitatives d’au moins
deux variables. Puisqu’il s’agit d’une méthode d’analyse de données multifacto-
2. Analyse en composantes principales 23

rielle, ce but est de résumer l’information extraite de cet ensemble de données.


Ceci se fait par la construction des outils simples et lisibles de représentation des
informations traitées, permettant de faire ressortire entre des données brutes les
éventuels liens existent entre les variables (en terme de corrélation).
- Donner des indications sur la nature, la force et la pertinence de ces liens,
a…n de faciliter leur interprétation et découvrir quelles sont les tendances domi-
nantes de l’ensemble de données.
- Réduire e¢ cacement le nombre de dimensions étudiées (et ainsi simpli…er
l’analyse), en cherchant à exprimer le plus …dèlement possible l’ensemble original
de données gràce aux relations détectées entre les variables.

2.5 Données et principes de l’ACP

2.5.1 Tableau de données


Les observations de p variables sur n individus sont rassemblées en un tableau
rectangulaire X a n lignes et p colonnes où les lignes représentent les individus
pour i = 1; : : : ; n et les clonnes sont des variables pour j = 1; : : : ; p , alors le
tableau est donné par :

v1 v2 vj vp
2 3
u1 x11 x12 x1j x1p
6 7
u2 6 x21 x22 x2j x2p 7
.. 6 . .. .. .. 7
. 6 .. . . . 7
6 7
X= 6 7
ui 6 xi1 xi2 xij xip 7
6 7
.. 6 .. .. .. .. 7
. 4 . . . . 5
un xn1 xn2 xnj xnp
on note xij la valeur de la variable vj pour le i-éme individus.
Chaque individus est représenter par le vecteur de ces mesures sur les va-
riables :

0
h i
ui = uti = xi1 xi2 xij xip
ce qui implique :
2. Analyse en composantes principales 24

2 3
xi1
6 7
6 xi2 7
6 .. 7
6 . 7
6 7
ui = 6 7
6 xij 7
6 7
6 .. 7
4 . 5
xip
L’espace des individus est Rp , alors chaque individus est représenté dans un
espace a¢ ne d’un origine O (0; 0; : : : ; 0) par un point de p coordonnées, l’en-
semble des points qui représentent les unités est appelé “nuage des individus”.
Et de même, chaque variable est représenter par le vecteur :
2 3
x1j
6 7
6 x2j 7
6 . 7
6 .. 7
6 7
vj = 6 7
6 xij 7
6 7
6 .. 7
4 . 5
xnj
L’espace des individus est Rn , alors chaque variables est représenté dans un
espace a¢ ne d’un origine O (0; 0; : : : ; 0) par un point de n coordonnées, l’en-
semble des points qui représentent les variables est appelé “nuage des variables”.

Figure 2 : Le nuage des individus et le nuage des variables


2. Analyse en composantes principales 25

2.5.2 Choix d’une distance

A…n de pouvoir considérer la stricture du nuage des individus, on peut mesu-


rer la distance entre deux individus à l’aide d’une distance classique entre deux
points donnée par :

p
X
2
d (ui ; ui0 ) = (xij xi0 j )2
j=1

= kui ; ui0 k2

avec cette distance, toutes les variables jouent le même rôle et les axes dé…nis
par les variables constituent une base orthogonale.
On associe un produit scalaire entre deux vecteurs :
p
X
!; ou!0 i =
hou xij xi0 j = uti ui0
i i
j=1

et la norme d’un vecteur :


p
X
!k2 =
kou x2ij = uti ui
i
j=1

on peut dé…nir l’angle entre deux vecteurs par son cosinus :

P
p

!; ou!0 i xij xi0 j


hou i i j=1 uti ui0
cos ( ) = ! = s = p
koui k kou! i0 k Pp Pp (uti ui ) (uti0 ui0 )
x2ij x2i0 j
j=1 j=1

2.5.3 Les poids a¤ectés aux individus et le centre de gra-

vité
Si les données ont étés recueleillies à la suite d’un tirage aléatroire à proba-
bilités égales, les n individus ont tous même importance n1 , dans le calcul des
caractéristiques de l’échantillon. Il n’en pas toujours ainsi et il est utile pour cer-
taines applications de travailler avec des poids pi éventuellement di¤érents d’un
individus à l’autre.
2. Analyse en composantes principales 26

Ces poids, qui sont des nombres positifs de somme 1, sont regroupés dans
une matrice diagonale Dp de taille n.
2 3
p1 0
6 7
6 p2 7
6 7
6 7
6 7
Dp = 6 ... 7
6 7
6 7
6 7
4 5
0 pn
dans le cas le plus usuel de poids égaux, on a :
1
Dp = In
n
Ces poids intervient dans le calcul de la moyenne de chaque variable qui est
dé…ni par :

Xn
xj = pi xij
i=1

c’est la moyenne théorique d’un individus :

1X
n
xj = xij
n i=1

ainsi pour la variance :

Xn
var (xj ) = Sx2j = pi (xij xj )2
i=1

oubien :

1X
Sx2j = (xij xj )2
n i=1
aussi le coe¢ cient de corrélation :

cov (j; k) X
n
xij xj xik xk
r (j; k) = p = pi
var (j) var (k) i=1
S xj S xk
Le point O (0; 0; : : : ; 0) correspondant au vecteur de coordonnés toutes nulles,
est l’origine du repère usuel. La dé¢ cultée est si les coordonnées des points du
2. Analyse en composantes principales 27

nuage des individus sont grandes, le nuage est éloigné de cette origine. La solution
est de choisir une origine liée au nuage lui-même, c’est le centre de gravité dé…nie
par :

G = X t Dp 1n

tel que 1n est un vecteur de Rn et toute les composantes sont égale 1.

G = X t Dp 1n
2 32 32 3
x11 x21 xi1 xn1 1
n
0 1
6 76 1 76 7
6x12 x22 xi2 xn2 7 6 7 617
6 . .. .. .. 7 6 n 76 7
6 .. . . . 7 6 76 7
6 76 76 7
= 6 76 .. 7 6.7
6x1j x2j xij xnj 7 6 . 7 6 .. 7
6 76 76 7
6 .. .. .. .. 7 6 76 7
4 . . . . 54 54 5
1
x1p x2p xip xnp 0 n
1
2 n 3
1
P
6 n i=1xi1 7 2 3
6 P 7
61 n 7 x1
6 n xi2 7 6 7
6 i=1 7 6x2 7
6 . 7 6 7
6 .. 7 6 7
6 7 6 7
= 6 P 7=
61 x 7 6 7
n
6n ij 7 6 xj 7
6 i=1 7 6 7
6 . 7 4 5
6 .. 7
6 n 7 xp
41 P 5
n
xip
i=1

2.5.4 Matrice centrée

Si on prend le centre de gravité G comme une origine, on revient alors à


travailler sur le tableau des données centrées dé…nie par Xc tel que xcij = xij xj ,
alors :
2. Analyse en composantes principales 28

2 3
x11 x1 x12 x2 x1j xj x1p xp
6 7
6 x21 x1 x22 x2 x2j xj x2p xp 7
6 .. .. .. .. 7
6 . . . . 7
6 7
Xc = 6 7
6 xi1 x1 xi2 x2 xij xj xip xp 7
6 7
6 .. .. .. .. 7
4 . . . . 5
xn1 x1 xn2 x2 xnj xj xnp xp
alors un individus ui est dé…nie par le vecteur des coordonnées centrées donné
par :
2 3 2 0 3
xi1 x1 xi1
6 7
6xi2 x2 7 6 xi2 7
0
6 7 6 7
6 .. 7 6 7
6 . 7 6 7
uci = 6 7=6
6x 7
0
7
6 xij xj 7
6 6
7 6 ij 7
6 .. 7 4 7 5
4 . 5
0
xip xp xip

le même pour la variable vj :


2 3
x1j xj
6 7
6x21 xj 7
6 .. 7
6 . 7
6 7
vcj = 6 7
6 xij xj 7
6 7
6 .. 7
4 . 5
xnj xj

on a aussi la relation :

Xc = X 1n Gt = I 1n 1tn Dp X
2. Analyse en composantes principales 29

Figure 3 : Centre de gravité G

2.5.5 Matrice de covariance et matrice de corrélation

La matrice de variance-covariance des données centrées résume la stricture des


dépendances linéaires entre les p variables prise deux à deux, c’est une matrice
de p lignes et p colonnes contenant sur sa diagonale principale les variances
empiriques des p variables et ailleurs, les covariances empiriques de ces variables
deux à deux (les formules de calcul sont données dans le premier chapitre), donc
cette matrice est symètrique donnée par :

2 3
var (v1 ) cov (v1 ; v2 ) cov (v1 ; vj ) cov (v1 ; vp )
6 7
6cov (v2 ; v1 ) var (v2 ) cov (v2 ; vj ) cov (v2 ; vp )7
6 .. .. .. .. 7
6 . . . . 7
6 7
V =6 7
6cov (vj ; v1 ) cov (vj ; v2 ) var (vj ) cov (vj ; vp )7
6 7
6 .. .. .. .. 7
4 . . . . 5
cov (vp ; v1 ) cov (vp ; v2 ) cov (vp ; vj ) var (vp )

si on prend l’expression du vecteur des valeurs centrées des p variables me-


surées sur la i-ème individus, on peut voir que :
2. Analyse en composantes principales 30

2 3
1
P
n
02 1
P
n
1
P
n
1
P
n

6 i=1xi1
n n
x0i1 x0i2 n
x0i1 x0ij n
x0i1 x0ip 7
6 P i=1
P
i=1
P
i=1
P 7
61 n 0 0 1 1
n
1
n
0 7
6 n xi2 xi1 x02
i2 x0i2 x0ij x 0
i2 ip 7
x
6 i=1 n n
i=1
n
i=1 7
6 .. .. .. .. 7
1X
n 6 . . . . 7
t 6 7
uci uci = 6 P n P
n P P n 7=V
n i=1 6 1 x0 x0 1
x0ij x0i2 1
x02 1
x 0 0 7
x
6n ij i1 n n ij n ij ip 7
6 i=1 i=1 i=1 7
6 .. .. .. .. 7
6 7
6 n . . . . 7
41 P 0 0 1
P
n
1
P
n
1
P 02 5
n
xip xi1 n
x0ip x0i2 n
x0ip x0ij n
xip
i=1 i=1 i=1

où :
x0ij = xij xj

si : 3 2
utc1
6 t 7
6 uc2 7
6 . 7
6 .. 7
6 7
Xc = 6 t 7
6 ucj 7
6 7
6 .. 7
4 . 5
utcn
on peut écrire :
1 t
X Xc V =
n c
Si on veut travailler avec des variables centrées réduites, on passe du tableau
des valeurs centrées au tableau des valeurs centrées réduites donnée par :

1
Xcr = (DV ) 2 Xc

où :
2 3
1
0
6 1
7
6 1 7
6 2 7
6 .. 7
1 6 . 7
(DV ) 2 =6
6 1
7
7
6 j 7
6 .. 7
6 . 7
4 5
1
0 p
2. Analyse en composantes principales 31

c’est une matrice diagonale qui a sur sa diagonale principale les inverses des
écarts-type empiriques des variables.
Alors la matrice de corrélation et donnée par :
2 3
1 r12 r1j r1p
6 7
6r21 1 r2j r2p 7
6 . .. .. .. 7
6 .. . . . 7
6 7
R=6 7
6rj1 rj2 1 rjp 7
6 7
6 .. .. .. .. 7
4 . . . . 5
rp1 rp2 rpj 1
c’est une matrice de p p dont sa diagonale principale tous ses valeurs égale
1, et ailleurs les coe¢ cients de corrélation empiriques de ces variables deux à
deux (les expréssions sont données dans le chapitre 1).
on a :

1 t 1 1
R= X Xcr = (D ) 2 V (D ) 2
n cr

2.5.6 Analyse en composantes principales normé

Dans tous le précédent, on a parler d’un ACP simple où on a utiliser le


tableau de données centrées seullement. Lorsque on veut traiter des données où
les variables ont des unitées dé¢ rentes, on fait l’ACP, en utilisant des données
centrées, chaque élément du colonne j est divisé par l’écart-type, on obtient le
tableau de données centrées réduites noté Xcr dé…nie par :

2 x1j xj x1p xp
3
x11 x1 x12 x2
6 x21 1 x1 2 j
x2j xj x2p xp 7
p
6 x22 x2 7
6 1 2 j p 7
6 .. .. .. .. 7
1 6 . . . . 7
Xcr = (DV ) 2 Xc = 6
6 xi1 x1 xi2 x2 xij xj xip xp 7
7
6 1 7
6 . 2
..
j
.. .. 7
p
6 .. . . . 7
4 5
xn1 x1 xn2 x2 xnj xj xnp xp
1 2 j p

Alors, au lieu d’utiliser la matrice de variance-covariance V , on utilise la


matrice de corrélation R dé…nie dans le précédent et on dit que R est la matrice
2. Analyse en composantes principales 32

de variance-covariance du tableau de données centrées réduites. Ainsi, R résume


la structure des dépendaces linéaires entre les p variables.
L’inertie totale sera égale à p, c’est-à-dire :

IG = trace (R) = p

2.6 L’inertie

L’inertie est la quantitée d’information contenue dans le tableau de données.


On l’appele inertie totale qu’on la note IG , c’est le moment d’inertie du nuage
des individus par rapport au centre de gravité où :
p
1X 2 1 XX 1X t
n n n
IG = d (G; ui ) = (xij xj )2 = u uci
n i=1 n i=1 j=1 n i=1 ci

Elle mesure la dispertion du nuage des individus par rapport à son centre de
gravité. Si ce moment d’inertie est grand, le nuage est trés dispersé, tandis que
s’il est petit, le nuage est trés concentré sur son centre de gravité.
Une inertie nulle signi…e que tous les individus sont presque identiques. L’iner-
tie du nuage sera égale à la somme des variables, c’est-à-dire, l’inertie totale est
égale à la trace de la matrice de covariance V .

p
" n # p
X 1X 2
X
IG = (xij xj ) = var (vj ) = trace (V )
j=1
n i=1 j=1

Si les données sont centrées réduites, l’inertie sera égale à p c’est-à-dire :

IG = trace (R) = p

2.6.1 L’inertie du nuage des individus par rapport à un

axe passant par G


L’inertie du nuage des individus par rapport à un axe passant par G est
égale à :
2. Analyse en composantes principales 33

1X 2
n
I = d (h i
ui )
n i=1
où h i est la projection orthogonale de ui sur l’axe .
Cette inertie mesure la proximitée à l’axe du nuage.

2.6.2 L’inertie du nuage des individus par rapport à un

sous-espace vectriel S passant par G


Cette inertie est donnée par :

1X 2
n
IS = d (hSi ui )
n i=1
où hSi est la projection orthogonale de ui sur le sous-espace S .

2.6.3 Décomposition de l’inertie totale

Si on note S le complémentaire orthogonal de S dans Rp et hSi la projection


orthogonale de ui sur S ; en appliquant le théorème de Pythagore, on peut écrire :

d2 (hSi ; ui ) + d2 hSi ; ui = d2 (G; ui ) = d2 (G; hSi ) + d2 G; hSi

on déduit le théorème de Huygens :

IS + IS = IG
Dans le cas particulier où le sous-espace est de dimension 1, c’est-à-dire est
un axe, IS est une mesure de l’allongement du nuage selon cet axe. On emploie
pour IS les expresions “d’inertie portée par l’axe ” ou bien “d’inertie expliquée
par l’axe ”.
En projetant le nuage des individus sur un sous-espace S, on perd l’inertie
mesurée par IS , on ne conserve que celle mesurée par IS :
De plus, si on décompose l’espace Rp comme la somme de sous-espaces de
dimension 1 et orthogonaux entre eux :

1 2 p
2. Analyse en composantes principales 34

alors, on peut écrire :

IG = I 1
+I 2
+ +I p

2.7 Eléments principaux

On cherche une représentation des n individus, dans un sous-espace de Rp de


dimension k ( k petit 2,3,... par exemple un plan ). Autrement dit on cherche à
dé…nir k nouvelles variables combinaisons linéaires des p variables initiales qui
feront perdre le moins d’information possible. Ces variables seront appelées “
composantes principales ”, les axes qu’elle déterminent “ axes principaux ”, les
formes linéaires associées “ facteurs principaux ”.

2.7.1 Axes principaux

On appelle axes principaux d’inertie les axes de direction les vecteurs propres
de V normés à 1.

Recherche de l’axe 1 passant par G d’inertie minimum

On cherche un axe 1 passant par G d’inertie I 1 minimum car c’est l’axe le


plus proche de l’ensemble des points du nuage des individus, et donc, si l’on doit
projeter ce nuage sur cet axe, c’est lui qui donnera l’image la moins déformée du
nuage. Si on utilise la relation entre les inerties donnée au paragraphe précédent,
rechercher 1 tel que I 1 est minimum, est équivalent à chercher 1 tel que I 1
est maximum.
I 1 est minimum () I 1 est maximum

- Explication :
Soit F un sous ensemble de Rp , et soit fi la projection orthogonale de ui sur
F, alors :

kui Gk2 = kui fi k2 + kfi Gk2


on va chercher F tel que :
2. Analyse en composantes principales 35

X
n
pi kui fi k2 soit minimal
i=1

ce qui revient d’aprés le théorème de Pythagore à maximiser :

X
n
pi kfi Gk2
i=1

donc :

X
n
2
X
n
2
X
n
pi kui Gk pi kui fi k = pi kfi Gk2
|i=1 {z } |i=1 {z } |i=1 {z }
l’inertie totale
minimiser cette maximiser
quantiter (carrés des l’inertie du nuage
distances entre points projeté
individus et leurs projections)

alors nous sommes bassées sur les notions de la distance et de la projection


orthogonale.

! 2
Expressions algébriques de I 1
et de Ga1

D ! ! E2
d2 G; h 1i
= Gui ; Ga1 = at1 uci utci a1
On utilisant la symétrie du produit scalaire. On en déduit :
" n #
1X t X
n
1
I = a uci utci a1 = at1 uci utci a1
1
n i=1 1 n i=1
entre crochets on reconnaît la matrice de covariance empirique V des p va-
riables

I 1
= at1 V a1

et :
! 2
Ga1 = at1 a1
2. Analyse en composantes principales 36

Recherche du maximum

Le problème à résoudre : trouver a1 tel que at1 V a1 soit maximum avec la


contrainte at1 a1 = 1 est le problème de la recherche d’un optimum d’un fonction
de plusieurs variables liées par une contrainte ( les inconnues sont les composantes
de a1 ). La méthode des multiplicateurs de Lagrange peut alors être utilisée.
Dans le cas de la recherche de a1 = (a11 ; a12 ; : : : ; a1p ), il faut calculer les
dérivées partielles de la fonction

g (a1 ) = g (a11 ; a12 ; : : : ; a1p ) = at1 V a1 1 at1 a1 1

En utilisant la dérivée matricielle, on obtient :

@g (a1 )
= 2V a1 2 1 a1 = 0
@a1
Donc le systéme à résoudre est :
(
V a1 1 a1 = 0 : : : : : : : : : (1)
t
a1 a1 = 1 : : : : : : : : : (2)
De la relation (1), on obtient que a1 est vecteur propre de V associé à la
valeur propre 1 . Si on multiplie (1) par at1 on obtient :

at1 V a1 t
1 a1 a1 =0
et en utilisant l’équation (2) on trouve que :

at1 V a1 = 1

alors :

I 1
= 1

On reconnaît que le premier membre de l’équation précédente est égal à


l’inertie I 1 qui doit être maximum. Cela signi…e que la valeur propre 1 est la
plus grande valeur propre de la matrice de variance-covariance V et que cette
valeur propre est égale à l’inertie portée par l’axe 1 pour lequel le nuage des
individus admet une inertie minimum a comme vecteur directeur unitaire le
premier vecteur propre associé à la plus grande valeur propre de la matrice de
variance-covariance V .
2. Analyse en composantes principales 37

Recherche des axes suivants

On recherche ensuite un deuxième axe 2 orthogonal au premier et d’inertie


minimum. On peut, comme dans le paragraphe précédent, dé…nir l’axe 2 pas-
sant par G par son vecteur directeur unitaire a2 . L’inertie du nuage des individus
par rapport à son complémentaire orthogonal est égale à :

I 2
= at2 V a2

cette inertie doit être maximum avec les deux contraintes suivantes :

at2 a2 = 1

et :

at2 a1 = 0

La deuxième contrainte exprime que la deuxième axe doit être orthogonal


au premier et donc que le produit scalaire des deux vecteurs directeurs est nul.
En appliquant la méthode des multiplicateurs de Lagrange, cette fois avec deux
contraintes, on trouve que a2 est le vecteur propre de V correspondant à la
deuxième plus grande valeur propre 2 : On peut montrer que le plan dé…ni par
les axes 1 et 2 est le sous-espace de dimention 2 qui porte l’inertie maximum.
On peut recherche de nouveaux axes en suivant la même procédure. Les nou-
veaux axes sont tous vecteurs propres de V correspondant aux valeurs propres
ordonnées. La matrice de covariance V étant une matrice symétrique réelle, elles
posséde p vecteurs propres réels, formant une base orthogonale de Rp
8
>
> ? 2 ? ::: ? p
>
>
1
< a1 ? a2 ? : : : a p
>
> 1 2 ::: p
>
>
: I 1 I 2 ::: I p
On passera de la base orthogonale initiale des variables centrées à la nouvelle
base orthogonale des vecteurs propres de V . On appelle les nouveaux axes “
axes principaux ”.
2. Analyse en composantes principales 38

Contribution des axes à l’inertie totale

En utilisant le théorème de Huygens, on peut décomposer l’inertie totale du


nuage des individus est égale à :

IG = I 1
+I 2
+ ::: + I p
= 1 + 2 + ::: + p

La contributin absolue (ca) de l’axe k l’inertie totale du nuage des individus


est égale à :

ca ( k =IG ) = k

la valeur propre qui lui est associée.


Sa contribution relative (cr) est égale à :

k k
cr ( k =IG ) = =
IG 1 + 2 + ::: + p

On emploie souvent l’expression “ pourcentage d’inertie expliquée par l’axe


principale k ”.
On peut étendre ces dé…nition à tous les sous-espace engendrés par les nou-
veaux axes. Ainsi, le pourcentage d’inertie expliqué par le plan engendré par les
deux premiers axes 1 et 2 est égal à

1 + 2 + 21
cr ( 1 2 =IG ) = =
IG 1 + 2 + ::: + p

Ces pourcentages d’inertie sont des indicateurs qui rendent compte de la part
de variabilité du nuage des individus expliquée par ces sous-espaces. Si les der-
nières valeurs propres ont des valeurs faibles, on pourra négliger la variabilité
qu’expliquent les axes correspondants. On ce contente souvent de faire des re-
présentations du nuage des individus dans un sous-espace engendré par les d
premiers axes si ce sous-espace explique un pourcentage d’inertie proche de 1.
On peut ainsi réduire l’analyse à un sous-espace de dimension d p:

Combien d’axes (valeur propre et choix des axes)

Pour dé…nir le nombre d’axes étudiés, on étudier les valeurs propres obtenues.
Chaque valeur propre correspond à la part d’inertie projetée sur un axe donné.
2. Analyse en composantes principales 39

On sait que la somme des valeurs propres est égale à l’inertie totale du nuage
(=nombre de variable en ACP normé), on caractérise ainsi chaque axe par le
pourcentage d’inertie qu’il permet d’expliquer. On ne retient donc que les axes
avec les plus fortes valeurs propres. Le choix des axes retenus est un peut délicat.
On peut donner quelques règles :
- Règle du coude : On observe souvent de fortes valeurs propres au départ
puis ensuite de faibles valeurs avec un décrochage dans le diagramme. On retient
les axes avant le décrochage.

Figure 4 : Règle du coude

- Règle de l’inertie minimale : On sélectionne les premiers axes a…n d’atteindre


un pourcentage donné d’inertie expliquée (70% par exemple).
- Règle de bon sens : On analyse les plans et les axes et on ne retient que
ceux interprétables.
- Règle de Kaiser en ACP normé : On ne s’intéresse qu’aux axes avec une
valeur propre supérieure à 1 (=inertie d’une variable initiale).
2. Analyse en composantes principales 40

Figure 5 : Notion d’axes principaux

2.7.2 Composantes principales

A chaque axe est assciée une variable appelée composante principale. La com-
posante c1 est le vecteur renfermant les cordonnées des projections des individus
sur l’axe 1, et la composante c2 est le vecteur renfermant les cordonnées des
projections des individus sur l’axe 2, . . . etc. Alors, pour obtenir ces coordon-
nées, on écrit que chaque composante principale est une combinaison linéaire
des variables initiales.
8
>
< c1 = a11 x1 + a12 x2 + : : : + a1j xj + : : : + a1p xp
>
c2 = a21 x1 + a22 x2 + : : : + a2j xj + : : : + a2p xp
>
> ..
: .
ce qui signi…e que la valeur de c1 pour l’individus i est donnée par :

ci1 = a11 xi1 + a12 xi2 + : : : + a1j xij + : : : + a1p xip

La variance d’une composante principale est égale à l’inertie portée par l’axe
principale qui lui est associé, par exemple la variance de la première compsante
principale c1 égale à 1 ;. . . ect. Puisque les axes sont orthogonaux, les compo-
santes principales sont non corrélées deux à deux.
De façon générale, on construit la composante d’ordre k où :
2. Analyse en composantes principales 41

ck = ak1 x1 + ak2 x2 + : : : + akj xj + : : : + akp xp

Matriciellement, ck = Xak où ak est un vecteur colonne à p éléments, l’élé-


ment d’ordre j état égal à akj , ce vecteur ak est appelé facteur d’ordre k (ou k ieme
facteur).

2.8 Etude des individus et des variables dans

les nouveaux axes


Les techniques de l’ACP sont les projections des variables et des individus
sur un plan factoriel déterminé. On commencera par interpréter le premier plan
factoriel (celui formé par les facteurs F1 et F2) car c’est celui qui concentre la
plus grande partie de l’information du nuage.
Sur un plan factoriel, on n’interprète que les variables et les individus qui
sont bien représentés. Pour les individus, on utilisera les contributions absolues
et relatives alors que pour les variables, on n’interprètera que celles qui sont
proches du cercle de corrélation.

2.8.1 Représentation graphique des individus

Représentation des individus dans les nouveaux axes

Les individus sont associés à des points des coordonnées sont les variables,
Pour faire la représentation des individus dans les plans dé…nis par les nouveaux
axes, il su¢ t de calculer les coordonnées des individus dans les nouveaux axes.
Soit yik la coordonnée de l’unité ui sur l’axe k , c’est la projection orthogonale
!
le vecteur Gui sur l’axe k . Alors :
D ! E
yik = Gui ; !
ak = atk uci

et :
Yi = At uci

où Yi est le vecteur des coordonnées de l’unité ui et A est la matrice du


changement de base.
2. Analyse en composantes principales 42

On peut mesurer la distance entre ces individus en utilisant simplement la


distance euclidienne classique entre ces deux points (comme au collège...).
La construction des composantes principales conduit à rendre minimale la
déformation des distances entre individus lorsque l’on projette les individus dans
le plan factoriel F1 F2 . Ainsi les distances que l’on observe entre les individus
dans le plan factoriel sont globalement les plus proches possible des distances
réelles entre ces individus.
L’analyse des plans factoriels permet ainsi d’observer les individus proches
entre eux ou au contraire éloignés. Il est ainsi possible de construire des groupes,
d’observer des tendances ...

Les règles de lecture des plans factoriels

- Seule les individus bien représenter sont pris en compte dans l’interprétation,
On calcule la somme des qlt dans le plan et on véri…e que cette somme n’est pas
trop faible par rapport à la qualité moyenne du plan.
- On réalise le bilan en positif et en négatif des individus qui ont la plus
forte contribution pour un axe donné, On donne ainsi en parallèle avec l’analyse
des variables une signi…cation concrête à ces axes en terme d’opposition entre
individus et variables ou tendance particulière.
- On réalise des groupes, à l’aide éventuelle de la fonction s.class, dans le cas
de groupes préexistants (homme-femme par exemple) ou on construit arbitrai-
rement ces groupes en raison des proximités entre individus.
- En présence de trop nombreux individus, on peut utiliser des individus type
et réaliser une analyse sur ce individus.
- L’utilisation d’individus supplémentaires non utilisés dans l’ajustement mais
a posteriori permet également d’éclairer l’analyse.

2.8.2 Représentation graphique des variables

Les composantes principales sont construites comme des combinaisons li-


néaires des variables initiales. Pour visualiser les liaisons entre la composante
principale et les variables initiales, on représente en ACP normée les variables
dans les plans factoriels. Les coordonnées des variables sont les coe¢ cients de
corrélation de ces variables avec les composantes principales.
2. Analyse en composantes principales 43

Règle de lecture de la liaison entre variables

Cette technique se distingue par la présence d’un cercle de corrélation. C’est


une représentation où, pour deux composantes principales par exemple c1 et
c2 , on représente chaque variable vj par un point d’abcisse cor(vj , c1 ) et d’or-
donnée cor(vj , c2 ); il permet de visualiser comment les variables sont corrélées
(positivement ou négativement) avec les composantes principales.
Sur un plan factoriel déterminé, on n’interprète que les variables qui sont bien
représentées c’est à dire celles qui sont proches ou sur le cercle de corrélation.
On interprète deux types de positions :
Les positions des variables par rapport aux axes a…n de déterminer quelles
sont les variables qui « font les axes » . On va ainsi pouvoir nommer les axes en
fonction des variables.
Les positions des variables les unes par rapport aux autres. Le coe¢ cient de
corrélation entre deux variables étant le cosinus de l’angle formé par les vecteurs
on en déduit que :
- deux variables qui sont proches ou confondu (angle de 0 ) sont corrélées
positivement (coe¢ cient de corrélation proche de 1).
- deux variables opposées (formant un angle de 180 ) sont corrélées négati-
vement (coe¢ cient de corrélation proche de -1).
- deux variables positionnées à angle droit (angle de 90 ) ne sont pas du tout
corrélées (coe¢ cient de corrélation égal à 0).

Figure 6 : Cercle de corrélation


2. Analyse en composantes principales 44

2.8.3 Qualité de la représentation


Elle permet de véri…er que tous les individus sont bien représentés par le
sous-espace principal choisi, elle s’exprime comme le carré du cosinus de l’angle
entre l’individu et sa projection orthogonale.
Les individus représentés dans un plan factoriel ne sont pas forcément cor-
rectement représentés.

Figure 7 : Cosinus carré

Si l’angle est grand, le point initial est éloigné de sa projection. On utilise


le paramètre cos2 pour caractériser la qualitée de représentation notée qlt sur
un axe où :

cos2 = cos2 1 + cos2 2

- Plus la qualité de l’individus i est proche de 1 plus il est bien représenté.


- Plus la qualité de l’individus i est proche de 0 plus il est mal représenté.
- Dans un plan, on calcule la somme des deux qlt, par exemple qltF1 + qltF2
pour le plan F1 F2 .
- La qualité correspond en fait au rapport de l’inertie du projeté sur l’inertie
du point initial.
Qualité globale : Dans un plan donné, on dé…nit également la qualité globale
comme le pourcentage d’inertie qu’explique le plan. C’est par rapport à cette
qualité globale que l’on évalue la qlt d’un individu ou d’une variable.
2. Analyse en composantes principales 45

Remarque 24 La qualité des variables peut s’analyser de la même façon mais


l’utilisation du cercle des corrélation est plus intuitive.
On commencera donc toujours l’analyse d’un plan factoriel en précisant l’exis-
tence (ou non) d’individus ou variables mal représentés et en justi…ant par les
qualités. En général, les qualités de représentation sont données axe par axe.

2.8.4 Interprétation des nouveaux axes

Lors de la construction d’un axe factoriel, certaines variables et certains indi-


vidus ont des rôles plus importants. On calcule un paramètre appelé contribution
à l’inertie de cet axe noté ctr, qui permet de calculer cette in‡uence. Pour chaque
axe retenu et chaque nuage, on regarde :
- Quelles sont les variables qui participent le plus à la formation de l’axe ?
- Quels sont les individus qui participent le plus à la formation de l’axe ?
Ce sont les points dont la contribution est supérieure à la moyenne qui per-
mettent de donner un sens à l’axe.

Contributions des points

La contribution notée ctr est dé…nie comme la proportion de l’inertie de l’axe


expliquée par la variable ou l’individu.

Contribution des individus


Lorsqu’on calcule l’inertie I k portée par l’axe k , on peut voir quelle est la
part de cette inertie due à un individu ui particulier.

1
P
n
Contribution absolue d’un individu à un axe I k
étant égale à n
d2 (h ki
; G) ;
i=1

la contribution absolue de ui à cette inertie est égale à :

1X 2
n
ca (ui = k ) = d (h ki
; G)
n i=1

Puisque tous les individus ont le même poids. Un individu contribuera d’au-
tant plus à la confection d’un axe, que sa projection sur cet axe sera éloignée du
centre de gravité du nuage. Inversement, un individu dont la projection sur un
axe sera proche du centre de gravité contribuera faiblement à l’inertie portée par
2. Analyse en composantes principales 46

cette axe. On se sert de ces contributions pour interpréter les nouveaux axes de
l’ACP en fonction des individus.

Contribution relative d’un individu à un axe On peut aussi, pour un

individu particulier ui , donner sa contribution relative à l’inertie portée par cet


axe :

1
P
n D ! !E
d2 (h ; G) 1
Gui ; Gak 1 t
n
i=1
ki
n a u ut a
n k ci ci k
cr (ui = k) = = =
I k k k

L’examen de ces contributions permet d’interpréter les axes principaux avec


les individus. On peut remarquer que :

X
n
cr (ui = k) =1
i=1

Contribution des variables C’est la part de l’inertie de l’axe due à la

variable, l’inertie projetée sur un axe de Rn est donnée par :

X
n
2
Yk;v j
= k
i=1

avec Yk;vj est la coordonnée de la variable vj sur l’axe principale k. La


contribution d’une variable à l’inertie d’un axe est donc :

2 p 2
Yk;v k akj
ctr (j; k) = j
= = a2kj
k k
où akj est en fait la projection sur l’axe k du vecteur directeur de l’axe por-
teur de la variable j. Pour voir la contribution d’une variable à la formation d’un
axe k, il su¢ t d’élever au carré chaque composante de ak :De plus, les composantes
de ak donnent les combinaisons linéaires des variables d’origine qui dé…nissent
les nouvelles variables de variance maximale (composantes principales).

Règles d’interprétation

- L’analyse se fait axe par axe, en parallèle sur les variables et les individus.
2. Analyse en composantes principales 47

- Plus ctr est grande, plus l’in‡uence de l’individu est grande. On ne retient
donc que les plus fortes valeurs (il y a souvent un décrochage après quelques
valeurs).
- La contribution est considérée comme positive si l’individu est dans la partie
positive de l’axe.
- La contribution est considérée comme négative si l’individu est dans la
partie négative de l’axe.
- Le bilan des contributions peut être présenter pour un axe donné sous
forme d’un tableau avec les principales contributions + et –des individus et des
variables, en précisant la valeur de contribution.

2.9 Individus et variables supplémentaires

Nous pouvons considérer que certaines variables sont des variables explica-
tives et d’autres des variables à expliquer. Nous mettrons en supplémentaire les
variables à expliquer. Celle-ci sera introduite à la …n de l’analyse a…n de la po-
sitionner sur le plan principal. D’autres variables peuvent manquer de …abilité.
On peut légitimement hésiter à les introduire dans l’analyse. Elles peuvent être
utilisées comme variables supplémentaires.
De nouveaux individus pourront être mis en supplémentaires dans l’analyse
(nouvelles variétés, nouveaux traitement, etc. . . ), Les individus supplémentaires
sont introduits en …n d’analyse, après le calcul des vecteurs propres. On peut
aussi mettre en supplémentaires des données (variables ou individus) dont on
doute de la …abilité. Ces données seront positionnées sur le plan principal sans
participer activement aux calculs.
Par opposition, les individus ou les variables qui ne sont pas supplémentaires
sont dits actifs (sous entendu : actifs dans le calcul des composantes principales).

2.10 Avantages et inconvénients de l’ACP

2.10.1 Avantages
- Simplicitée mathématique :
2. Analyse en composantes principales 48

L’ACP est une méthode factorielle car la réduction du nombre des carac-
tères ne se fait pas par une simple sélection de certains d’entre eux, mais par
la construction de nouveaux caractères synthétiques obtenus en combinant les
caractères initiaux au moyen des “facteurs”. Cependant, il s’agit seulement de
combinaisons linéaires, les seuls véritables outils mathématiques utilisés dans
l’ACP sont le calcul des valeurs/vecteurs propres d’une matrice, et les change-
ment de base.
Sur le plan mathématique, l’ACP est donc une méthode simple à mettre en
œuvre.
- Simplicité des résultats :
Grâce aux graphiques qu’elle fournit, l’ACP permet d’appréhender une grande
partie de ces résultats d’un simple coup d’œil.
- Puissance :
L’ACP a beau être simple, elle n’en est pas moins puissante. Elle o¤re, en
quelques opération seulement, un résumé et une vue complète des relations exis-
tant entre les variables quantitatives d’une population d’étude, résultats qui
n’auraient pas pu être obtenus autrement, ou bien uniquement au prix de mani-
pulations fastidieuses.
- Flexibilité :
L’ACP est une méthode très souple, puisqu’elle s’applique sur un ensemble de
données de contenu et de taille quelconques, pour peu qu’il s’agisse de données
quantitatives organisées sous forme individus/variables. Cette souplesse d’utili-
sation se traduit surtout par la diversité des applications de l’ACP, qui touche
tous les domaines.

2.10.2 Inconvénients

En tant que méthode d’analyse de données, l’ACP n’a pas réellement d’in-
convénients en soi. Elle s’applique simplement sur des cas précis et pour générer
un type de résultat particulier. Cela n’aurait donc aucun sens de dire que c’est
un inconvénient de l’ACP qu’elle ne s’applique pas en dehors de ce contexte.
De même, étant donné qu’il s’agit avant tout d’une technique de résumé de
données, la perte d’information forcément engendrée n’est pas un inconvénient,
mais plutôt une condition d’obtention du résultat, même si elle occulte parfois
des caractéristiques pourtant représentatives dans certains cas particuliers.
Chapitre 3

Application

3.1 Introduction

Dans ce chapitre, nous allont essayer d’appliquer la partie théorique de notre


travail sur des données rapporter directement de l’Entreprise Nationale des Tra-
vaux aux Puits de Hassi-Messaoud, wilaya de Ouargla.

3.2 Matériel utilisé


Pour faire l’ACP, on a bosoin d’utiliser :
1- le Microsoft O¢ ce Exel 2007.
2- le logiciel R, utilisant le package ade4.

- Présentation du logiciel R :
Le logiciel R est un logiciel de statistique cree par Ross Ihaka et Robert
Gentleman. Il est à la fois un langage informatique et un environnement de
travail : les commandes sont exécutées grâce à des instructions codées dans un
langage relativement simple, les résultats sont a¢ chés sous forme de texte et les
graphiques sont visualisés directement dans une fenètre qui leur est propre. Le
logiciel R est particulièrement performant pour la manipulation de données, le
calcul et l’a¢ chage de graphiques.
R est un logiciel dans lequel de nombreuses techniques statistiques modèrnes
et classiques ont été implémentées. Les méthodes les plus courantes permettant

49
3. Application 50

de réaliser une analyse statistique telles que : statistique descriptive, tests d’hy-
pothèses, analyse de la variance.

- Présentation du package ade4 :


R contient plusieurs package de fonctions dé¢ rentes, parmis ces package il
existe l’ade4 qui l’on utilise pour traiter notre données pour faire une ACP.
Se téléchargé directement à partir de la ligne de commande de R : cliquer sur
l’onglet « Packages » puis sur « Installer le(s) package(s) » . Choisir un site miroir
proche (Lyon, Toulouse, ou Paris), puis le package « ade4 » . Si l’ordinateur n’est
pas connecté à internet, il su¢ t de récupérer le …chier .zip du package ade4, et de
faire « installer un package depuis un …chier .zip » dans le menu de R. Une fois
le logiciel R ouvert, taper : > library(ade4) pour charger la bibliothèque ade4. Il
faut faire cette manoeuvre chaque fois que l’on ouvre R et que l’on veut utiliser
ce package.

3.3 Méthodologie

3.3.1 Présentation des données


Les données sont portées de l’Entreprise Nationale des Travaux aux Puits
notée ENTP.
Fiche d’identité :
Raison sociale : Entreprise Nationale des Travaux aux Puits.
Dénomination : E.N.T.P
Date de création : 1er août 1981
Forme juridique : EPE/SPA en date du 21 Juin 1989
Adresse du siège social : ENTP BP 206 207 Base Industrielle du 20 août
1955 Hassi-Messaoud, wilaya de Ouargla
- Les données portées dans le tableux fournissent la structure du bilan de
cette entreprise de 2008 à 2016, alors les années présentent notre individus et les
variables sont les postes :
INV : Investissements qui contient Frais préliminairs, Terrains, Equipements
de production, Equipements sociaux, Investissements en cours.
STO : Stocks qui contient Matières et fournitures, Stocks à l’exterieur.
3. Application 51

CRE : Créances qui contient Créances d’investissements, Créances de stocks,


Créances sur associés et stés apparentées, Avances pour compte, Avance d’ex-
ploitation, Créances sur clients, Comptes débiteurs du passif.
FPR : Fonds Propres qui contient Capital social, Titres participatifs, Réserves
légales, Réserves réglementées, Réserves facultatives, Provisions pour pertes et
charges.
DET : Dettes qui contient Dettes d’investissements, Dettes de stocks, Déten-
sion pour compte, Dettes sur associés et stés apparentées, Dettes d’exploitation,
Avances commerciales, Dettes …nancières, Comptes créditeurs de l’actif.
RNE : Résultat de l’exercice et Résultat net.
- L’objet est :
on cherche à répondre aux questions suivantes :
1. Quelle a été l’évolution de la structure de bilan sur 9 ans ?
2. Peut-on mettre en évidence plusieurs périodes ? Si oui, comment se caractérisent-
elles ?

3.3.2 Réalisation d’une ACP avec l’ade4


Chargement de l’ade4

Dans R on choisis depuit la barre d’outils "packages" et ensuite "load pa-


ckage...", R a¢ che :
> local({pkg <- select.list(sort(.packages(all.available = TRUE)),graphics=TRUE)
+ if(nchar(pkg)) library(pkg, character.only=TRUE)})
Aprés, R a¢ che la fenêtre des packages chargés, choisissant le package "ade4"
et on clique "ok".
Ou : on tape directement :
> library(ade4)

Importation des données

Les données sont importer depuit un …chier Microsoft Exel 2007, elles ont
été ventilées en pourcentage par année, la somme des éléments d’une même ligne
vaut prèsque 100, de manière à éviter les e¤ets dus à l’in‡ation. Ce …chier est
enregistrer dans le répertoire de travail "Mes documents".
Dans le logiciel R, on exécute la commande :
3. Application 52

> X<-read.csv2(…le.choose(),header=FALSE)
R a¢ che une feunêtre de …chier "Mes documents", nous donne la main pour
choisir d’ouvrire un document, aprés le chois on clique "ouvrire" et on tape dans
R la commande :
>X
Le logiciel R a¢ che le résultat suivant :
V1 V2 V3 V4 V5 V6
1 18:47 7:47 24:06 19:40 27:06 3:54
2 20:19 5:38 24:43 15:36 30:85 3:79
3 18:59 5:21 26:20 16:66 28:44 4:89
4 22:00 5:19 22:81 18:61 27:64 3:75
5 26:89 6:25 16:86 18:36 28:26 3:38
6 30:24 5:78 13:98 21:29 25:59 3:12
7 35:49 6:09 8:42 22:78 24:84 2:37
8 26:81 6:85 16:35 28:40 19:05 2:55
9 24:92 6:71 18:37 30:88 14:45 4:67
- Pour ronnomer les lignes et les colonnes, on exécute :
> rownames(X)<-c("2008","2009","2010","2011","2012","2013","2014","2015","2016")
> colnames(X)<-c("INV","STO","CRE","FPR","DET","RNE")
>X
- Le logiciel R a¢ che :
IN V ST O CRE F P R DET RN E
2008 18:47 7:47 24:06 19:40 27:06 3:54
2009 20:19 5:38 24:43 15:36 30:85 3:79
2010 18:59 5:21 26:20 16:66 28:44 4:89
2011 22:00 5:19 22:81 18:61 27:64 3:75
2012 26:89 6:25 16:86 18:36 28:26 3:38
2013 30:24 5:78 13:98 21:29 25:59 3:12
2014 35:49 6:09 8:42 22:78 24:84 2:37
2015 26:81 6:85 16:35 28:40 19:05 2:55
2016 24:92 6:71 18:37 30:88 14:45 4:67
- Pour a¢ che les propriètés de X, on exécute :
> summary(X)
3. Application 53

IN V ST O CRE FPR
M in: : 18:47 M in: : 5:190 M in: : 8:42 M in: : 15:36
1stQu: : 20:19 1stQu: : 5:380 1stQu: : 16:35 1stQu: : 18:36
M edian : 24:92 M edian : 6:090 M edian : 18:37 M edian : 19:40
M ean : 24:84 M ean : 6:103 M ean : 19:05 M ean : 21:30
3rdQu: : 26:89 3rdQu: : 6:710 3rdQu: : 24:06 3rdQu: : 22:78
M ax: : 35:49 M ax: : 7:470 M ax: : 26:20 M ax: : 30:88

DET RN E
M in: : 14:45 M in: : 2:370
1stQu: : 24:84 1stQu: : 3:120
M edian : 27:06 M edian : 3:540
M ean : 25:13 M ean : 3:562
3rdQu: : 28:26 3rdQu: : 3:790
M ax: : 30:85 M ax: : 4:890
- Pour a¢ che l’image du nuage des individus et des colonne, on tape :
> plot(X)
R nous a¢ che la …gure :
3. Application 54

Figure 8 : Nuage des individus et des variables

Réalisation de l’ACP, résultats et interprétation

Utilisant la fonction "dudi.pca" du package ade4 pour exécuter une ACP et


ajouter comme paramètres "centre, scale" :
> ACP<-dudi.pca(X,center=TRUE,scale=FALSE,scannf=FALSE,nf=2)
- center = si TRUE, les données sont centrées à la moyenne (par défaut).
Si FALSE, les données ne sont pas centrées, dans ce dernier cas, un échantillon
n’ayant que des valeurs nulles est à l’origine. L’ordination obtenue n’est pas la
même. Le choix de centrer ou non dépend des données et des buts de l’analyse.
- scale = si TRUE, les données sont normées (ACP normée ou corrélation
matrix PCA en anglais : c’est l’option par défaut). Si FALSE, les données ne sont
pas normées (ACP non normée = covariance matrix PCA ou centered PCA).
L’ACP normée est obligatoire lorsque les variables sont en unités hétérogènes.
Si les unités sont homogènes, on a le choix : ACP normée pour donner la même
importance à toutes les variables, ACP non normée pour di¤érencier les variables
ayant de fortes ou faibles valeurs dans le tableau.
3. Application 55

- scannf = si TRUE, l’histogramme des valeurs propres est représenté (il faut
alors choisir le nombre d’axes quand la question est posée par le programme).
Si FALSE, l’histogramme n’est pas représenté, et il faut alors préciser le nombre
d’axes à garder avec l’option nf ci-après.
- nf = nombre de valeurs propres à conserver dans l’analyse (par défaut =
2).
Si on tappe :
> ACP
Le logiciel R a¢ che le résultat suivant :
Duality diagramm
class : pca dudi
$call : dudi.pca(df = X, center = TRUE, scale = FALSE, scannf = FALSE,
nf = 2)
$nf : 2 axis-components saved
$rank : 4
eigen values : 75.82 31.72 0.7773 0.2212
vector length mode content
1 $cw 6 numeric column weights
2 $lw 9 numeric row weights
3 $eig 4 numeric eigen values
data.frame nrow ncol content
1 $tab 9 6 modi…ed array
2 $li 9 2 row coordinates
3 $l1 9 2 row normed scores
4 $co 6 2 column coordinates
5 $c1 6 2 column normed scores
other elements : cent norm
Les éléments clés de ce résultat :
- call : cet objet garde une trace de la façon dont ont été conduit les calculs
lors de l’appel de la fonction "dudi.pca".
- nf : cet entier donne le nombre de facteurs conservés dans l’analyse.
- rank : cet entier donne le rang (rank) de la matrice diagonaliser.
- cw : (column weight) c’est un vecteur qui donne le poids des colonnes (poids
des variables). Par défaut, chaque variable a un poids de 1.
3. Application 56

- lw : (line weight) c’est un vecteur qui donne le poids des lignes (poids des
individus). Par défaut, chaque individus a un poids de n1 .
- eig : (eig values) c’est un vecteur qui donne les valeurs propres.
- tab : le data frame tab contient les données du tableau initial aprés centrage.
- li : donne les coordonnées des individus (lignes).
- l1 : donne les coordonnées des individus (lignes), les vecteurs sont de norme
unité.
- col : donne les coordonnées des variables (colonnes).
- c1 : donne les coordonnées des variables (colonnes), les vecteurs sont de
norme unité.
- cent : (cent pour centrage) ce vecteur donne les moyennes des variables
analysées.
> ACP$eig
[1] 75:8201143 31:7238616 0:7773070 0:2212107
> cumsum(ACP$eig)
[1] 75:82011 107:54398 108:32128 108:54249
- La matrice de variance-covariance :
> C<-as.matrix(ACP$tab)
> V<-(1/9)*(t(C)%*%C)
>V

IN V ST O CRE FPR DET RN E


IN V 28:888847 0:3074630 29:1941259 11:1997580 8:19200494 3:01263210
ST O 0:307463 0:5638889 0:8705222 2:1074852 1:93932593 0:16715185
CRE 29:194126 0:8705222 30:0616444 13:2993593 10:12457407 3:17865926
FPR 11:199758 2:1074852 13:2993593 24:5199580 23:87472716 0:64170988
DET 8:192005 1:9393259 10:1245741 23:8747272 23:86898765 0:00238642
RN E 3:012632 0:1671519 3:1786593 0:6417099 0:00238642 0:63917284

- D’aprés les résultats des valeurs propres, on remarque que l’inertie totale
est grande, cela signi…e que le nuage est trés dispersé auteur de centre de gravité.
Aussi d’aprés les résultats de la matrice variace-covariance , on remarque que
les variances des variables sont trés hétérogènes.
Alors, pour donner la même importance à toutes les variables, on retraite
les données par une analyse en composantes principales normée et on travaille
3. Application 57

avec les données aprés centrage et réduction. Pour cela on reexécute la fonction
"dudi.pca" avec le paramètre "scale=TRUE", on obtient le résultat :
> ACP<-dudi.pca(X,center=TRUE,scale=TRUE,scannf=FALSE,nf=2)
> ACP
Duality diagramm
class : pca dudi
$call : dudi.pca(df = X, center = TRUE, scale = TRUE, scannf = FALSE,
nf = 2)
$nf : 2 axis-components saved
$rank : 4
eigen values : 3.34 1.735 0.7589 0.1659
vector length mode content
1 $cw 6 numeric column weights
2 $lw 9 numeric row weights
3 $eig 4 numeric eigen values
data.frame nrow ncol content
1 $tab 9 6 modi…ed array
2 $li 9 2 row coordinates
3 $l1 9 2 row normed scores
4 $co 6 2 column coordinates
5 $c1 6 2 column normed scores
other elements : cent norm
- Alors, la matrice centrée réduite est :
> ACP$tab

IN V ST O CRE FPR DET RN E


2008 1:18597965 1:81997672 0:9131504 0:384599262 0:39481188 0:02779575
2009 0:86596980 0:96325597 0:9806335 1:200470276 1:17056264 0:28490639
2010 1:16365338 1:18964332 1:3034584 0:937937524 0:67727522 1:66079581
2011 0:52921525 1:21627713 0:6851668 0:544138396 0:51352835 0:23487405
2012 0:38058019 0:19531458 0:4000353 0:594625464 0:64043217 0:22792511
2013 1:00385518 0:43057986 0:9253095 0:002917031 0:09392702 0:55313534
2014 1:98062943 0:01775587 1:9393807 0:297985893 0:05958566 1:49124176
2015 0:36569601 0:99432875 0:4930526 1:432935175 1:24470358 1:26609622
2016 0:01405728 0:80789211 0:1246310 1:933766886 2:18624804 1:38561792
3. Application 58

- La matrice de corrélation :
> C<-as.matrix(ACP$tab)
>C

IN V ST O CRE FPR DET RN E


2008 1:18597965 1:81997672 0:9131504 0:384599262 0:39481188 0:02779575
2009 0:86596980 0:96325597 0:9806335 1:200470276 1:17056264 0:28490639
2010 1:16365338 1:18964332 1:3034584 0:937937524 0:67727522 1:66079581
2011 0:52921525 1:21627713 0:6851668 0:544138396 0:51352835 0:23487405
2013 0:38058019 0:19531458 0:4000353 0:594625464 0:64043217 0:22792511
2013 1:00385518 0:43057986 0:9253095 0:002917031 0:09392702 0:55313534
2014 1:98062943 0:01775587 1:9393807 0:297985893 0:05958566 1:49124176
2015 0:36569601 0:99432875 0:4930526 1:432935175 1:24470358 1:26609622
2016 0:01405728 0:80789211 0:1246310 1:933766886 2:18624804 1:38561792

> R<-(1/9)*(t(C)%*%C)
>R

IN V ST O CRE FPR DET RN E


IN V 1:00000000 0:07617824 0:9906586 0:4208077 0:3119666014 0:70108687
ST O 0:07617824 1:00000000 0:2114349 0:5667714 0:5286120208 0:27842310
CRE 0:99065858 0:21143493 1:0000000 0:4898516 0:3779665750 0:725151004
FPR 0:42080770 0:56677137 0:4898516 1:0000000 0:9868736564 0:16209503
DET 0:31196660 0:52861202 0:3779666 0:9868737 1:0000000000 0:000610971
RN E 0:70108688 0:27842310 0:7251510 0:1620950 0:0006109711 1:000000000

- Pour a¢ cher les valeurs propres :


> ACP$eig
[1] 3:3399723 1:7351824 0:7588988 0:1659462
> cumsum(ACP$eig)
[1] 3:339972 5:075155 5:834053 6:000000
- L’inertie en pourcentages et en pourcentages commulés :
> som<-sum(ACP$eig)
> inertiep<-ACP$eig/som*100
> inertiep
[1] 55:666208 28:919708 12:648313 2:765771
3. Application 59

> inertiepc<-cumsum(ACP$eig/som*100)
> inertiepc
[1] 55:66621 84:58592 97:23423 100:00000
- L’histogramme des valeurs propres (l’inertie en pourcentages) :
> barplot(inertiep)

Figure 9 : Histogramme des valeurs propres en %

Choix du nombre d’axes à retenir Nous utilisons pour cela le résultat du


pourcentages de l’inertie totale. Le premier axe porte 55:666208% de l’inertie
totale et le deusième axe porte 28:919708% de l’inertie totale. Le critère de
Kaiser nous conduit à sélectionner deux axes, expliquant 84% de l’inertie totale
du nuage. Aussi, d’aprés l’histogramme des valeurs propres, le critère du coude
conduit ici à sélectionner 2 axes. En e¤et, les deux premiers axes conservent
plus de 80% de l’inertie ce qui est très bon. Avec les deux premiers axes, nous
disposons donc d’un espace compréhensible par l’œil sans subir une déformation
trop prononcée du nuage.
3. Application 60

Qualité et contribution de la représentation a/ pour les individus :


> cos2<-ACP$li^2/apply(ACP$li^2,1,sum)
> cos2
Axis1 Axis2
2008 0:338819210 0:66118079
2009 0:921949115 0:07805089
2010 0:974214670 0:02578533
2011 0:930484307 0:06951569
2012 0:000204505 0:99979549
2013 0:400785971 0:59921403
2014 0:633781946 0:36621805
2015 0:912372113 0:08762789
2016 0:237950447 0:76204955
- La lecture de ce tableau nous montre que :
Les années 2009, 2010, 2011 et 2015 sont bien représentées sur l’axe1 mais les
années 2013 et 2014 ne sont pas bien représentées et les années 2008, 2012 et 2016
sont mal représentées. Sur l’axe2, les années 2012 et 2016 sont bien représentées
mais les années 2008 et 2013 ne sont pas bien représentées et les années 2009,
2010, 2011, 2014 et 2015 sont mal représentées.
b/ pour les varibles :
> inertia.dudi(ACP,col.inertia=T)$col.abs
Comp1 Comp2
IN V 2040 1449
ST O 879 1363
CRE 2335 1041
F P R 1972 1704
DET 1541 2419
RN E 1233 2025
Warning message :
In if (col.inertia) { :
the condition has length > 1 and only the …rst element will be used
- La lecture de ce tableau nous montre que :
Sur la première composante, les variables qui in‡uent le plus sont INV, CRE
et FPR.
Sur la deusième composante, les variables qui in‡uent le plus sont DET et
RNE.
3. Application 61

Interprétation des axes - L’exécution des commandes suivantes donne les


résultats :
a/ D’aprés les individus :
> ACP$li
Axis1 Axis2
2008 0:75346623 1:0525431
2009 2:24318921 0:6526816
2010 2:77368504 0:4512489
2011 1:45633753 0:3980604
2012 0:01236811 0:8647823
2013 0:92896202 1:1358806
2014 2:50583407 1:9048126
2015 2:26778001 0:7028070
2016 1:53647001 2:7496184
> s.label(ACP$li)

Figure 10 : Représentation graphique des individus dans les nouveaux axes

- Interprétation du graphe des individus :


3. Application 62

L’Axe 1 :
On utilise les résultats des coordonées des individus dans les nouveaux axes :
on compare les valeurs de la colonne Axis1 à la racine de la première valeur
p
propre 3:3399723=1.82755911, le signe donnant le sens de contribution. On
obtient :

- +
2014 2009
2015 2010
Le premier axe met donc en opposition la structure de bilan les années 2009
et 2010 aux deus années 2014 et 2015.
L’Axe 2 : On utilise les résultats des coordonées des individus dans les nou-
veaux axes : on compare les valeurs de la colonne Axis2, à la racine de la deusième
p
valeur propre 1:7351824=1.317263224, le signe donnant le sens de contribution.
On obtient :

- +
2016 2014
L’axe 2 oppose l’année 2014 à l’année 2016.
- On remarque aussi :
Suivant l’Axe 1, les années (2008, 2009, 2010, 2011) ont plus que la moyenne
de les postes (INV, FPR, CRE, DET, RNE) et les années (2013, 2014, 2015,
2016) ont moins que la moyenne de les postes (INV, FPR, CRE, DET, RNE).
Suivant l’Axe 2, les années (2009, 2011, 2012, 2013, 2014) ont plus que la
moyenne de les postes (DET, RNE) et les années (2008, 2010, 2015, 2016) ont
moins que la moyenne de les postes (DET, RNE).
b/ D’aprés les variables :
> ACP$co
Comp1 Comp2
IN V 0:8254079 0:5013737
ST O 0:5416940 0:4863493
CRE 0:8830852 0:4249946
FPR 0:8115719 0:5437368
DET 0:7175014 0:6478417
RN E 0:6418294 0:5927075
> s.corcircle(ACP$co)
3. Application 63

Figure 11 : Représentation graphique des variables dans les nouveaux axes

- Interprétation du graphe des variables (cercle de corrélation) :


L’Axe 1 : On utilise les résultat des nouveaux coordennées des variables : on
compare les valeurs de la colonne Comp1, coordonnées du premier axe factoriel,
à la racine de la contribution moyenne p16 =40.82%, le signe donnant le sens de
contribution. On obtient :

- +
CRE
IN V
DET
FPR
RN E
L’axe 1 oppose les postes CRE, DET et RNE aux postes INV et FPR.
Toutes les variables sont bien représentées sur l’axe excepté STO. La première
composante principale explique donc correctement tous les postes, sauf le dernier
poste (STO).
3. Application 64

L’Axe 2 : On utilise les résultat des nouveaux coordennées des variables, on


compare les valeurs de la colonne Comp2 à 40.82% le signe donnant le sens de
contribution. On obtient :

- +
RN E DET
L’axe 2 oppose le poste DET au poste RNE. Les autres variables sont assez
mal représentées sur l’axe, donc assez mal expliquées par celui-ci.
On remarque que les postes STO et FPR ont une forte corrélation entre eux
(corrélées positivement), le même pour les postes CRE et RNE, les postes INV et
DET ne sont pas corrélées, le même pour les postes STO et FPR avec les postes
CRE et RNE, la poste INV est corrélée négativement avec les postes CRE et
RNE, le même pour la poste DET et les postes STO et FPR
- Alors :
L’axe 1 oppose donc les années (2009,2010) et (2014,2015), marquées par
un poids important dans la structure de leur bilan des postes INV et FPR, et
un poids faible des postes CRE, DET et RNT aux années plus récentes, qui
présentent le pro…l inverse. Pour illustrer ce résultat, nous pouvons revenir aux
données sources. En nous servant des indications du tableau initial, nous avons :

Annee IN V CRE F P R DET RN E


2009 20:1 24:43 15:36 30:85 3:79
2010 18:59 26:20 16:66 28:44 4:89
2014 35:49 8:42 22:78 24:84 2:37
2015 26:81 16:35 28:40 19:05 2:55
M oyenne 25:27 18:85 20:80 25:80 3:40
M inimum 18:59 8:42 15:36 19:05 2:37
M aximum 35:49 26:20 28:40 30:85 4:89
L’axe 2 oppose les années 2014 et 2016, caractérisées par un poids important
du poste DET et un poids faible du poste RNE. La encore, un retour aux données
brutes vient con…rmer cette interprétation :
3. Application 65

Annee DET RN E
2014 24:84 2:37
2016 14:45 4:67
M oyenne 19:645 3:52
M inimum 14:45 2:37
M aximum 24:84 4:67
Conclusion

L’interprétation de l’ACP peut être achevée par une analyse des proximités
entre points sur les plans factoriels. En e¤et, au vu des graphiques, on peut distin-
guer plusieurs groupes. Avant d’interpréter ces proximités, il s’agit de s’assurer
de la qualité de représentation des points :
Les individus sont donc tous à peu près bien représentés sur les axes. Les
variables bien représentées sont celles qui sont proches du bord du cercle des
corrélations (telles que ; en particulier les variables qui sont situées sur les axes
et de coordonnée 1).
Ici, schématiquement, trois périodes apparaissent :
- La période de 2008 à 2011 : Le bilan est alors marqué par les postes créances
(CRE), dettes (DET) et résultats net et résultats d’exercices (RNE).
- La période de l’année 2012 à l’année 2014 : Le bilan est alors marqué par
le poste dettes (DET), le poste d’investissements (INV) est peu important.
- La période de l’année 2015 à l’année 2016 : Le bilan est alors marqué par
le poste résultats net et résultats d’exercices (RNE), le poste d’investissements
(INV) est peu important.

66
Bibliographie

[1] Andrés Bouchier, L’analyse des données à l’usage des non mathématiciens
2ème Partie L’analyse en composantes principales, Janvier 2006, AGRE M-
INRA-Formation Permanente
[2] Antoine Ayache et Julien Hamonier, Cours de Statistique Descriptive
[3] Antoine Gournay, Analyse statistique multivariée, Septembre 2012, Institut
de Mathématiques Univercité de Neuchâtel
[4] Arnoud MARTIN, L’analyse de données, Septembre 2004, Polycopie de
cours ENSIETA.Réf1463
[5] C. DUBY et S. ROBIN, Analyse en Composantes Principales, 10 juillet
2006, Institut National Algonomique Paris
[6] Emmanual Duguet, Rappels de Statistiques et d’Algèbre Linéaire, Sep-
tembre 2010
[7] Emmanuel ROUX, Alfredo HERNANDEZ et Guy CARRAULT, Méthodes
d’Analyses Factorielles ACP et AFCM, Avril 2004
[8] Gilbert SAPORTA, Probabilités, analyse des données et statistique 2006
[9] Jean-Marc Labatte, Biostatistique Rappels de cours et travaux dirigés Ana-
lyse des données, 2011-2012
[10] Jean-Marc Lasgouttes, Variables quantitatives : analyse en composantes
principales
[11] M.Taleb, Paramètres de dispertion
[12] Maghlaoui DAKHMOUCHE, Introduction à la Statistique Descriptive,
Ecole Préparation en Siences Economiques Commerciale et des Siences
de Gestion de Constantine
[13] Maxime HERVE, Aide-mémoire de statistique appliquée à la biologie Rap-
pels de statistique descriptive, 2010
[14] Nicolas MEYER, Statistique descriptive, Novembre 2010, Laboratoire de
Biostatistique et Informatique Médicale Fac de Médcine de Strasbourg
[15] Pierre-Louis GONZALEZ, L’ANALYSE EN COMPOSANTES PRINCI-
PALE A.C.P

67

Vous aimerez peut-être aussi