Vous êtes sur la page 1sur 3

Analyse en Composantes Principales

1. Statistique descriptive
La variable qui a la valeur la plus élevée est celle qui donne le plus de satisfaction au
consommateur et vice versa.

Ecart-type moins de dispersion chose qui implique une certaine homogénéité


quant au degré de satisfaction des individus.

2. Matrice de corrélation
La matrice de corrélation nous permet de déceler les variables à forte corrélation
pouvant être regroupées.

Les variables « … » « … » sont fortement corrélées avec une corrélation égale à …

3. Indice KMO et test de BARLETT


– L’indice KMO étant égal à … > 0,6 est moyennement fort ce qui est
indispensable pour obtenir une ACP intéressante.
Le KMO est < 0,5 alors la suppression des variables initiales n’est pas
nécessaire.

 Si la valeur du Khi-deux est élevée et la signification = 0 alors les variables sont


suffisamment corrélées.

4. Variance totale expliquée


Dans le tableau de la variance totale expliquée on ne retient que les valeurs propres
qui sont supérieures à 1, dans ce cas elles correspondent aux X premières
composantes qui équivalent …% de variance cumulée expliquée.

La première valeur propre représente à elle seule plus de …% de variance expliquée


car elle représente le plus de variables et donc détient la plus grande part
d’informations.

Malgré la réduction des variables de N variables à X composantes principales, la


richesse de ces dernières en termes d’information retenus dépasse les Y%

5. Graphique des valeurs propres


Les valeurs récupérées jusqu’au coude correspondent au nombre d’axes retenus
« Cependant on ne retient que les X premières composantes pour une représentation
en X axes parce que leurs valeurs propres sont supérieures à 1. »

6. Matrice des composantes


La matrice des composantes nous permet de vérifier que le point est bien représenté
graphiquement, et ceci grâce aux X composantes 1, 2 (et 3) pour ce il faut les lever au
carré et leur somme doit être > 1.

▪ La variable « … » : ?² + ?² + ?² = …
▪ La variable « … » : ?² + ?² + ?² = …
▪ La variable « … » : ?² + ?² + ?² = …

Les trois variables sont bien représentées graphiquement donc leurs points sont
proches du cercle de corrélation.

7. Diagramme
Plus les individus sont regroupés autour de l’origine de l’axe qui représente la
moyenne de l’échantillon, plus il y a de différence à distinguer les différents groupes.
Observer la répartition des individus sur le plan et essayer de mettre en évidence la
formation de groupes homogènes.

8. Diagramme de composantes
Plus les variables sont proches par rapport au axes qui les représentes moins une
rotation est nécessaire.

Grâce à ce diagramme nous constatons que les variables sont suffisamment proches
par rapport aux axes qui les représentent, une rotation n’est donc pas nécessaire.

9. Qualité de représentation
Représente la qualité d’extraction pour chaque variable. Plus l’extraction est proche
de 1 plus la variable qui lui correspond est mieux représentée.

On peut constater que …% de la variance de la variable vitesse est expliquée par les X
composantes extraites et qu’ elle a une très bonne qualité de représentation.

- D’après les valeurs d’extraction qui sont largement supérieur à 0,5 on déduit qu’il
s’agit d’une bonne représentation de variables. -
Analyse Typologique
1. Matrice de proximité
Cette matrice révèle les distances existantes entre les différentes variables, par
conséquent plus la distance entre deux variables est faible plus on peut facilement les
agréger.

Dans ce cas-là, on peut agréger « … » avec « … », aussi « … » avec « … », également


« … » avec « … ».

2. Chaine des agrégations


Historique des regroupements les deux classes les plus proches sont regroupées . La
distance entre les deux classes regroupées est affichée dans la colonne coefficients,
selon un ordre croissant.

Dans l’étape de l’apparition de la classe figure la dernière phase où sont apparus les
groupes pour la dernière fois.

3. Dendrogramme
Les regroupements les plus intéressants sont ceux obtenus après un saut du
coefficient important, c’est-à-dire, le découpage résultant du regroupement de deux
classes nettement plus éloignées que les précédentes

Dans ce cas-là il est intéressant de faire une coupe entre la Xème et la Yème étape, vu
qu’on note un saut très important après ce niveau-là.

4. ANOVA
Permet de déterminer les variables ayant le plus contribuées au regroupement. Elles
correspondent aux variables ayant les plus grandes valeurs de Fisher. Les
significations ne sont pas ici interprétables

La variable « … » se distingue par la faible valeur de son Fisher qui est égale à … .
C’est elle qui a contribué le moins au regroupement .

Vous aimerez peut-être aussi