Composantes Principales
1ère année
Notes de Cours
J. Gergaud
Octobre 2006
Table des matières
1 Algèbre linéaire 1
1 Espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Noyau, Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1 Somme d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.3 Matrices et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.4 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.5 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6 Matrices et systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2 Algorithme de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
7 Valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
7.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
7.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
8 Produit scalaire, norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
8.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
8.2 Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
8.3 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9 Décomposition en valeurs singulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9.1 Théorèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9.2 Décomposition en valeurs singulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
10 Espace affine, barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.2 Espace affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.3 Distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.4 Barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
i
ii TABLE DES MATIÈRES
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Inertie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Analyse des individus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Analyse des variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.5 Relations de dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.6 Reconstitution des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.7 Qualité globale de l’ajustement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.8 Individus et variables supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.9 Éléments pour l’interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10 Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.11 Individus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.12 Remarque sur la dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Applications 41
1 Dépenses de l’État . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1 Données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.3 Questions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.4 Réponses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2 Budget-Temps multimédia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.1 Données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.3 Questions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4 Réponses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3 Traitement d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1 Problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2 ACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Algèbre linéaire
1 Espace vectoriel
1.1 Définition
Définition 1.1.1 (Espace vectoriel sur R). Un espace vectoriel sur R est un ensemble E non vide muni de deux
oprérations, l’addition notée + et la multiplication par un scalaire notée ., ayant les propriétés suivantes :
(i) L’addition est une application de E × E dans E qui vérifie :
~ ∈ E 3 (~u + ~v ) + w
(a) ∀(~u, ~v , w) ~ = ~u + (~v + w)
~
(b) ∀(~u, ~v ) ∈ E 2 ~u + ~v = ~v + ~u
(c) il existe un élément appelé vecteur nul et noté ~0 tel que : ∀~u ∈ E ~u + ~0 = ~0 + ~u = ~u
(d) pour tout ~u ∈ E il existe un élément de E appelé opposé de ~u et noté −~u tel que : ~u +(−~u) = (−~u)+~u = ~0
(ii) la multiplication par un scalaire est une application de R × E dans E qui vérifie :
(a) ∀(α, β) ∈ R2 , ∀~u ∈ E, (α + β)~u = α~u + β~u
(b) ∀α ∈ R, ∀(~u, ~v ) ∈ E 2 α(~u + ~v ) = α~u + α~v
(c) ∀~u ∈ E 1.~u = ~u
(d) ∀(α, β) ∈ R2 , ∀~u ∈ E, (αβ).~u = α.(β.~u)
Remarque 1.1.2. Un même symbole a des significations différentes :
(i) + désigne l’addition dans R et l’addition dans l’espace vectoriel ;
(ii) . désigne la multiplication dans R et la multiplication par un scalaire.
Définition 1.1.3 (Vecteur,scalaire). On appelle vecteur tout élément d’un espace vectoriel et on note ~u un vecteur.
On appelle scalaire tout élément de R.
Exemple 1.1.4. Sur E = R2 , on définit les opérations + et . par :
u1 + v1
~u + ~v =
u2 + v2
où
u1 v1
~u = et ~v =
u2 v2
et
λu1
λ~u =
λu2
(R2 , +, .) est alors un espace vectoriel sur R.
Exemple 1.1.5. On généralise sans difficultés l’exemple précédent à Rn :
u1 + v1
u2 + v2
~u + ~v =
..
.
un + vn
1
2 CHAPITRE 1. ALGÈBRE LINÉAIRE
où
u1 v1
u2 v2
~u = et ~v =
.. ..
. .
un vn
et
λu1
λu2
λ~u =
..
.
λun
Exemple 1.1.6. Soit F = l’ensemble des applications de R dans R
+ : F × F −→ F
(f, g) 7−→ f + g
où
f + g : R −→ R
x 7−→ f (x) + g(x)
et
. : R × F −→ F
(λ, f ) 7−→ λ.f
où
λf : R −→ R
x 7−→ λf (x)
(F, +, .) est un espace vectoriel.
Remarque 1.1.7. Le dernier exemple montre que la représentation des vecteurs par des flècles n’est pas toujours
adaptée. C’est pourquoi nous noterons maintenant les vecteurs sans cette flèche (sauf lorsque nous parlerons de
vecteurs de l’espace vectoriel associé à l’espace affine (cf. section 10). Il faudra donc faire attention pour savoir
quel objet on manipulera, c’est le contexte qui différenciera ceux-ci. En particulier 0 désignera le zéro de R ou le
vecteur nul.
Définition 1.1.8 (Sous espace vectoriel). Soit E un espace vectoriel sur R alors F sera un sous espace vectoriel
de E si et seulement si F est un sous ensemble de E et si (F, +, .) est un espace vectoriel.
Théorème 1.1.9. Si F et G sont deux sous espaces vectoriels de E alors F ∩ G est un sous espace vectoriel de E.
Démonstration
Immédiate 2
1.2 Base
Définition 1.2.1 (Combinaison linéaire). Soit {u1 , u2 , . . . , un } une partie finie d’un espace vectoriel E. Un vecteur
u est dit combinaison linéaire de {u1 , u2 , . . . , un } si et seulement si il exite (α1 , α2 , . . . , αn ) ∈ Rn tel que :
n
X
u= αi ui = α1 u1 + · · · + αn un
i=1
Théorème 1.2.2. Le plus petit espace vectoriel qui contient un ensemble U est constitué de l’ensemble des com-
binaisons linéaires d’éléments de U . On note cet ensemble V ect(U ).
Démonstration
Triviale 2
Définition 1.2.3. On appelle sous espace engendré par U le sous espace V ect(U ).
Exemple 1.2.4. Prenons un vecteur u différent du vecteur nul dans (R3 , +, .). L’ensemble V ect(u) = {v ∈ R3 /v =
αu; α ∈ R} est appelé droite vectorielle.
Définition 1.2.5 (Espace vectoriel de dimension finie). Un espace vectoriel est de dimension finie s’il existe une
partie finie qui l’engendre. Si cette condition n’est pas réalisée, l’espace est dit de dimension infinie.
1. ESPACE VECTORIEL 3
En effet
∀u = (u1 , u2 , u3 ) ∈ R3 on a u = u1 e1 + u2 e2 + u3 e3
Par suite R3 est de dimension finie.
(ii) L’espace vectoriel E = F des fonctions de R dans R est de dimension infinie.
Définition 1.2.7 (Vecteurs indépendants). n vecteurs {u1 , . . . , u2 } d’un espace linéaire sont dits indépendants si
et seulement si :
α1 u1 + · · · + αn un = 0 =⇒ α1 = · · · = αn = 0
On dit aussi que la famille (u1 , . . . , un ) est libre.
Remarque 1.2.8. Une famille non libre est dite liée et les vecteurs {u1 , . . . , u2 } sont dits linéairement dépendants.
La famille (u1 , . . . , u2 ) est liée si et seulement si ∃(α1 , . . . , αn ) 6= (0, . . . , 0) ∈ Rn tel que α1 u1 + · · · + αn un 6= 0
Théorème 1.2.9. Soient E un espace vectoriel et (u1 , . . . , un ) une famille libre, alors tout vecteur u de V ect({u1 , . . . , un }
s’écrit de façon unique comme combinaison linéaire des vecteurs {u1 , . . . , un }.
Démonstration
Soient (αi )i=1,...,n et (βi )i=1,...,n deux n-uplets tels que
u = α1 u1 + · · · + αn un = β1 u1 + βn un
alors
(α1 − β1 )u1 + · · · + (αn − βn )un = 0
Or la famille (u1 , . . . , un ) est libre donc α1 − β1 = · · · = αn − βn = 0 D’où l’unicité. L’existence provient tout
simplement de la définition de l’ensemble V ect({u1 , . . . , un }) 2
Définition 1.2.10 (Base). Soit E un espace vectoriel. Un famille de n vecteurs e = (e1 , . . . , en ) est une base de E
si et seulement si e engendre E et si e est libre.
Théorème 1.2.11. Soit E un espace vectoriel et e = (e1 , . . . , en ) une base de E alors tout vecteur s’écrit de façon
unique comme combinaison linéaire des éléments de la base :
n
X
u= αi ei
i=1
Les (αi )i=1,n s’appelle les composantes du vecteur u dans la base B ou les coordonnées du vecteur u dans la base e.
Démonstration
Evidente 2
Théorème 1.2.12. Tout espace vectoriel de dimension finie admet une base et toutes les bases ont le même nombre
d’éléments.
Démonstration
Admise 2
Définition 1.2.13 (Dimension). On appelle dimension d’un espace vectoriel de dimension finie le nombre n
d’éléments d’une base de cet espace. L’espace vectoriel est alors dit de dimension n.
Exemple 1.2.14. (i) (R2 , +, .) est un espace vectoriel de dimension 2 : e1 = (0, 1); e2 = (0, 1) est une base
(ii) (Rn , +, .) est un espace vectoriel de dimension n : (e1 , . . . , en ) où
ei = (0, . . . , 0, 1, 0, . . . , 0)
2 Application linéaire
Dans toute cette section E et F seront des espaces vectoriels sur R.
2.1 Définition
Définition 2.1.1 (Application linéaire). Une application f de E dans F est linéaire si elle vérifie les deux propriétés
suivantes :
(i) ∀(u, v) ∈ E 2 f (u + v) = f (u) + f (v)
(ii) ∀u ∈ E, ∀α ∈ R f (αu) = αf (u)
Xn n
X
f( αi ui ) = αi f (ui )
i=1 i=1
Exemple 2.1.3.
f :E −→ F
u 7−→ 0
est une application linéaire appelée application nulle.
Exemple 2.1.4.
f :E −→ E
u 7−→ u
est une application linéaire appelée application identité.
Définition 2.1.5 (Endomorphisme). On appelle endomorphisme toute application linéaire de E dans lui-même.
Définition 2.1.6 (Forme linéaire). On appelle forme linéaire toute application linéaire à valeurs dans R.
Définition 2.1.7 (isomorphisme). On appelle isomorphisme toute application linéaire de E dans F bijective.
Démonstration
Soit f : E → F une application linéaire alors pour tout vecteur u et v de Ker f et pour tout scalaire α et β on a :
Théorème 2.2.4. Une application linéaire f est injective si et seulement si Ker f = {OE }.
2. APPLICATION LINÉAIRE 5
Démonstration
Soit f une application linéaire de E dans F injective alors
u 6= OE ⇒ f (u) 6= f (0E ) = 0F
donc u n’appartient pas à Ker f . Réciproquement soit f de E dans F une application linéaire telle que Ker f =
{OE }. Si u et v sont deux vecteurs de E on a f (u) = f (v) si et seulement si f (u − v) = 0F . donc u − v appartient
à Ker f . Par suite u − v = 0E et donc u = v. En conclusion f est injective 2
Définition 2.2.5 (Image). Soit f une application linéaire de E dans F . On appelle image de f l’ensemble :
Im f = {v ∈ F/∃u ∈ Ef (u) = v}
Remarque 2.2.6. Im f ⊂ F .
Théorème 2.2.7. Im f est un sous espace vectoriel de F .
Démonstration
Triviale 2
Notation 2.2.8. On note L(E, F ) l’ensemble des applications linéaires de E dans F .
Théorème 2.2.9. (L(E, F ), +, .) est un sous espace vectoriel de (F(E, F ), +, .)
Démonstration
Triviale 2
Théorème 2.2.10. Soient E, F et G trois espaces vectoriels sur R. Soit f (respectivement g) une application
linéaire de E dans F (respectivement de F dans G). Alors l’application h = g ◦ g est une application linéaire de E
dans G.
Démonstration
Immédiate 2
Définition 2.2.11 (Rang d’une application linéaire). Soit f une application linéaire de E dans F , E et F espaces
vectoriels de dimensions finies. On appelle rang de f la dimension de l’espace vectoriel Im f .
Théorème 2.2.12. Soit f une application linéaire de E dans F , E et F espaces vectoriels de dimensions finies.
Soit (e1 , . . . , en ) une base de E alors le rang de f est le rang de la famille de vecteurs {f (e1 ), . . . , f (en )}.
Théorème 2.2.13 (Théorème du rang). Soit f une application linéaire de E dans F , E et F espaces vectoriels
de dimensions finies alors on a :
dimE = dim ker f + dimIm f
Démonstration
Admise 2
Théorème 2.2.14. Soient E et F deux R espaces vectoriels de dimensions finies et f une application linéaire de
E dans F , on a alors les équivalences suivantes :
(i) f est injective si et seulement si Ker f = {0E }.
(ii) f est surjective si et seulement si Im f = F .
(iii) f est bijective si et seulement si f transforme une base de E en une base de F .
Démonstration
Admise 2
Remarque 2.2.15. Si f application linéaire de E dans F , espaces vectoriels de dimensions finies, transforme une
base de E en une base de F , alors f transforme toute base de E en une base de F .
Remarque 2.2.16. Si f est un isomorphisme de E dans F alors les dimensions de E et F sont égales.
Théorème 2.2.17. Soient E et F deux espaces vectoriels de même dimension finie, alors les propriétés suivantes
sont équivalentes.
(i) f est bijective.
(ii) f est injective.
(iii) f est surjective.
6 CHAPITRE 1. ALGÈBRE LINÉAIRE
3 Projecteurs
3.1 Somme d’espaces vectoriels
Définition 3.1.1 (Somme de deux espaces vectoriels). Soient E et F deux sous espace d’un espace vectoriel de
dimension finie G. On appelle somme de E et F le plus petit sous espace vectoriel qui contient E et F . On note
E + F ce sous espace vectoriel.
Théorème 3.1.2. On a :
E + F = {w ∈ G/w = u + v u ∈ E v ∈ F }
Démonstration
Immédiate 2
Définition 3.1.3 (Somme directe). La somme de deux espaces est directe si et seulement si tout vecteur w de
E + F s’écrit de façon unique comme la somme d’un élement u de E et d’un élement v de F . On note E ⊕ F la
somme directe de E et F .
Exemple 3.1.4. Dans R3 on considère E (respectivement F ) le sous espace vectoriel d’équation x = 0 (respecti-
vement y = 0). On a R3 = E + F . En effet on peut toujours écrire :
x 0 x
y = y + 0
z z 0
Mais cette somme n’est pas directe car on peut aussi écrire :
x 0 x
y = y + 0
z 0 z
Exemple 3.1.5. Dans R3 on considère E (respectivement F ) le sous espace vectoriel d’équation x = 0 (respecti-
vement y = z = 0). On a R3 = E ⊕ F . En effet on peut toujours écrire :
x 0 x
y = y + 0
z z 0
u=u+0=0+u
Démonstration
Admise 2
Corollaire 3.1.8. Soient E et F deux sous espaces vectoriels de dimensions finies et d’intersection réduite au
vecteur nul alors :
dim(E ⊕ F ) = dimE + dimF
4. MATRICES 7
3.2 Définition
Définition 3.2.1 (Projection). Soient E = F ⊕ G on appelle projection de E sur F suivant G ou parallèlement à
G l’application définie par :
p:E −→ E
u 7−→ u1
où u = u1 + u2 avec u1 ∈ F et u2 ∈ G.
Théorème 3.2.2. Une projection est un endomorphisme.
Démonstration
Il suffit de montrer que p est linéaire. Soient donc u et v deux vecteurs de E et α et β deux scalaires. Alors
4 Matrices
4.1 Définitions
Définition 4.1.1 (Matrice). Une matrice réelle de type (n, p) est une application A de {1, . . . , n} × {1, . . . , p} dans
R.
A : {1, . . . , n} × {1, . . . , p} −→ R
(i, j) 7−→ A(i, j) = ai,j
Notation 4.1.2. – On note M(n,p) l’ensemble des matrices réelles de type (n, p).
– Une matrice de type (n, p) réelle est notée comme un tableau à n lignes et p colonnes de nombres réelles :
a11 · · · a1j · · · a1p
.. .. ..
. . .
A= a
i1 · · · a ij · · · a ip = (aij )
. . .
.. .. ..
an1 · · · anj · · · anp
(i) i est l’indice de ligne
(ii) j est l’indice de colonne
Définition 4.1.3 (Sous matrice). Soit A une matrice de type (n, p) sur R, on appelle sous matrice de A toute
restriction de A à I × J où I ∈ {1, . . . , n} et J ∈ {1, . . . , p}.
Exemple 4.1.4. Soit
a0 a00 a00
a a
A= b b0 b00 B = b b00
c c0 c00 c c00
B est une sous matrice de A
8 CHAPITRE 1. ALGÈBRE LINÉAIRE
Définition 4.1.5 (Matrice ligne, matrice colonne). On appelle matrice ou vecteur ligne (respectivement colonne)
toute matrice à une ligne (respectivement colonne), c’est-à-dire de type (1, p) (respectivement (n, 1)).
Exemple 4.1.6.
a11
L = (a11 , . . . , a1p ) C = ...
an1
Définition 4.1.7 (Matrice carrée). On appelle matrice carré d’ordre n toute matrice de type (n, n), c’est-à-dire
toute matrice à n lignes et n colonnes. Si A est une matrice carrée, on appelle diagonale de A les termes (aii ). On
note Mn l’ensemble des matrice carrés d’ordre n, c’est-à-dire de type (n, n).
Définition 4.1.8 (Matrice triangulaire). On appelle matrice triangulaire supérieure (respectivement inférieure)
toute matrice carrée A = (aij ) d’ordre n telle que :
Définition 4.1.14 (Transposée). Soit A = (aij ) une matrice de type (n, p). On appelle transposée de A la matrice
B = (bij ) de type (p, n) définie par :
bij = aji
t
On notera B = A
0 3
t 0 1 2
Exemple 4.1.15. A = 1 −2 A=
3 −2 5
2 5
La transposée inverse le rôle des lignes et des colonnes.
Remarque 4.1.16. On a la propriété : t (t A) = A
Définition 4.1.17 (Matrice symétrique). Une matrice carrée A est symétrique si et seulement si elle est égale à
sa transposée.
1 1 2
Exemple 4.1.18. A = 0 0 4 n’est pas symétrique
0 0 3
1 1 2
A = 1 0 4 est symétrique
2 4 3
Remarque 4.1.19. Le terme symétrie vient de ce que la matrice est symétrique par rapport à sa diagonale.
4. MATRICES 9
On note C = AB.
0 3
0 0 1 2 1
Exemple 4.2.7. Soit A = 1 −2 et B = alors
2 0 2 3 −1
2 5
0 0 1 2 1
2 0 2 3 −1
0 3 6 0 6 9 −3
1 −2 −4 0 −3 −4 3
2 5 10 0 12 19 −3
6 0 6 9 −3
C = AB = −4 0 −3 −4 3
10 0 12 19 −3
Théorème 4.2.8. (i) L’addition de matrice est associative et commutative :
(a) A + (B + C) = (A + B) + C
(b) A + B = B + A
(ii) (Mn,p , +, .) est un espace vectoriel de dimension np. Une base de Mn,p est (Eij )ij avec :
j
0 ... 0 ... 0
.. . . ..
. . .
Ei,j = 0 . . . 1 i
... 0
.. .. .
. ..
.
0 ... 0 ... 0
Remarque 4.2.10. Pour pouvoir multiplier deux matrices il faut que le nombre de colonnes de la première matrice
soit égale au nombre de lignes de la seconde. Par suite le produit AB peut exister sans que le produit BA ait un
sens. Même
quand les deuxproduitsexistent nous n’avons pas nécessairement AB = BA
0 0 0 1
A= et B = alors
0 1 0 0
0 0 0 1
AB = et BA =
0 0 0 0
Théorème 4.2.11. Soit A une matrice de type (n, p) et B une matrice de type (p, n) alors :
T r(AB) = T r(BA)
Démonstration
n X
X p
T r(AB) = ( aik bki )
i=1 k=1
p X
X n
T r(BA) = ( bik aki )
i=1 k=1
Il suffit d’intervertir les indices i et k pour avoir le résultat 2
Définition 4.2.12 (Matrice inversible). Une matrice carrée A d’ordre n est dite inversible si et seulement si il
existe une matrice carrée B d’ordre n telle que :
AB = BA = In
−1
On note Al’inverse de A si elle existe.
0 0
Exemple 4.2.13. A = n’est pas inversible en effet quel que soit la matrice B carrée d’ordre 2 on aura :
0 1
0 0
AB = 6= I2
b21 b22
2 0 1/2 0
Exemple 4.2.14. A = ; A−1 =
0 1 0 1
Par suite si nous notons x (respectivement y) le vecteur colonne des coordonnées de ~x dans la base e (respectivement
~y dans la base f ), nous avons : y = Ax D’où la définition suivante
Définition 4.3.1 (Matrice associée à une application linéaire). Soient E et F deux espaces vectoriels réels de
dimension p et n. Soient e = (e1 , . . . , ep ) (respectivement f = (f1 , . . . , fn )) une base de E (respectivement de F )
et soit u une application linéaire de E dans F . On appelle matrice de u relativement aux bases e et f la matrice
de type (n, p) notée M(u, e, f ) définie par :
n
X
M(u, e, f ) = (aij )i=1,...,n où u(ej ) = aij fi
i=1
Notation 4.3.2.
u(e1 ) . . . u(ej ) . . . u(ep )
a11 . . . a1j . . . a1p f1
.. .. .. ..
. . .
.
M(u, e, f ) ai1
= . . . aij . . . aip fi
. .. .. ..
.. . . .
an1 . . . anj . . . anp fn
4. MATRICES 11
Nous considérons
Pici les ensembles Rn comme un espace vectoriel. Soit (~e1 , . . . , ~en ) une base de Rn
n
Un vecteur ~x = i=1 xi~ei de cet ensemble aura alors pour coordonnées dans cette base :
x1
..
.
xi
.
..
xn
Nous appellerons base canonique de Rn la base où :
0
..
.
ième
1 ←i
~ei = ligne
.
.
.
0
Si nous nous donnons une base dans Rn et une base dans Rp nous pouvons alors identifié les vecteurs de Rn et de
Rp avec leurs coordonnées. Cette identification étant faite à chaque matrice A = (aij ) de type (n, p) nous pouvons
alors associer une application linéaire de Rp à valeur dans Rn de la façon suivante :
f : Rp −→ Rn
x 7−→ y = Ax
Dans les exemples qui suivent nous considérons R2 muni de sa base canonique.
3 0
Exemple 4.3.3. Si A = alors f est une homotétie de rapport 3 du plan
0 3
0 1
Exemple 4.3.4. Si A = alors f est la symétrie par rapport à la première bissectrice du plan
1 0
cos(θ) − sin(θ)
Exemple 4.3.5. Si A = alors f est la rotation d’angle θ dans le plan
sin(θ) cos(θ)
1 0
Exemple 4.3.6. Si A = alors f est est la projection sur la première bissectrice parallèlement à l’axe
1 0
des ordonnées.
Théorème 4.3.7. Soient E et F deux espaces vectoriels réels de dimensions finies et soient u et v deux applications
linéaires de E dans F alors :
M(u + v, e, f ) = M(u, e, f ) + M(v, e, f )
et
∀α ∈ R M(αu, e, f ) = αM(u, e, f )
Démonstration
Immédiate 2
Théorème 4.3.8. Soient E, F et G trois espaces vectoriels réels de dimensions n, m et p. Soient e, f et g trois bases
de E, F et G. Enfin soient u et v deux applications linéaires de E dans F et de F dans G. On pose A = M(u, e, f )
et B = M(v, f, g) alors :
C = M(v ◦ u, e, g) = M(v, f, g)M(u, e, f ) = BA
Démonstration
e = (e1 , . . . , ep ), f = (f1 , . . . , fm ) et g = (g1 , . . . , gn ).
n
X
v ◦ u(ej ) = cij gi
i=1
m
X m
X m
X Xn
= v(u(ej )) = v( akj fk ) = akj v(fk ) = akj ( bik gi )
k=1 k=1 k=1 i=1
n X
X m
= ( bik akj )gi
i=1 k=1
2
12 CHAPITRE 1. ALGÈBRE LINÉAIRE
Théorème 4.3.9. Soit E un espace vectoriel réel de dimension finie n. Soit u un endomorphisme de E, c’est-à-
dire une application linéaire de E dans lui-même. Enfin, soit e une base de E et A la matrice asociée à u dans la
base e. Alors A est inversible si et seulement si u est inversible.
Démonstration
A = M(u, e, e) est inversible si et seulement si il existe B telle que AB = BA = I. B représente une application
linéaire v de E dans E. Ceci est donc équivalent à
M(u, e, e)M(v, e, e) = M(v, e, e)M(u, e, e) = M(Id, e, e)
Mais M(u ◦ v, e, e) = M(v, e, e)M(u, e, e). On en déduit alors le résultat 2
Théorème 4.3.10. Une matrice carré A est inversible si et seulement si ses n vecteurs colonnes sont linéairement
indépendants.
Démonstration
soit u une application linéaire et e une base telles que A = M(u, e, e). A est inversible si et seulement si u est
inversible et donc si et seulement si (u(e1 ), . . . , u(en )) forme une base de E. cqfd 2
Théorème 4.3.11 (Matrice d’un projecteur). Soit p une application linéaire de E sur E, e une base de E et P
la matrice de p dans cette base. Alors p est projecteur si et seulement si P 2 = P .
Démonstration
On sait que p est un projecteur si et seulement si p ◦ p = p, et donc si P P = P 2
Définition 4.4.2 (Matrice de passage). On appelle P la matrice de passage de l’ancienne base e dans la nouvelle
base e0 .
Remarque 4.4.3. (i) La matrice de passage e à e0 est :
... e0j ...
..
.
P ...
= pij . . . ei
..
.
Définition 4.4.5 (Matrices équivalentes). Deux matrices A et B de type (n, p) sont dites équivalentes si et
seulement si il existe deux matrices carrées inversibles P et Q d’ordre p et n telles que :
B = Q−1 AP
Remarque 4.4.6. Deux matrices sont équivalentes si elles représentent la même application linéaire dans deux
bases différentes.
Définition 4.4.7 (Matrices semblables). Deux matrices carrées d’ordre n £A£ et £B£ sont semblables si et
seulement si il existe une matrice carré P inversible d’ordre n telle que :
B = P −1 AP
Remarque 4.4.8. Deux matrices carrées sont semblables si et seulement si elle représente le même endomorphisme
dans deux bases différentes. Si A = M(u, e, e) et B = M(u, e0 , e0 ) alors B = P −1 AP avec P = M(I, e0 , e).
5 Déterminants
La notion de déterminant d’une matrice est difficile nous ne donnerons ici qu’un mode de calcul obtenu de façon
récursive et les principaux théorèmes.
5.1 Définition
On note Aij la sous matrice de A obtenue en supprimant la iième ligne et la j ième colonne de A.
Définition 5.1.1 (Déterminant). (i) Si A est d’ordre n > 1 alors
n
X n
X
det(A) = (−1)i+k aik det(Aik ) = (−1)j+k akj det(Akj )
k=1 k=1
(ii) Si A est d’ordre 1, c’est-à-dire un réel a, alors det(A) = a
Pn
Remarque 5.1.2.PDans la formule k=1 (−1)i+k aik det(Aik ) on dit que l’on a développé par rapport à la iième ligne
n
et dans la formule k=1 (−1)j+k akj det(Akj ) on dit que l’on a développé par rapport à la j ième colonne. On démontre
que ces formules donnent bien le même résultat quel que soit la ligne i où la colonne j considérée. Dans le membre
de droite on a des matrices d’ordre n−1, par suite en itérant le processus on peut se ramener à des matrices d’ordre
1.
Exemple 5.1.3. Considérons une matrice carrée d’ordre 2. Alors
a11 a12
det = (−1)1+1 a11 det(a22 ) + (−1)1+2 a21 det(a12 ) = a11 a22 − a21 a12
a21 a22
Si A est d’ordre 3 nous avons alors :
a11 a12 a13
a22 a23 a12 a13 a12 a13
det(A) = det a21 a22 a23 = a11 det − a21 det + det
a32 a33 a32 a33 a22 a23
a31 a32 a33
14 CHAPITRE 1. ALGÈBRE LINÉAIRE
5.2 Propriétés
Théorème 5.2.1. Sous réserve que les déterminants existent on a :
(i) det(I) = 1
(ii) det(AB) = det(A) det(B)
(iii) det(λA) = λn det(A)
(iv) det(t A) = det(A)
(v) Soit A une matrice carrée d’ordre n alors A est inversible si et seulement si det A 6= 0 et on a alors det A−1 =
(det A)−1 .
Soit E un espace vectoriel réel de dimension n et soit e et e0 deux bases de E. Soit u un endomorphisme
de E et soit A et B les matrices de cet endomorphisme dans les bases e et e0 . Alors B = P −1 AP et donc
det B = (det P )−1 det A det P = det A. D’où la définition suivante.
Définition 5.2.2 (Déterminant d’un endomorphisme). Soit u un endomorphisme d’un espace vectoriel réel E
de dimension n et e une base de E. On appelle déterminant de u le déterminant de toute matrice A associée à
l’endomorphisme u dans une base e.
Démonstration
Supposons que la matrice soit une matrice triangulaire supérieure. Le raisonnement est identique pour le cas d’une
matrice triangulaire inférieure. Faisons un raisonnement par récurrence. L’assertion est vraie pour n = 1.
Supposons le résultat vraie pour toute matrice triangulaire supérieure d’ordre n et montrons le pour une matrice
triangulaire supérieure A d’ordre n + 1. Développons le déterminant par rapport à la première colonne, nous avons
alors immédiatement :
det A = a11 det A11
Qn+1
Mais A11 est une matrice triangulaire supérieure d’ordre n, donc son déterminant est i=2 aii . On en déduit alors
le résultat. 2
La seconde étape est d’éliminer la variable x2 à partir de la deuxième équation. Le second pivot serait donc ici
de −0.1. Cependant, on prefère utiliser les pivots les plus grands possibles (en valeur absolue). Nous allons donc
permutter tout d’abord les deuxième et troisième équations, cette phase s’appelle le pivotage :
10 −7 0 x1 7
0 2.5 5 x2 = 2.5
0 −0.1 6 x3 6.1
Notre deuxième pivot est donc ici 2.5. Nous éliminons donc la variable x2 maintenant dans la troisième équation
en ajoutant à celle-ci 0.1/2.5 fois la deuxième équation
10 −7 0 x1 7
0 2.5 5 x2 = 2.5
0 0 6.2 x3 6.2
La dernière équation donne alors 6.2x3 = 6.2, donc x3 = 1. En subsituant cette valeur dans la deuxième équation
du dernier système on obtient l’équation 2.5x2 + 5 × 1 = 2.5. Par suite x2 = −1. Et finallement en substituant les
valeurs de x2 et de x3 dans la première équation on trouve x1 = 0. En conclusion, notre système de départ a pour
unique solution
0
x = −1
1
On peut en fait résumer cet algorithme par l’écriture matricielle suivante :
P A = LU
avec
1 0 0 10 −7 0 1 0 0
L = 0.5 1 0 ; U = 0 2.5 5 ; P = 0 0 1
−0.3 −0.04 1 0 0 6.2 0 1 0
La matrice L contient les multiplieurs utilisés pendant l’élimination, la matrice U est la matrice finale et la matrice
P est une matrice de permutation des lignes de A. P est une matrice orthogonale : t P = P . L’algorithme précédant
est alors de résoudre tout d’abord Ly = P b, qui donne
7
y = 2.5
6.2
puis de résoudre U x = y. Ces deux systèmes sont simples à résoudre car ce sont des systèmes triangulaires.
On peut ici remarquer que det(L) det(U ) = det(U ) = det(P ) det(A). Or det(P ) = ±1. Par suite au signe près
det U est égale au déterminant de A. La matrice Uétant diagonale ce déterminant est égale au produit de ces
éléments diagonaux, c’est-à-dire au produit des pivots. Le système linéaire aura donc une unique solution si et
seulement si tout les pivots sont non nuls (d’oú l’importance des phases de pivotages) où encore si et seulement si
det(U ) 6= 0. On en déduit le théorème suivant
16 CHAPITRE 1. ALGÈBRE LINÉAIRE
Théorème 6.2.1. Le système (1.1) admet une solution unique si et seulement si la matrice A est inversible et la
solution est x = A−1 b.
Remarque 6.2.2. La phase de pivotage dans notre exemple n’était pas nécessaire ici car nous avons fait les calculs
exacts. Cette phase est cependant importante si on désire implémenter cet algorithme sur un ordinateur, ceci pour
des raisons numériques. Mais ceci dépasse largement le cadre de ce cours.
7 Valeurs propres
7.1 Définitions
Définition 7.1.1 (Valeur propre). Soit A une matrice carrée, alors λ est valeur propre de A si et seulement si il
existe un vecteur non nul x tel que Ax = λx.
Théorème 7.1.2. Soit A une matrice carrée alors λ est une valeur propre de A si et seulement si det(A − λI) = 0
Démonstration
En effet Ax = λx ⇔ (A − λI)x = ~0
Donc pour qu’il existe x non nul solution de Ax = λx il faut et il suffit qu’il existe une autre solution que ~0 au
système (A − λI)x = ~0 et donc que le déterminant de (A − λI) soit nul 2
Définition 7.1.3 (Vecteur propre). Soit A une matrice carrée et λ une valeur propre de A. Alors tout vecteur x
non nul tel que Ax = λx est un vecteur propre associé à la valeur propre λ.
Théorème 7.1.4. Soit A une matrice carrée et λ une valeur propre de A. x est vecteur propre de A associée à la
valeur propre λ si et seulement si x n’est pas le vecteur nul et x ∈ Ker (A − λI).
Démonstration
Triviale 2
Définition 7.1.5 (Espace propre). Soit A une matrice carrée et λ une valeur propre. On appelle espace propre Vλ
le sous-espace vectoriel ker(A − λI).
Théorème 7.1.6. Soit A une matrice carrée, λ1 et λ2 deux valeurs propres distinctes. Alors Vλ1 ⊕ Vλ2 .
Démonstration
Admise 2
Définition 7.1.7 (Ordre de multiplicité d’une valeur propre). Soit A une matrice carrée d’ordre n et λ une valeur
propre. On appelle ordre de multiplicité de la valeur propre λ la dimension de l’espace propre Vλ .
7.2 Diagonalisation
Définition 7.2.1 (Matrice diagonalisable). Une matrice carrée A est diagonalisable si elle est semblable à une
matrice diagonale.
Théorème 7.2.2. Une matrice carrée d’ordre n est diagonalisable si et seulement si la somme des ordres de
multiplicité de ses valeurs propres est n.
Démonstration
Admise 2
Corollaire 7.2.3. Une matrice carrée A est diagonalisable si et seulement si il existe une base de vecteurs propres.
Corollaire 7.2.4. Une matrice carrée d’ordre n ayant n valeurs propres distinctes est diagonalisable.
Démonstration
En effet tous les sous espaces propres sont de dimensions supérieures ou égales à 1 donc la somme des ordres de
multiplicité de ses valeurs propres est supérieure ou égale à n, par suite c’est exactement n 2
Donc det A = (1 − λ)(λ2 + λ − 12) Par suite les valeurs propres de A sont 1, 3, −4. Calculons les vecteurs propres.
pour λ = 1 on cherche les solutions de Ax = x :
x1 +3x2 = x1 x2 = 0
3x1 −2x2 −x3 = x2 ⇐⇒ x1 = 31
−x2 +x3 = x3 x3 = x3
1
Donc V1 = {x ∈ R3 /x = αv1 = α 0 }
3
3 3
On trouve de même V3 = {x ∈ R3 /x = αv2 = α 2 } V−4 = {x ∈ R3 /x = αv3 = α −5 }
−1 −1
Donc A est diagonalisale. Si on pose P la matrice de passage de la base canonique dans la base (v1 , v2 , v3 ). On
a alors
1 0 0
A=P 0 3 0 P −1
0 0 −4
x ∈ V1 ⇐⇒ Ax = x (1.2)
0x1 + x2 = 0
⇐⇒ (1.3)
0x1 + 0x2 = 0
2 1
Par suite V1 = {x ∈ R /x = α } Donc dimV1 = 1 et A n’est pas diagonalisable.
0
Remarque 8.1.2. Lorsque l’on écrit x = 0 dans le (v) de la définition ci-dessus, cela signifie que x est le vecteur
nul de Rn :
0
..
x= .
0
Par contre lorsque l’on écrit ϕ(x, x) = 0, le symbole 0 désigne le zéro de R. Un même symbole est donc employé
pour des objets différents. C’est donc à l’étudiant, en fonction du contexe, de faire la distinction.
Définition 8.1.3 (Espace euclidien). Lorsque Rn est muni d’un produit scalaire on dit que c’est un espace
euclidien.
Notation 8.1.4. On trouvera dans la litérature les diférentes notations suivantes pour le produit scalaire : ϕ(x, y) =
x.y = (x, y) =< x, y >= (x/y).
Nous prendrons dans ce cours la dernière notation (i.e. (x/y)).
Exemple 8.1.5.
ϕ : Rn × Rn −→ R
n
X
(x, y) 7−→ ϕ(x, y) = (x/y) = xi yi = t xy = t yx
i=1
où
x1 y1
x = ... et y = ..
.
xn yn
Lorsque n = 1 on obtient (x/y) = xy.
Exemple 8.1.6.
ϕ : Rn × Rn −→ R
n
X
(x, y) 7−→ ϕ(x, y) = (x/y) = λi xi yi
i=1
Définition 8.1.8 (Produit scalaire canonique). On appelle produit scalaire canonique de Rn le produit scalaire
défini à l’exemple (8.1.5).
Théorème 8.1.9. Soit A une matrice de type (p, n), x un vecteur de Rn et y un vecteur de Rp . On suppose que
les espaces Rn et Rp sont munis de leurs produits scalaires canoniques, alors on a la relation suivante :
Démonstration
∀x ∈ Rn (Ax/x) ≥ 0
A est définie positive si et seulement si elle est semi définie positive et (Ax/x) = 0 ⇐⇒ x = 0.
8. PRODUIT SCALAIRE, NORME 19
Théorème 8.1.11. ϕ est un produit scalaire sur Rn si et seulement si il existe une matrice A carrée d’ordre n
symétrique définie positive (i.e. qui admet n valeurs propres réelles strictement positives) telle que :
ϕ(x, y) =t xAy
Démonstration
Admise 2
Remarque 8.1.12. Les n valeurs propres de la matrice A ne sont pas nécessairement distinctes.
Notation 8.1.13. On notera (x/y)A le produit scalaire ϕ(x, y) = t xAy et (x/y) le produit scalaire canonique (i.e.
le cas où A = I).
Définition 8.1.15 (Orthogonalité). Soit Rn muni du produit scalaire (./.)A . Alors deux vecteurs x et y de Rn
sont dits A-orthogonaux si et seulement si leur produit scalaire est nul : (x/y)A = 0.
Remarque 8.1.16. Dans le cas de l’exemple (8.1.5) on retrouve l’orthogonalité classique de deux vecteurs de Rn
et on dit alors que les deux vecteurs sont orthogonaux.
8.2 Norme
Définition 8.2.1 (Norme). On appelle norme sur Rn toute application ν de Rn dans R+ vérifiant :
(i) ∀x ∈ Rn ν(x) > 0 si x 6= 0
(ii) ∀λ ∈ R, ∀x ∈ Rn ν(λx) = |λ|ν(x)
(iii) ∀(x, y) ∈ Rn × Rn ν(x + y) ≤ ν(x) + ν(y) {inégalité triangulaire}
Théorème 8.2.3 (Inégalité de Cauchy-Schwarz). On munit Rn d’un produit scalaire (./.). Posons kxk =
p
(x/x).Alors
nous avons la relation suivante :
|(x/y)| ≤ kxk.kyk
Démonstration
Soit λ un nombre réel quelconque et x et y deux vecteurs de Rn fixés. Posons P (λ) = (x + λy/x + λy) alors
or P (λ) est toujours positif par définition d’un produit scalaire, et donc le trinôme en λ est toujours positif ou nul.
Par suite son discriminant réduit est négatif où nul :
Démonstration
Tout d’abord k.k définit bien une application de Rn dans R+ . Vérifions maintenant les trois propriétés de la
définition :
(i)
kxk = 0 ⇐⇒ (x/x) = 0 =⇒ x = 0
(ii)
p
kλxk = (λx/λx)
p
= λ2 (x/x)
p
= |λ| (x/x)
= |λ.|kxk
(iii)
kx + yk2 = (x + y/x + y)
= (x/x) + 2(x/y) + (y/y)
kxk2 + kyk2 + 2(x/y)
D’où le résultat.
2
Définition 8.2.5. On appelle norme euclidienne une norme définie par un produit scalaire.
Théorème 8.2.6 (Théorème de Pythagore). On suppose Rn muni d’un produit scalaire (./.), x et y deux vecteurs
de Rn orthogonaux alors nous avons la relation suivante :
Démonstration
Si x et y sont orthogonaux alors nous avons :
2
Exemple 8.2.7. q
kxk2 = x21 + · · · + x2n
est une norme. C’est la norme euclidienne classique sur Rn . Lorsque n = 1 cela donne
√
kxk = x2 = |x|
Exemple 8.2.8.
n
X
kxk1 = |xi |
i=1
Définition 8.2.9 (Cosinus de l’angle de deux vecteurs). Soit E un espace euclidien et soient x et y deux vecteurs
de E non nuls. Le cosinus de l’angle de x et de y est l’unique nombre cos θ ∈ [−1, +1] tel que
(x/y)
cos θ =
kxk.kyk
9. DÉCOMPOSITION EN VALEURS SINGULIÈRES 21
Définition 8.2.10 (Base orthonormée). On considère Rn muni d’un produit scalaire (./.). On appelle base ortho-
normée de Rn toute base de Rn e = (e1 , . . . , en ) telle que :
(i) ∀(i, j) ∈ {1, . . . , n}2 i 6= j (ei /ej ) = 0.
(ii) ∀i ∈ {1, . . . , n} kei k = 1.
Théorème 8.2.11. Soient U la matrice de passage d’une base e orthonormée à une base orthonormées e0 . Alors
t
U U = U t U = I.
Démonstration
U est la matrice des coordonnées des vecteurs de la base e0 dans la base e. Or t U U = ((e0j /e0j ))jj 0 et e0 est une base
orthonormées d’où t U U = I Donc t U = U −1 et donc U t U = I. 2
Définition 8.2.12 (Matrice orthogonale). Soit U une matrice carrée. U est orthogonale si et seulement si
t
U U = U tU = I
Remarque 8.2.13. (i) t U U est la matrice des produits scalaires des vecteurs colonnes de U .
t
(ii) U U est la matrice des produits scalaires des vecteurs lignes de U .
Théorème 8.3.2. Soient E et F deux sous espaces orthogonaux non réduits au vecteur nul. Alors la somme E + F
est directe.
Définition 8.3.3. Soit F un sous espace vectoriel d’un espace vectoriel de dimension finie E . On appelle orthogonal
de F et on note F ⊥ l’ensemble des vecteurs orthogonaux à F :
F ⊥ = {v ∈ E/(u/v) = 0 ∀u ∈ F }
Théorème 8.3.4. Soit F un sous espace d’un espace vectoriel de dimension finie E alors F ⊥ est un sous espace
vectoriel de E et E = F ⊕ F ⊥ .
Définition 8.3.5 (Projection orthogonale). Soit E un espace vectoriel réel de dimension finie. On appelle projection
orthogonale de E sur F le projecteur de E sur F suivant F ⊥ .
Théorème 8.3.6. Soient F et G deux sous espace orthogonaux d’un espace vectoriel de dimension finie E. Soient
pF , pG et pF ⊕G les projection orthogonales de E sur F, G et F ⊕ G respectivement. Alors :
pF ⊕G = pF + pG
Démonstration
Admise 2
Remarque 9.1.2. Ce théorème implique que A peut s’écrire : A = U Λt U avec Λ matrice diagonale des valeurs
propres et U matrice de passage de la base canonique à une base de vecteurs propres de A. les vecteurs colonnes de
U sont les coordonnées les vecteurs propres de A dans la base canonique. U est orthogonale.
22 CHAPITRE 1. ALGÈBRE LINÉAIRE
Corollaire 9.1.3. Soit A une matrice réelle de type (n, p) alors t AA est une matrice symétrique semi-définie
positive et il existe une matrice orthogonale des vecteurs propres de t AA telle que t AA = U Λt U avec Λ matrice
diagonale des valeurs propres de t AA qui sont positives ou nulles.
Démonstration
Tout d’abord t AA est symétrique car t (t AA) = t At (t A) = t AA. Ensuite soit x un vecteur de Rp alors (t AAx/x) =
(Ax/Ax) ≥ 0 donc la matrice t AA est bien symétrique semi-définie positive. Pour la suite du corollaire il suffit
d’appliquer théorème précédent à t AA. 2
Corollaire 9.1.4. Les valeurs propres de t AA sont réelles et positives ou nuls. Si le rang de A est p alors t AA est
inversible et ses valeurs propres sont strictement positives.
Démonstration
Soit λ une valeur propre de t AA et u un vecteur propre de norme 1 associée à cette valeur propre. Alors (t AAu/u) =
λ(u/u) = λ ≥ 0. On admettra la suite. 2
Corollaire 9.1.5. Soit A une matrice réelle de type (n, p) alors At A est une matrice symétrique semi-définie
positive et il existe une matrice orthogonale des vecteurs propres de At A telle que At A = V Λt V avec Λ matrice
diagonale des valeurs propres de At A qui sont positives ou nulles.
Démonstration
Il suffit d’appliquer le corollaire précédent à t A. 2
Notation 9.1.6. (i) Dans toute la suite on supposera que les valeurs propres λi sont rangées par ordre décroissant :
λ1 ≥ . . . ≥ λr > 0 où r est le rang de A. Les autres valeurs propres éventuelles sont nulles.
(ii) U = (u1 , . . . , up ) où uj est un vecteur propre associée à la valeur propre λj de t AA.
(iii) V = (v1 , . . . , vn ) où vi est un vecteur propre associée à la valeur propre λi de At A.
Théorème 9.1.7. Soit A une matrice réelle de type (n, p) de rang r alors les r valeurs propres de t AA non nulles
sont identiques aux r valeurs propres de At A non nulles. Si la matrice Ur = (u1 , . . . , ur ) est la sous matrice de U
formée des r premières colonnes de U alors si on pose vj = √1 Auj , on peut prendre Vr = (v1 , . . . , vr ) pour la
λj
sous matrice de V formée de ses r premières colonnes.
Démonstration
Soit uj un vecteur propre de t AA associée à la valeur propre λj alors A(t AAuj ) = (At A)Auj = λj Auj . Calculons
la norme du vecteur Auj .
Par suite Auj est un vecteur propre de At A associé à la valeur propre λj et donc vj est bien un vecteur propre de
At A de norme 1. Montrons maintenant que les vj sont orthogonaux.
1 1 t 1
(vj /vj 0 ) = (Auj /Auj 0 ) = ( AAuj /uj 0 ) = (λj uj /uj 0 ) = 0
λj λj 0 λ j λj 0 λj λj 0
2
Alors :
A = V Σt U
A = Vr Σr t Ur
r
X
A= σi vi t ui
i=1
Démonstration
Admise 2
Définition 9.2.2 (Valeurs singulières). Les valeurs σi ci-dessus s’appellent les valeurs singulières de A et la
décomposition A = V Σt U s’appelle la décomposition en valeurs singilières.
10.3 Distance
Définition 10.3.1. Soit E un ensemble. On appelle distance sur E toute application d de E ×E dans R+ vérifiant :
(i) ∀(x, y) ∈ E × E d(x, y) = d(y, x) (propriété de symétrie).
(ii) ∀(x, y) ∈ E × E d(x, y) > 0 si x 6= y.
(iii) ∀x ∈ E d(x, x) = 0.
(iv) ∀(x, y, z) d(x, z) ≤ d(x, y) + d(y, z) (inégalité triangulaire).
Remarque 10.3.2. La notion de distance est en fait la transcription mathématique de la notion intuitive de
proximité.
Exemple 10.3.3. Si E = Rn muni d’une norme k.k. Alors d(x, y) = kx − yk est une distance sur E.
Si E = Rn et kxk = kxk2 nous retrouvons la distance euclidienne classique. Lorsque n = 1 cela donne d(x, y) =
|x − y|.
Remarque 10.3.4. Dans l’exemple précédant Rn est considéré comme un espace vectoriel (et donc comme un
ensemble de vecteurs). Si nous considérons cet ensemble comme un ensemble affine (et donc comme un ensemble
−→
de points), l’origine O étant fixé, un point A est déterminé par ces coordonnées qui sont celles du vecteur OA, nous
−→
pouvons alors définir la distance entre deux points A et B comme étant la distance entre les deux vecteurs OA et
−→
OB et nous écrirons donc :
−→ −→ −→ −→ −→ −→ −→
d(A, B) = d(OA, OB) = k OA − OB k = k BO + OA k = k BA k
Nous retrouvons lorsque n = 2 et k.k = k.k2 la distance bien connue entre deux points.
Illustration 10.3.5. On considère le cas E = R2 . Les ensembles représentés en gras ci-dessous sont respectivement
−→
B1 (O, 1) = {M ∈ R2 /d1 (O, M ) = k OM k1 = 1}
−→
B2 (O, 1) = {M ∈ R2 /d2 (O, M ) = k OM k2 = 1}
−→
B∞ (O, 1) = {M ∈ R2 /d∞ (O, M ) = k OM k∞ = 1}
6 '$
6 6
@
@
@- - -
@
@
@ &%
10.4 Barycentre
Définition 10.4.1. On appelle point massique tout couple (M, m) où M est un point d’un espace affine et p un
réel.
P
Théorème 10.4.2. Soit (Mi , mi )i=1,m m points massiques d’un espace affine tel que i mi 6= 0 alors il existe un
point unique G tel que : X −−→ − →
mi GMi = 0
i
Démonstration
X −−→ X −−→ −−→ →
−
mi GMi = mi (GO + OMi ) = 0
i i
−−→ 1 X −−→
=⇒ OG = P mi OMi
i mi i
1 Introduction
1.1 Type de données
L’objectif de l’Analyse en composantes principales (ACP) est de décrire graphiquement un tableau de données
individus×variable quantitatives de grande taille.
Afin de ne pas alourdir l’exposé de cette méthode et de permettre à l’étudiant de refaire complètement les
calculs nous travaillerons sur l’exemple simple suivant :
Exemple 1.1.1. Dans une étude un botaniste a mesuré les dimensions de 15 fleurs d’iris. Les 3 variables mesurées
sont :
– x.1 : longueur du sépale ;
– x.2 : largeur du sépale ;
– x.3 : longueur du pétale ;
Les données sont les suivantes :
Remarque 1.1.2. (i) Un individu sera en fait une unité expérimentale. Il s’agit de l’objet sur lequel on effectue
des observations ou mesures. Il peut s’agir d’êtres humains dans le cas d’une étude de marché ou d’une
parcelle de terrain dans une étude du sol ou d’une fleur dans notre exemple.
25
26 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES
(ii) Une variable quantitative est synonyme d’un caractère quantitatif ou d’une variable continue. Ce type de
méthode ne peut donc être utilisé a priori lorsque le tableau des données comprends des données qualitatives
comme une catégorie socio-professionnelle.
(iii) l’ACP est une méthode de base de l’analyse des données1 .
Par suite
– L’indice i correspondra à l’indice ligne et donc aux individus. Nous identifierons l’individu i avec le point
ligne :
xi. = (xi1 , . . . , xip )
C’est donc un point dans un espace affine de dimension p.
– L’indice j corresponds à l’indice colonne donc aux variables. On identifiera la variable j avec le vecteur
colonne :
x1j
..
~x.j = .
xnj
C’est donc un vecteur dans l’espace vectoriel de dimension n Rn .
Nous nous placerons dans la suite suivant deux points de vues. Soit nous prendrons le tableau de données
comme n points dans un espace affine de dimension p, soit nous prendrons ce tableau comme p vecteurs d’un
espace vectoriel de dimension n. Nous verrons qu’il y a des ”liens” entre ces deux points de vue. On parle alors de
dualité.
L’outil mathématique que l’on va utiliser ici est l’algèbre linéaire, avec les notions de produit scalaire, de norme
euclidienne et de distance euclidienne. Nous ferons systématiquement dans ce cours le lien entre les concepts utilisés
et leurs écritures matricielles.
1.3 Plan
Afin de simplifier la présentation nous allons dans un premier temps consiérer que chaque individu, comme
chaque variable, a la même importance, le même poids. Nous ne considérerons aussi, que le cas de la distance
euclidienne canonique. Nous allons dans une première section exposer plus mathématiquement la problématique,
puis nous étudierons l’ACP dite normée. Pour une étude plus générale de l’ACP, nous renvoyons aux ouvrages de
Ludovic Lebart, Alain Morineau et Rarie Piron [2] , ou deBrigitte Escoffier et Jérome Pagès [1] ou encore de Gibert
Saporta [3]. Dans le chapitre suivant nous donnerons quelques exemples d’applications.
2 Objectifs de l’ACP
2.1 Transformations initiales des données
Données centrées
Nous allons ici centrer les données c’est-à-dire mettre l’origine au centre de gravité du nuage de points. Ceci ne
modifie pas l’aspect du nuage, mais permet d’avoir les coordonnées du point M égales aux coordonnées du vecteur
−−→
GM et donc de ce placer dans l’espace vectoriel pour pouvoir y faire les calculs. On supposera dans toute la suite
pour simplifier la présentation que le poids des individus sont identiques, on prendra donc mi = 1/n, i = 1, . . . , n.
On considère le repère orthonormé (O, e1 , . . . , ep ) où (e1 , . . . , ep ) est la base canonique de Rp .
Soit donc G le centre de gravité du nuage de point. Comme nous considérons ici que chaque variable, comme
chaque individu, a le même poids, le point G a pour coordonnées dans le repère (0, e1 , . . . , en ) :
t
G = x̄ = (x̄.1 , . . . , x̄.j , . . . , x̄.p )
1 l’analyse des données au sens large est l’ensemble des méthodes utilisées pour analyser des données. Elle comprends donc aussi les
statistiques. Le sens pris ici est ce qu’on appelle dans les pays anglo-saxons l’analyse des données ”à la française” qui comprends entre
autre l’Analyse Factorielle des Correspondances simples et Multiples développée par M. Benzecri et son école
2. OBJECTIFS DE L’ACP 27
où
n
1X
x̄.j = xij
n i=1
Remarque 2.1.1. La matrice des données centrées contient les coordonnées des individus dans le repère (G, e1 , . . . , ep ).
Nous nous placerons dans la suite toujours dans ce repère pour le nuage de points des individus et nous prendrons
O = G.
5 G
4
x.3
0
4
3 8
6
2
4
1
2
x.2 0 0
x.1
0
xc.3 O=G
−1
−2
−3
−4
2
1 4
2
0
0
−1
−2
xc.2 −2 −4
xc.1
0.5
0
z.3
−0.5
0.5
0.5
0
−0.5 0
z.2 −1 −0.5
z.1
L’information intéressante pour les individus est la distance entre les points. En effet plus cette distance sera
grande entre deux individus zi. et zi0 . , plus les deux individus seront différents (par rapport à leurs valeurs sur les
variables considérées). Nous prendrons comme distance ici la distance euclidienne canonique :
p
d2 (zi. , zi0 . ) = k−
z− −→ 2
X
i. zi0 . k = (zij − zi0 j )2
j=1
Les figures (2.4,2.5) et (2.6) montre les projections orthogonales dans l’espace R3 de ce nuage de points respecti-
vement dans les plans (O, e1 , e2 ), (O, e2 , e3 ) et (0, u1 , u2 ). Le graphique (2.7) donne lui ces projections orthogonales
dans les plans concernées.
Il est clair que la dernière représentation plane est ”meilleure” que les autres dans le sens où elle respecte mieux
les distances entre les individus, i.e. où elle déforme moins le nuage de points dans l’espace.
L’objet de l’ACP pour le nuage des individus est de déterminer les ”meilleurs” plans, i.e. ceux qui concervent
le maximum d’information2 .
Remarque 2.2.1. Dans la pratique nous traiterons des grands tableaux, par exemple avec 1000 individus et 100
variables. Aussi l’espace des individus sera un espace de dimension 100. Nous ne pouvons donc plus dans ce cas
représenter le nuage de points. Nous obtiendrons par l’ACP un certains nombres de plans apportant chacun une
information complémentaire aux autres et on espèrera avoir avec quelques plans ”presque” toute l’information du
nuage de point dans l’espace.
2 Nous définirons ceci rigoureusement dans la prochaine section
30 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES
0.5
z.3
−0.5
1
0.5 1
0 0.5
−0.5 0
z.2 −1 −0.5
z.1
0.5
z.3
−0.5
1
0.5 1
0 0.5
−0.5 0
z.2 −1 −0.5
z.1
0.5
z.3
−0.5
1
0.5 1
0 0.5
−0.5 0
z.2 −1 −0.5
z.1
0.2 0.2
0 0
−0.2 −0.2
−0.4 −0.4
−0.6 −0.6
−0.6 −0.4 −0.2 0 0.2 0.4 −0.6 −0.4 −0.2 0 0.2 0.4
0.2
−0.2
−0.4
−0.6
−0.6 −0.4 −0.2 0 0.2 0.4
les matrices de variances, covariances et de corrélations. La matrice de variances, covariances est donc au coefficient
1
n près, la matrice des produits scalaires canoniques des vecteurs colonnes de la matrice des données centrées Xc.
Nous en déduisons alors les relations suivantes :
1t 1t
C= XcXc et R= Y Y = t ZZ
n n
On peut aussi voir que l’on a comme relation
R = D1/s CD1/s
Les vecteurs colonnes de Z sont par construction normées, par suite le produit scalaire entre les vecteurs colonnes
z.j et z.j 0 est aussi le cosinus de l’angle entre ces deux vecteurs. En conclusion le coefficient de corrélation linéaire
rjj 0 entre les variables est géométriquement le cosinus de l’angle entre les vecteurs z.j et z.j 0 :
cos(z.jd
, z.j 0 ) = rjj 0
Représentation graphique
Afin de pouvoir dans cette introduction visualiser les variables dans leur espace Rn nous allons prendre dans
notre exemple trois individus et quatre variables
Exemple 2.3.1.
5.1 3.5 1.4 0.2
XX = 4.9 3.0 1.4 0.2
4.7 3.2 1.3 0.2
32 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES
0.8
0.6
0.4
0.2
0
z3.
−0.2
−0.4
−0.6
−0.8
0.5 1
0.5
0
0
−0.5
−0.5
z2. −1
z1.
0.5
0.5
0
z3.
0
z2.
−0.5
−0.5
0.5 1
0
−0.5 0
z2. −1 z1. −1 −0.5 0 0.5 1
z1.
0.5 0.5
0 0
z3.
v2
−0.5 −0.5
−1
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
z2. v1
Nous pouvons maintenant projeter orthogonalement ces vecteurs dans les plans définis par (e1 , e2 ), (e2 , e3 ) ou
(v1 , v2 ). Nous avons les résultats sur la figure (2.9).
L’objectif de l’ACP pour les variables est de trouver les meileurs plans, c’est-à-dire ceux sur lesquels les angles
des vecteurs projetés respectent ”au mieux” ceux des vecteurs dans l’espace.
Remarque 2.3.2. Nous avons pris ici pour pouvoir visualiser n = 3 et p = 4. Nous aurons toujours en pratique n
supérieur à p, lui même supérieur à 3. L’utilisation de cette méthode lorsque n < p est a proscrire car dans ce cas
le rang des matrices est inférieures ou égale à n et donc on trouvera des relations de dépendances linéaires entre
les variables. Il s’agit toujours au fond du même problème : il faut toujours travailler avec plus d’individus que de
variables.
3. ACP NORMÉE 33
3 ACP normée
3.1 Introduction
Nous rappelons que nous travaillons dans cette section avec la distance euclidienne canonique et que les individus
ont tous le même poids. On note Mi le point de Rp de coordonnées t xi.
3.2 Inertie
L’information pour un nuage de point est défini par la notion d’inertie.
Définition 3.2.1 (Inertie). On appelle inertie d’un nuage de point X = (xij ) la quantité :
n
1X 2
I= d (G, Mi )
n i=1
(ii) On a aussi
I = T r(V )
(iii) Si on travaille avec la matrice des données centrées réduites on a I = p = T r(R), puisque chaque variable
y.j a une variance de 1.
(iv) La terminologie vient de la mécanique. Si on considère un système de n points matériels de masse ponctuelle
1 p t
n dans R de coordonnées xi. alors la quantité I est l’inertie au sens mécanique du terme.
Démonstration
n X
X n X −−−−→ X −−→ −−−→
d2 (Mi , Mi0 ) = kMi Mi0 k2 = kMi G + GMi0 k2
i=1 i0 =1 i,i0 i,i0
X −−→ −−−→ −−→ −−−→
= (kMi Gk2 + kGMi0 k + 2(Mi G/GMi0 ))
i,i0
X X −−→ X X −−−→ X −−→ X −−−→
= ( kMi Gk2 ) + ( kGMi0 k2 ) + 2 (Mi G/ GMi0 )
i0 i i i0 i i0
XX XX X −−→ −→
= ( d2 (Mi , G)) + ( d2 (G, Mi0 )) + 2 (Mi G/ 0 )
i0 i i i0 i
X X
= nI + nI + 0
i0 i
= 2n2 I
où I(u) = i d2 (O, Hi ). En effet le centre de gravité du nuage de point projeté est aussi ici l’origine. Par suite
P
notre problème est équivalent à :
M ax I(u)
(P 0 ) u ∈ Rp
kuk = 1
Résolution de (P 00 )
−−→
Tout d’abord, puisque Hi est la projection orthogonale du point Mi sur ∆u nous avons OHi = αi u pour tout i
−−→
avec αi = (OMi /u). Par suite les coordonnées les points Hi sur la droite ∆u sont :
α1
..
. = Zu
αn
La matrice de corrélations R = t ZZ est symétrique, donc, corollaire (9.1.3) elle est diagonalisable dans une base
orthonormée de vecteurs propres. De plus les valeurs propres sont toutes positives ou nulles. Posons R = U Λt U
avec Λ matrice diagonale des valeurs propres mises en ordre décroissante : λ1 ≥ . . . ≥ λp ≥ 0. Nous avons donc :
p
X
f (u) = (Zu/Zu) = (U Λt U u/u) = (Λt U u/t U u) = (Λw/w) = λj wj2
j=1
où w = t U u.
Mais U est une matrice orthogonale par conséquent {w = t U u/u ∈ Rp kuk = 1} = {w ∈ Rp /kwk = 1}. Or
p
X
λj wj2 ≤ λ1
j=1
et on a l’égalité si w1 = t (1, 0, . . . , 0). Une solution de notre problème (P 00 ) est donc u.1 = U w1 vecteur propre de
R associée à la plus grande valeur propre.
Une fois que l’on a trouvé la première droite vectorielle, on cherche une deuxième droite dans le sous espace
vectoriel orthogonal à la droite vectorielle qui maximise l’intertie du nuage de point projeté. On démontre que la
solution est données par la droite vectorielle dirigée par le vecteur propre associé à la deuxième valeur propre de la
matrice de corrélation et ainsi de suite ...
3. ACP NORMÉE 35
Remarque 3.3.2. Nous noterons ψ les coordonnées, en ligne, des points sur dans la nouvelle base (u.1 , . . . , u.p ).
Ces coordonnées s’obtiennent en calculant
ψ = ZU
Exemple 3.3.3. Reprenons notre exemple (1.1.1). Rappelons que la matrice de corrélation est :
1.0000 −0.1609 0.8854
R = −0.1609 1.0000 −0.3818
0.8854 −0.3818 1.0000
Les coordonnées des projections du nuage de points dans le meilleur plan défini par les vecteurs (u.1 , u.2 ) sont donc
les deux premières colonnes de ψ. Nous obtenons ainsi le troisième graphique de la figure (2.7).
wj = βj v = (z.j /v)v
Par suite le vecteur des coordonnées des projections orthogonales sur ∆v est :
β1
.. t
β = . = Zv
βp
La solution de (P) est le vecteur propre associé à la plus grande valeur propre de Z t Z
Appelons V = (v1 , . . . , vn ) une base orthonormée de vecteurs propres de Z t Z où vi est associé à la valeur propre
λi avec λ1 ≥ . . . ≥ λn ≥ 0. Alors les coordonnées, en ligne, des variables z.j dans la nouvelle base (v1 , . . . , vn ) sont
données par :
φ = t ZV
36 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES
(ii) u.j = √1 t
Zv.j
λj
On a de plus pour j = 1, . . . , r
p
(i) φ.j = λj u.j
p
(ii) ψ.j = λj v.j
(iii) kψ.j k2 = λj
(iv) kφ.j k2 = λj
Démonstration
Les premiers résultats proviennent du théorème (9.1.7). Pour les autres résultats, il suffit d’écrire :
1 1 1
φ.j = t Zv.j = t Z p Zu.j = p t ZZu.j = p λj u.j
λj λj λj
Par conséquent la matrice φ contient les corrélations linéaires entre les variables de départ z.j et les nouvelles
variables ψ.j .
Remarque 3.5.4. Afin de retrouver des quantités connues ayant une interprétation statistique, on prefère √ en
pratique travailler, pour les individus, avec les données centrées réduites Y . Nous appellerons ψ Y = Y U = nψ
les coordonnées des points du nuage de données centrées réduites dans la base orthonormée de vecteurs propres de
la matrice de corrélation. Nous aurons alors :
1 Y 2
kψ k = λj
n .j
Or, le nuage de points étant centré, la moyenne de chaque colonne de ψ Y est nulle donc la quantité ci-dessus n’est
Y
pas autre chose que la variance de la variable ψ.j ou que l’inertie du nuage de point projeté sur cet axe. Les logiciels
Y
donnent toujours les quantités ψ .
Remarque 3.5.5. Le rang de la matrice Z étant égale à r nous aurons :
Supposons pour simplifier que rg(Z) = p, nous avons pour j = 1, . . . , p les relations :
p
Zu.j = λi v.j
Donc
p
X p
X p
X
Zu.j t u.j = Z u.j t u.j =
p
λj v.k t u.k
j=1 j=1 j=1
Mais U est une matrice orthogonnale. L’une des interprétations du produit matriciel (cf. l’Annexe A) permet alors
d’écrire :
Xp
t
U U= u.j t u.j = I
j=1
Remarque 3.6.1. L’ecriture ci dessus n’est pas autre chose que la décomposition en valeurs singulière de la matrice
Z. En effet les λj sont les valeurs propres de t ZZ, donc les carrées des valeurs singulières et la formule (2.1) s’écrit
aussi
Z = Vr Σr t Ur
Reconstitution approchée
Si on néglige les derniers termes et que l’on ne considère que les q premiers termes nous avons une reconstitution
approchée de Z :
Xq
Z∗ =
p
λj v.j t u.j
j=1
Dans l’espace de départ, cette inertie est I = λ1 + · · · + λp = p car nous sommes en ACP normée.
La qualité globale de représentation est donc :
λ1 + · · · + λq
τq =
p
Remarque 3.7.1. Z ∗ contient les coordonnées des projections orthogonales dans la base de départ (e1 , . . . , ep ).
Notons Mi∗ les points de coordonnées t zi.∗ . Nous avons alors :
1
Pn 2 ∗
P P ∗2
i=1 d (O, Mi )
zij T r(t Z ∗ Z ∗ ) λ1 + · · · + λq
τq = n
1
Pn = Pi Pj 2 = t ZZ)
=
d 2 (O, M ) z T r( p
n i=1 i i j ij
38 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES
x+ij − x̄.j
y+ij =
sj
Nous tenons a bien faire remarquer ici que ces individus supplémentaires n’interviennent pas dans la définition des
axes factoriels, ni dans les moyennes et écarts-types. Ces individus sont projetés de la même manière, aussi nous
avons matriciellement :
Y
ψ+ = Y+ U
Variables supplémentaires
Nous avons ici :
x+ij − x̄.j
z+ij = √
nsj
et
φ+ = t ZV
3.10 Variables
Nous avons φjj 0 = r(z.j , ψ.j 0 ). Ceci nous permettra d’interpréter les axes factoriels.
Pour savoir si une variable est bien représentée sur un plan, il suffit de regarder si la somme des carrés de ces
coordonnées est proche de 1. En effet on sait que pour l’ACP normée la longueur du vecteur représentant une
variable est 1.
3.11 Individus
Pour les individus, pour savoir si un point Mi est bien représenté sur un axe j il faut regarder si le cosinus carré
−−→
de l’angle entre le vecteur OMi et sa projection orthogonale sur cet axe est proche de 1. Ce cosinus carré est donné
par :
Y2
ψij
cos2 (θij ) =
kOMi k2
Pour savoir s’il est bien représenté sur un plan, il suffit de faire la somme des cosinus carrés et de regarder si cette
quantité est proche de 1.
Il est aussi utile pour les individus d’avoir la contribution d’un point à la définition d’un axe j. Celle-ci est tout
simplement donnée par la part de l’inertie (exprimée en pourcentage) apporté par l’individu i dans l’intertie de
l’axe j :
1 Y2
ψij
ctr(ind.i à l’axe j) = 100 n
λj
3. ACP NORMÉE 39
La figure (2.10) montre dans le premier graphique le nuage de point des données centrées normées dans la base
de départ. Le deuxième graphique ce même nuage de point dans la nouvelle base obtenue par l’ACP normée. Il
s’agit ici d’une rotation. Quand au troisième graphique il visualise les deux variables dans le meilleur plan. Nous
avons ici toute l’information dans ces plans. En particulier pour les variables. Les deux variable z.1 et z.2 sont ici
deux vecteur de R8 . Nous avons visualisé ces deux vecteurs dans le plan de R8 défini par ces deux vecteurs. Bien
que nous ayons des représentation planes, nous ne sommes pas du tout dans les mêmes espace pour les individus
et les variables.
1 1
u1 z.1
0.5 0.5
z.2
u2
0 0
−0.5 −0.5
u2 z.2
−1 −1
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
z.1 u1
0.5
v2
−0.5
−1
−1 −0.5 0 0.5 1
v1
Applications
1 Dépenses de l’État
1.1 Données
Le tableau suivant donne, en pourcentage, pour chaque année les dépenses de l’Etat entre 1872 et 1971.
PVP AGR CMI TRA LOG EDU ACS ACO DEF DET DIV Total
1872 18 0.5 0.1 6.7 0.5 2.1 2 0 26.4 41.5 2.1 100
1880 14.1 0.8 0.1 15.3 1.9 3.7 0.5 0 29.8 31.3 2.5 100
1890 13.6 0.7 0.7 6.8 0.6 7.1 0.7 0 33.8 34.4 1.7 100
1900 14.3 1.7 1.7 6.9 1.2 7.4 0.8 0 37.7 26.2 2.2 100
1903 10.3 1.5 0.4 9.3 0.6 8.5 0.9 0 38.4 27.2 3 100
1906 13.4 1.4 0.5 8.1 .7 8.6 1.8 0 38.5 25.3 1.9 100
1909 13.5 1.1 .5 9 .6 9 3.4 0 36.8 23.5 2.6 100
1912 12.9 1.4 .3 9.4 .6 9.3 4.3 0 41.1 19.4 1.3 100
1920 12.3 0.3 .1 11.9 2.4 3.7 1.7 1.9 42.4 23.1 .2 100
1923 7.6 1.2 3.2 5.1 0.6 5.6 1.8 10 29.0 35 .9 100
1926 10.5 .3 .4 4.5 1.8 6.6 2.1 10.1 19.9 41.6 2.3 100
1929 10 .6 .6 9 1 8.1 3.2 11.8 28.0 25.8 2 100
1932 10.6 .8 .3 8.9 3 10 6.4 13.4 27.4 19.2 0 100
1935 8.8 2.6 1.4 7.8 1.4 12.4 6.2 11.3 29.3 18.5 .4 100
1938 10.1 1.1 1.2 5.9 1.4 9.5 6 5.9 40.7 18.2 0 100
1947 15.6 1.6 10 11.4 7.6 8.8 4.8 3.4 32.2 4.6 0 100
1950 11.2 1.3 16.5 12.4 15.8 8.1 4.9 3.4 20.7 4.2 1.5 100
1953 12.9 1.5 7 7.9 12.1 8.1 5.3 3.9 36.1 5.2 0 100
1956 10.9 5.3 9.7 7.6 9.6 9.4 8.5 4.6 28.2 6.2 0 100
1959 13.1 4.4 7.3 5.7 9.8 12.5 8 5 26.7 7.5 0 100
1962 12.8 4.7 7.5 6.6 6.8 15.7 9.7 5.3 24.5 6.4 .1 100
1965 12.4 4.3 8.4 9.1 6 19.5 10.6 4.7 19.8 3.5 1.8 100
1968 11.4 6 9.5 5.9 5 21.1 10.7 4.2 20 4.4 1.9 100
1971 12.8 2.8 7.1 8.5 4 23.8 11.3 3.7 18.8 7.2 0 100
avec
– PVP : pouvoirs publics ;
– AGR : agriculture ;
– CMI : commerce et industrie ;
– TRA : travail ;
– LOG : logement et aménagement du territoire ;
– EDU : éducation ;
– ACS : action sociale ;
– ACO : anciens combatants ;
– DEF : défense ;
– DET : dette ;
– DIV : divers.
On a effectué sur ces données une Analyse en Composantes Principales normée,
On note X la matrice des données de départ, Y la matrice des données centrées réduites et Z la matrice des
données centrées normées :
41
42 CHAPITRE 3. APPLICATIONS
1.2 Résultats
xbar =
Columns 1 through 7
12.2125 1.9958 3.9375 8.3208 3.9583 9.9417 4.8167
Columns 8 through 11
4.2750 30.2583 19.1417 1.1833
s =
Columns 1 through 7
2.1911 1.6458 4.4834 2.4678 4.1819 5.2233 3.4088
Columns 8 through 11
4.1548 7.3095 12.1937 1.0258
R =
Columns 1 through 7
1.0000 -0.0846 -0.0018 0.2327 0.0356 -0.1500 -0.1314
-0.0846 1.0000 0.6011 -0.2758 0.4357 0.7313 0.8057
-0.0018 0.6011 1.0000 0.0919 0.8914 0.4678 0.6220
0.2327 -0.2758 0.0919 1.0000 0.1661 -0.2132 -0.2031
0.0356 0.4357 0.8914 0.1661 1.0000 0.2324 0.4878
-0.1500 0.7313 0.4678 -0.2132 0.2324 1.0000 0.8750
-0.1314 0.8057 0.6220 -0.2031 0.4878 0.8750 1.0000
-0.6869 0.0443 0.0227 -0.3132 0.0447 0.1570 0.2882
0.1011 -0.4484 -0.5373 0.1580 -0.3786 -0.5241 -0.5672
0.0336 -0.6949 -0.8041 -0.1483 -0.7580 -0.6702 -0.8082
0.1493 -0.2772 -0.3474 0.1144 -0.4379 -0.2486 -0.5296
Columns 8 through 11
-0.6869 0.1011 0.0336 0.1493
0.0443 -0.4484 -0.6949 -0.2772
0.0227 -0.5373 -0.8041 -0.3474
-0.3132 0.1580 -0.1483 0.1144
0.0447 -0.3786 -0.7580 -0.4379
0.1570 -0.5241 -0.6702 -0.2486
0.2882 -0.5672 -0.8082 -0.5296
1.0000 -0.4169 -0.0494 -0.3775
-0.4169 1.0000 0.2616 0.0204
-0.0494 0.2616 1.0000 0.5539
-0.3775 0.0204 0.5539 1.0000
Lambda=
Columns 1 through 7
4.9734 2.0499 1.2899 0.9933 0.7083 0.5587 0.2042
Columns 8 through 11
0.1253 0.0619 0.0350 0.0000
U =
Columns 1 through 7
-0.0778 0.5167 0.3007 0.1079 0.4039 0.5381 -0.0620
0.3670 0.0041 0.3226 0.1541 -0.0388 -0.2934 -0.7698
0.3738 0.2376 -0.1240 -0.2589 0.1797 -0.2609 0.2018
-0.0615 0.4404 -0.3311 -0.2821 -0.6498 0.2913 -0.2749
0.3236 0.2778 -0.3391 -0.2087 0.3125 -0.2351 0.0810
0.3528 -0.0953 0.3739 0.1163 -0.3776 0.1511 0.4744
1. DÉPENSES DE L’ÉTAT 43
V =
Columns 1 through 7
-0.2655 0.1461 0.2812 -0.0996 0.4987 0.3333 -0.1383
-0.2533 0.2868 -0.0305 -0.3039 -0.2998 0.1948 -0.4200
-0.2212 0.0319 0.1376 0.0548 0.1721 -0.0333 0.1482
-0.1882 0.1077 0.1810 0.1070 0.1221 -0.1685 0.0432
-0.2140 0.0238 0.1119 -0.0373 -0.2940 -0.3968 0.0591
-0.1817 0.0893 0.1244 0.1454 -0.0367 -0.1027 0.0748
-0.1746 0.1158 0.1773 0.0412 -0.1443 -0.0691 0.1351
-0.1310 0.1096 0.0349 0.2642 -0.1894 -0.0218 0.0592
-0.1958 0.1363 -0.3140 0.2177 -0.1519 0.0878 -0.1300
-0.1046 -0.4112 -0.1556 -0.0896 0.1315 -0.2296 -0.0231
-0.1532 -0.3722 0.0897 -0.3608 0.2893 0.0208 0.1276
-0.1074 -0.2611 -0.1097 -0.2367 -0.1686 0.0845 -0.0125
0.0248 -0.2793 -0.2628 -0.0082 -0.0838 0.3846 -0.0417
0.0603 -0.3274 -0.1191 0.0630 -0.1998 0.0607 -0.1745
-0.0368 -0.1915 -0.1528 0.3786 -0.0152 -0.0660 0.2274
0.0990 0.3209 -0.2294 0.0473 0.0905 0.2363 0.0465
0.2172 0.3101 -0.3446 -0.5455 0.0453 -0.2459 0.2935
0.1102 0.1617 -0.2988 0.1539 0.2333 -0.1116 0.2366
0.2680 0.0329 -0.1060 0.0909 0.1239 -0.2581 -0.4965
0.2459 0.0200 0.0128 0.1414 0.2940 -0.0489 -0.1794
0.2796 -0.0158 0.1054 0.1322 0.1017 0.0670 -0.1818
0.2877 0.0444 0.2538 -0.1562 -0.2259 0.0602 0.0167
0.3383 -0.0665 0.4129 -0.0576 -0.1153 -0.2000 -0.0813
0.2965 -0.0123 0.2003 0.0578 -0.1778 0.4222 0.4113
Columns 8 through 11
0.0046 0.0439 -0.3854 0.0971
0.1561 0.1848 0.1438 0.0959
0.2634 -0.0211 0.2500 -0.1830
-0.1605 -0.2866 0.2754 0.1424
0.0161 0.1166 0.1256 0.1798
-0.0399 -0.0715 0.1891 -0.5738
-0.2306 0.0797 -0.2704 0.2390
-0.0160 0.0808 -0.2431 0.0812
0.2249 0.0822 0.0173 -0.1002
0.4070 -0.3075 -0.0689 0.2938
-0.0279 0.2092 0.0790 -0.2124
-0.3927 -0.1712 -0.0130 -0.0468
-0.2436 0.1048 0.0308 0.0958
-0.0123 -0.0772 0.1551 -0.0522
0.0294 0.0575 -0.4425 -0.1126
44 CHAPITRE 3. APPLICATIONS
Phi =
Columns 1 through 7
-0.1736 0.7398 0.3415 0.1076 0.3399 0.4022 -0.0280
0.8185 0.0059 0.3664 0.1536 -0.0326 -0.2193 -0.3479
0.8336 0.3402 -0.1408 -0.2580 0.1512 -0.1950 0.0912
-0.1372 0.6306 -0.3760 -0.2811 -0.5469 0.2178 -0.1242
0.7216 0.3977 -0.3852 -0.2080 0.2630 -0.1757 0.0366
0.7868 -0.1365 0.4246 0.1159 -0.3178 0.1130 0.2144
0.9333 -0.1005 0.1661 0.1507 -0.1043 0.1736 -0.0009
0.2890 -0.8076 -0.3745 -0.2022 0.0116 0.1960 -0.0655
-0.6123 0.2161 -0.2599 0.6368 -0.1540 -0.2611 0.0373
-0.8887 -0.3015 0.1608 -0.1793 0.1759 0.0600 -0.0636
-0.5481 0.1124 0.5366 -0.5047 -0.1842 -0.2817 0.0405
Columns 8 through 11
-0.1175 -0.0484 0.0131 -0.0003
0.0045 -0.0223 0.0378 -0.0002
0.0866 -0.1539 -0.0504 -0.0005
0.0352 0.0001 0.0053 -0.0003
-0.0755 0.1395 0.0544 -0.0005
0.0244 -0.0069 0.0902 -0.0006
-0.0318 0.0901 -0.1358 -0.0004
-0.1867 -0.0725 0.0163 -0.0005
-0.1044 -0.0301 -0.0142 -0.0009
0.1453 0.0395 -0.0014 -0.0014
-0.1689 0.0065 -0.0291 -0.0001
Cos^2 =
Columns 1 through 7
0.4652 0.0580 0.1354 0.0131 0.2337 0.0824 0.0052
0.4511 0.2384 0.0017 0.1296 0.0900 0.0300 0.0509
0.7853 0.0067 0.0789 0.0096 0.0677 0.0020 0.0145
0.6048 0.0815 0.1449 0.0391 0.0363 0.0544 0.0013
0.5725 0.0029 0.0406 0.0035 0.1539 0.2212 0.0018
0.7100 0.0706 0.0864 0.0908 0.0041 0.0255 0.0049
0.6013 0.1090 0.1609 0.0067 0.0585 0.0106 0.0148
0.4068 0.1173 0.0075 0.3306 0.1212 0.0013 0.0034
0.4395 0.0878 0.2932 0.1085 0.0377 0.0099 0.0080
0.1070 0.6811 0.0614 0.0157 0.0241 0.0579 0.0002
0.1926 0.4684 0.0171 0.2133 0.0978 0.0004 0.0055
0.1830 0.4456 0.0495 0.1775 0.0642 0.0127 0.0001
0.0088 0.4593 0.2557 0.0002 0.0143 0.2373 0.0010
0.0608 0.7377 0.0614 0.0132 0.0949 0.0069 0.0209
0.0246 0.2735 0.1096 0.5182 0.0006 0.0089 0.0385
0.1230 0.5330 0.1714 0.0056 0.0146 0.0788 0.0011
0.2506 0.2106 0.1636 0.3157 0.0016 0.0361 0.0188
0.1833 0.1628 0.3496 0.0715 0.1171 0.0211 0.0347
0.7348 0.0046 0.0298 0.0169 0.0224 0.0766 0.1036
0.7547 0.0021 0.0005 0.0499 0.1536 0.0034 0.0165
0.8881 0.0012 0.0327 0.0397 0.0167 0.0057 0.0154
0.7270 0.0071 0.1468 0.0428 0.0638 0.0036 0.0001
0.6801 0.0108 0.2628 0.0039 0.0113 0.0267 0.0016
0.6462 0.0005 0.0765 0.0049 0.0331 0.1472 0.0511
Columns 8 through 11
0.0000 0.0002 0.0069 0.0000
0.0043 0.0030 0.0010 0.0000
0.0281 0.0001 0.0071 0.0000
0.0111 0.0175 0.0091 0.0000
0.0001 0.0021 0.0014 0.0000
0.0009 0.0014 0.0054 0.0000
46 CHAPITRE 3. APPLICATIONS
Ctr =
Columns 1 through 7
7.0485 2.1331 7.9072 0.9913 24.8677 11.1098 1.9118
6.4162 8.2278 0.0928 9.2326 8.9889 3.7947 17.6391
4.8915 0.1020 1.8939 0.3001 2.9622 0.1107 2.1953
3.5437 1.1591 3.2744 1.1459 1.4915 2.8383 0.1865
4.5790 0.0569 1.2519 0.1388 8.6444 15.7472 0.3496
3.3016 0.7969 1.5486 2.1128 0.1347 1.0538 0.5594
3.0479 1.3409 3.1447 0.1695 2.0826 0.4780 1.8243
1.7158 1.2002 0.1218 6.9806 3.5882 0.0477 0.3507
3.8338 1.8573 9.8607 4.7372 2.3067 0.7708 1.6889
1.0944 16.9053 2.4204 0.8030 1.7305 5.2718 0.0534
2.3480 13.8563 0.8053 13.0195 8.3717 0.0434 1.6270
1.1536 6.8158 1.2036 5.6040 2.8438 0.7137 0.0157
0.0614 7.8030 6.9042 0.0068 0.7022 14.7945 0.1741
0.3639 10.7170 1.4187 0.3973 3.9909 0.3689 3.0457
0.1357 3.6659 2.3348 14.3325 0.0230 0.4361 5.1720
0.9795 10.3006 5.2631 0.2239 0.8186 5.5854 0.2159
4.7170 9.6189 11.8763 29.7552 0.2057 6.0482 8.6147
1.2140 2.6153 8.9270 2.3698 5.4436 1.2445 5.5989
7.1824 0.1082 1.1239 0.8256 1.5361 6.6626 24.6539
6.0452 0.0399 0.0165 1.9998 8.6412 0.2393 3.2169
7.8177 0.0249 1.1108 1.7486 1.0338 0.4494 3.3053
8.2762 0.1969 6.4436 2.4398 5.1014 0.3630 0.0278
11.4422 0.4426 17.0452 0.3318 1.3305 4.0016 0.6603
8.7908 0.0152 4.0107 0.3338 3.1601 17.8266 16.9127
Columns 8 through 11
0.0021 0.1923 14.8503 0.9431
2.4381 3.4135 2.0679 0.9204
6.9377 0.0446 6.2503 3.3473
2.5753 8.2111 7.5859 2.0273
0.0259 1.3593 1.5771 3.2317
0.1596 0.5112 3.5773 32.9228
5.3168 0.6355 7.3112 5.7123
0.0256 0.6524 5.9089 0.6592
5.0576 0.6749 0.0299 1.0040
16.5682 9.4570 0.4744 8.6305
0.0778 4.3750 0.6244 4.5108
15.4226 2.9299 0.0168 0.2189
5.9361 1.0993 0.0949 0.9187
0.0151 0.5957 2.4063 0.2727
1. DÉPENSES DE L’ÉTAT 47
2 1
1 0.5
Plan 1−2
0
0
−1
−0.5
−2
−1
−2 −1 0 1 2 3 −1 −0.5 0 0.5 1
1.3 Questions
(i) Quelle est la quantité d’information en terme d’inertie dans le plan factoriel 1-2 ? Quel pourcentage de l’inertie
totale cela représente-t-il
(ii) Dans l’ACP la dernière valeur propre est nulle. Pourquoi ?
(iii) Interpréter les axes 1 et 2.
(iv) Le point 1880 est-il bien représenté sur l’axe 2 ? sur le plan 1-2 ?
(v) Interpréter le graphe de points.
(vi) Donner les coordonnées des points Mi sur les axes 1 et 2 en fonction de Y et U .
(vii) Démontrer que l’inertie de l’axe j est donné par la jème valeur propre.
(viii) Donner les coordonnées des variables définies par les colonnes de Z sur l’axe j en fonction de U et Λ.
1.4 Réponses
(i) Nous sommes en ACP normée donc l’inertie dans le plan 1-2 est la somme des deux premières valeurs propres :
L’inertie totale est p = 11, donc la part de l’inertie expliquée par le plan 1-2 est τ2 = 7.0233/11 = 0.638. En
pourcentage nous avons donc environ 64% de l’information dans le premier plan.
(ii) Nous sommes ici dans un cas particulier où pour tout i la somme des lignes de la matrice de départ X vaut
toujours 100 car les données sont des pourcentages. Par conséquent la somme des composantes de x̄ sera aussi
100 et donc X
(xij − x̄.j ) = 0 pour tout i
j
La matrice de données centrées est donc de rang strictement inférieur à p. Il en est de même pour les matrices
Y et Z, d’où la nullité de la dernière valeur propre.
(iii) Pour le nuage des variables, on voit pour l’axe 1 que
48 CHAPITRE 3. APPLICATIONS
– AGR, CMI, LOG, EDU, ACS ont une corrélation avec l’axe 1 ”proche” de +1 ;
– DEF, DET et DIV ont une corrélation avec l’axe 1 ”proche” de −1
Pour le deuxième axe
– PVP et TRA ont une corrélation ”proche” de +1 avec l’axe 2 ;
– ACO a une corrélation ”proche” de −1 avec l’axe 2 ;
On conclut qu’en général, des fortes dépenses pour l’agriculture, le commerce et l’industrie, le logement,
l’éducation et l’action sociale impliquent des faibles dépenses pour la défense, le remboursement de la dette
et les divers et réciproquement. Ces dépenses sont peu corrélées à celles des pouvoirs publics, du travail et des
anciens combatants. Pour ces trois dernières variables on observe une opposition entre le poste des anciens
combatants et ceux des pouvoirs publics et du travail.
(iv) cos2 (θ22 ) = 0.2384, ce point n’est donc pas bien représenté sur l’axe 2.
cos2 (θ21 ) + cos2 (θ22 ) = 0.4511 + 0.2384 = 6895. Ce point est bien représenté sur le plan 1-2.
Remarque 1.4.1. Ce sont les cos2 qui s’ajoutent. En effet la projection orthogonale du point Mi sur le plan
1-2 s’écrit
−−→ −−→ −−→ −−→
OH i = (OM i |u)u = (OM i |u.1 )u.1 + (OH i |u.2 )u.2, ,
avec
−−→ −−→ −−→ −−→ −−→ −−→
(OM i |u.1 ) = cos(θi1 )||OM i || (OH i |u.2 ) = cos(θi2 )||OM i || (OM i |u) = cos(θ)||OM i ||.
Par suite le théorème de Pythagore donne
(v) Concernant les individus, les cos2 θ nous montrent qu’il n’y a pas de points très mal représentés (ce que l’on
peut aussi voir par le fait ici qu’il n’y a pas de points proches de l’origine). Nous observons 4 groupes :
– les années de 1872 à 1920 qui se trouvent en haut à gauche et qui sont caractérisées par des fortes dépenses
pour PVP, DEF et DET et de faibles dépenses ailleurs ;
– les années de 1923 à 1938 qui se trouvent en bas et qui sont caractérisées par leurs dépenses ACO ;
– les années 1947, 1950 et 1953 qui sont cacartérisées par les dépenses PVP et TRA ;
– les années de 1956 à 1971 qui sont à droite et qui sont caractérisées par les dépenses AGR, CMI, LOG,
EDU et ACS.
(vi) ψ Y = Y U
(vii)
1X Y 2 1 1
Ij = (ψij ) = (Y uj /Y uj ) = ( t Y Y uj /uj ) = λj
n i n n
(viii)
1 1 1
φ.j = t Zv.j = t Z p Zu.j = p t ZZu.j = p λj u.j = λj u.j
p
λj λj λj
2 Budget-Temps multimédia
2.1 Données
Cet exemple provient de l’ouvrage de Ludovic Lebart, Alain Morineau et Marie Piron, page 57. [2] Le Centre
d’Étude des Supports de Publicité a relevé dans son enquête Budget-Temps multimédia de 1991/1992 auprès de 17
667 personnes, des temps d’activité quotidienne. Nous nous intéressons ici à une sous population de 27 ”individus”
qui sont en fait des groupes d’individus. La table 3.1 donne les données obtenues. La première colonne de cette
table est un codage des individus qui a la signification de la table 3.2
Quant à la signification des variables, elle est donnée à la table 3.3
Une ACP normée a été effectuée sur ces données et on a obtenu les résultats suivants
2.2 Résultats
xbar =
Columns 1 through 7
458.9111 44.6333 89.1778 13.8741 286.2704 27.9037 27.6370
Columns 8 through 14
58.4852 11.4222 2.5407 7.9519 40.9852 9.0593 12.6630
Columns 15 through 16
58.3815 140.5778
2. BUDGET-TEMPS MULTIMÉDIA 49
Ident Somm Repo Reps Repr Trar Ména Visi Jard Lois Disq Lect Cour Prom A pi Voit Fréq
1111 463.8 23.8 107.3 4.8 300.0 21.3 51.0 82.3 10.0 1.2 .0 41.3 6.9 7.1 52.1 135.8
1115 515.6 58.5 102.7 10.4 208.8 41.9 30.0 32.9 02.1 4.6 0.6 33.7 8.3 24.6 29.4 225.8
1121 463.3 34.2 84.8 17.1 298.3 18.1 37.8 55.8 18.4 5.9 2.6 30.7 5.9 8.8 56.7 135.8
1122 456.4 43.1 74.2 21.9 239.0 26.0 51.2 59.7 18.4 3.6 4.6 52.2 9.5 10.8 72.7 142.3
1123 478.0 44.2 76.7 15.2 212.3 22.3 42.0 43.7 18.4 2.3 6.4 48.3 14.7 15.5 72.8 167.7
1124 465.1 41.6 85.2 23.7 226.0 37.0 42.5 16.3 10.7 8.7 9.4 44.3 13.7 19.8 59.0 145.1
1136 458.4 47.4 94.7 15.1 314.3 25.3 39.1 42.4 16.9 0.9 16.7 34.5 4.6 6.4 61.5 103.4
1133 457.2 30.7 82.0 26.2 269.8 52.1 37.6 35.6 25.6 6.0 8.0 42.8 10.4 12.0 81.4 107.6
1134 465.2 40.2 78.6 31.1 268.6 36.3 21.6 4.0 19.4 6.0 14.8 46.9 10.7 21.9 48.3 82.4
2111 449.0 42.1 86.2 7.9 312.5 15.1 16.1 112.9 15.4 0.0 2.2 32.1 7.6 8.1 60.1 153.9
2112 450.2 63.1 86.7 9.8 249.6 40.4 55.6 83.3 3.0 2.2 0.0 45.0 9.4 10.4 61.9 145.4
2117 455.2 47.4 95.6 9.0 250.8 30.47 13.5 57.3 7.9 2.9 7.0 52.2 15.1 15.7 49.1 194.8
2121 461.9 39.3 90.3 8.5 323.5 14.9 21.7 81.8 15.4 1.2 5.3 26.0 3.8 7.4 59.6 130.8
2122 453.7 44.7 97.5 18.7 269.0 23.1 39.6 93.5 3.1 3.4 12.1 42.0 12.1 10.6 62.4 129.1
2123 433.1 49.8 91.7 12.6 283.7 22.4 21.0 62.9 13.1 6.2 7.3 38.1 11.6 11.7 47.6 168.6
2124 438.3 32.8 102.3 11.1 338.3 28.0 6.5 64.8 13.8 1.4 19.8 34.9 7.4 14.1 53.2 130.5
2131 457.7 44.0 87.9 6.9 313.0 24.4 23.2 63.8 9.2 0.6 11.8 30.0 7.3 7.5 69.7 108.3
2132 455.0 47.0 78.9 31.6 380.6 23.9 7.5 40.0 13.0 0.0 10.3 23.3 1.4 9.4 59.4 100.0
2133 467.3 37.5 86.9 21.9 264.0 40.8 27.6 33.4 11.9 1.6 10.8 45.3 6.7 10.7 72.8 135.2
2134 433.5 35.6 76.1 17.1 355.0 34.1 13.4 31.7 12.6 3.2 13.2 37.5 8.5 22.3 57.5 96.5
3116 473.0 51.5 99.3 6.3 356.3 21.2 27.6 82.1 8.6 0.0 1.5 35.7 13.4 7.1 40.6 107.7
3117 461.9 60.0 103.7 9.1 240.5 35.3 14.5 83.4 1.4 2.0 7.4 46.1 5.7 16.6 53.3 183.7
3121 453.4 45.6 86.2 7.8 358.7 12.9 18.5 54.4 4.2 0.0 4.9 34.3 3.3 10.3 48.7 143.1
3122 485.1 53.5 86.0 0.3 222.4 24.7 23.2 91.9 8.5 0.0 3.7 52.9 7.1 9.9 75.3 166.3
3123 456.7 43.2 94.6 12.1 265.3 30.5 23.7 61.1 9.1 2.3 11.6 50.1 17.6 13.2 46.3 185.3
3136 444.2 53.6 90.7 7.2 302.4 31.7 16.4 97.6 4.7 2.4 4.3 38.8 13.6 11.4 61.8 127.2
3137 438.4 50.7 81.0 11.2 306.6 19.3 23.8 10.5 13.6 0.0 18.4 67.6 8.3 18.6 63.1 143.3
– Le premier caractère est l’âge du groupe (1= - de 35 ans, 2=entre 35 et50 ans, 3=+ de 35 ans)
– Le deuxième caractère est ici toujours 1 (car il s’agit toujours d’hommes actifs)
– Le troisième caractère est le niveau déducation (1=primaire, 2=secondaire, 3=supérieur)
– Le quatrième caractère est le type d’agglomération (1= communes rurales, 2=villes moyennes, 3=villes impor-
tantes, 4=agglomération parisienne, 5,6 et 7=groupe mixte)
s =
Columns 1 through 7
16.4678 8.9011 8.9026 7.8151 46.7466 9.2859 13.2615
Columns 8 through 14
27.3892 5.9516 2.3152 5.4720 9.4722 3.8821 5.0065
Columns 15 through 16
11.2852 32.5644
R =
Columns 1 through 7
1.0000 0.2111 0.2054 -0.0790 -0.5203 0.2015 0.2682
0.2111 1.0000 0.1023 -0.3001 -0.2813 0.0839 -0.0808
0.2054 0.1023 1.0000 -0.5273 -0.0211 -0.0118 -0.0658
-0.0790 -0.3001 -0.5273 1.0000 -0.0101 0.3945 0.0997
-0.5203 -0.2813 -0.0211 -0.0101 1.0000 -0.4618 -0.4682
0.2015 0.0839 -0.0118 0.3945 -0.4618 1.0000 0.1527
0.2682 -0.0808 -0.0658 0.0997 -0.4682 0.1527 1.0000
-0.0863 0.1877 0.4294 -0.6431 0.0776 -0.3687 -0.0203
-0.1651 -0.6133 -0.5479 0.5170 0.1040 -0.0075 0.1209
0.0702 -0.1747 -0.1526 0.5167 -0.4636 0.4966 0.3048
-0.4353 -0.2148 -0.1450 0.3819 0.2389 0.0788 -0.3570
-0.0387 0.1760 -0.1650 -0.0329 -0.5552 0.2263 0.2357
-0.0045 0.0896 0.0379 -0.0156 -0.4531 0.2748 0.1790
0.1659 0.1485 -0.1381 0.2805 -0.3751 0.4903 -0.1786
-0.1897 -0.2209 -0.5508 0.2074 -0.1509 0.1014 0.2703
0.4018 0.4215 0.3744 -0.4367 -0.6205 0.0507 0.0126
Columns 8 through 14
-0.0863 -0.1651 0.0702 -0.4353 -0.0387 -0.0045 0.1659
0.1877 -0.6133 -0.1747 -0.2148 0.1760 0.0896 0.1485
50 CHAPITRE 3. APPLICATIONS
Intitulés Signification
Somm Sommeil
Repo Repos
Reps Repas chez soi
Repr Repas restaurant
Trar Travail rémunéré
Ména Ménage
Visi Visite à des amis
Jard Jardinage, Bricolage
Lois Loisirs extérieur
Disq Disques, cassettes
Lect Lecture livre
Cour Courses et démarches
Prom Promenage
A pi Déplacement à pied
Voit Déplacement en voiture
Fréq Fréquentation Média
Lambda =
Columns 1 through 7
3.8713 3.6602 2.0066 1.5144 1.1266 0.8374 0.7668
Columns 8 through 14
0.5961 0.4447 0.3740 0.2461 0.2223 0.1616 0.1148
Columns 15 through 16
0.0373 0.0198
2. BUDGET-TEMPS MULTIMÉDIA 51
U(:,1:5)=
-0.1114 -0.2709 -0.1271 -0.4027 0.3811
-0.2333 -0.2109 0.1181 0.2109 0.4390
-0.3402 -0.0761 0.1650 -0.1781 -0.3580
0.4280 0.0007 0.0474 -0.2160 0.0902
-0.0279 0.4596 0.2425 -0.0638 -0.0690
0.2049 -0.2981 0.0564 -0.1150 0.0419
0.0658 -0.1724 -0.5178 -0.1387 -0.0938
-0.3875 0.1130 -0.2501 0.0946 -0.2168
0.3658 0.1594 -0.2098 -0.0697 -0.0903
0.2696 -0.2744 -0.0051 -0.2963 -0.3285
0.2738 0.1232 0.3559 0.3057 -0.0413
0.1086 -0.2832 -0.0776 0.5647 -0.0121
0.0491 -0.3036 -0.0267 0.2433 -0.5378
0.1882 -0.3260 0.4016 0.0129 0.0969
0.2087 0.1135 -0.4560 0.3174 0.2150
-0.2496 -0.3554 0.0336 0.0660 0.0257
V(:,1:5)=
-0.1961 0.0856 -0.2420 -0.2185 -0.3286
-0.2210 -0.5136 0.2619 -0.4803 0.2793
0.0692 0.1018 -0.1828 -0.3214 -0.0933
0.1815 -0.0640 -0.3675 0.1004 0.0685
0.1248 -0.1818 -0.2706 0.1290 0.0974
0.2663 -0.2951 0.0060 -0.1426 -0.1345
0.0545 0.1977 -0.0304 -0.0443 0.0958
0.4119 -0.0297 -0.2574 -0.1221 -0.0990
0.4195 -0.0917 0.2281 -0.1257 0.0239
-0.1865 0.2131 -0.1201 0.0372 -0.0430
-0.1399 -0.1687 -0.2397 0.0880 0.1249
-0.1005 -0.2172 0.1564 0.1830 -0.1827
-0.1241 0.2566 -0.0822 -0.1667 0.0460
-0.0607 -0.0214 -0.0664 0.0723 -0.2133
-0.0291 -0.0333 0.1036 0.0170 -0.2824
0.0121 0.2070 0.3168 0.0562 -0.2542
-0.0542 0.2038 -0.0398 0.0420 0.0859
0.1146 0.3550 0.1840 -0.1913 0.3812
0.1590 -0.0110 -0.0753 0.0011 0.1768
0.2482 0.1368 0.2910 0.0514 -0.0300
-0.2626 0.0967 0.0231 -0.1145 -0.1387
-0.2380 -0.1848 0.1874 0.0831 0.1613
-0.1856 0.2119 0.1362 -0.0375 0.1747
-0.2077 -0.0957 -0.2499 0.2389 0.3342
-0.0548 -0.1751 0.1207 0.1720 -0.2988
-0.1522 0.0088 0.0193 0.1599 -0.1305
0.1516 0.0081 0.1897 0.5336 0.1790
Psi^Y(:,1:5)=
-2.0051 0.8512 -1.7810 -1.3974 -1.8124
-2.2596 -5.1053 1.9275 -3.0714 1.5407
0.7075 1.0120 -1.3457 -2.0554 -0.5143
1.8552 -0.6360 -2.7053 0.6419 0.3779
1.2764 -1.8072 -1.9920 0.8249 0.5370
2.7222 -2.9336 0.0443 -0.9121 -0.7416
0.5572 1.9653 -0.2241 -0.2832 0.5284
4.2110 -0.2957 -1.8943 -0.7806 -0.5462
4.2893 -0.9112 1.6786 -0.8039 0.1316
-1.9067 2.1183 -0.8841 0.2380 -0.2373
-1.4303 -1.6770 -1.7647 0.5628 0.6889
52 CHAPITRE 3. APPLICATIONS
Phi(:,1:5)=
-0.2191 -0.5183 -0.1801 -0.4956 0.4045
-0.4591 -0.4035 0.1673 0.2595 0.4660
-0.6693 -0.1457 0.2337 -0.2192 -0.3800
0.8421 0.0013 0.0671 -0.2658 0.0957
-0.0550 0.8793 0.3435 -0.0785 -0.0732
0.4031 -0.5703 0.0798 -0.1415 0.0445
0.1295 -0.3298 -0.7335 -0.1707 -0.0996
-0.7625 0.2162 -0.3542 0.1164 -0.2301
0.7198 0.3049 -0.2972 -0.0857 -0.0959
0.5305 -0.5250 -0.0073 -0.3646 -0.3487
0.5387 0.2358 0.5042 0.3762 -0.0438
0.2136 -0.5419 -0.1099 0.6950 -0.0128
0.0965 -0.5808 -0.0378 0.2994 -0.5708
0.3703 -0.6236 0.5689 0.0159 0.1029
0.4106 0.2172 -0.6459 0.3906 0.2282
-0.4912 -0.6799 0.0475 0.0813 0.0273
Cos^2(:,1:5)=
0.2021 0.0364 0.1595 0.0982 0.1651
0.1075 0.5486 0.0782 0.1985 0.0500
0.0474 0.0971 0.1716 0.4004 0.0251
0.2590 0.0304 0.5508 0.0310 0.0107
0.1124 0.2254 0.2738 0.0470 0.0199
0.3889 0.4516 0.0001 0.0437 0.0289
0.0291 0.3618 0.0047 0.0075 0.0262
0.6557 0.0032 0.1327 0.0225 0.0110
0.7259 0.0328 0.1112 0.0255 0.0007
0.2827 0.3490 0.0608 0.0044 0.0044
0.1184 0.1628 0.1803 0.0183 0.0275
0.0969 0.4280 0.1218 0.1257 0.0933
0.1469 0.5934 0.0334 0.1036 0.0059
0.0487 0.0057 0.0301 0.0270 0.1746
0.0106 0.0132 0.0698 0.0014 0.2911
0.0010 0.2726 0.3498 0.0083 0.1265
0.0416 0.5556 0.0116 0.0097 0.0304
0.0561 0.5094 0.0750 0.0612 0.1808
0.3366 0.0015 0.0391 0.0000 0.1211
0.3745 0.1076 0.2668 0.0063 0.0016
0.4453 0.0571 0.0018 0.0331 0.0362
0.3709 0.2113 0.1192 0.0177 0.0496
0.2771 0.3414 0.0773 0.0044 0.0714
0.2604 0.0522 0.1953 0.1347 0.1963
2. BUDGET-TEMPS MULTIMÉDIA 53
Ctr(:,1:5)=
3.8466 0.7332 5.8546 4.7755 10.7980
4.8848 26.3734 6.8577 23.0711 7.8035
0.4788 1.0362 3.3425 10.3324 0.8697
3.2927 0.4094 13.5081 1.0077 0.4694
1.5588 3.3048 7.3243 1.6642 0.9481
7.0896 8.7081 0.0036 2.0348 1.8080
0.2971 3.9082 0.0927 0.1962 0.9178
16.9649 0.0885 6.6234 1.4903 0.9808
17.6019 0.8402 5.2009 1.5804 0.0570
3.4780 4.5404 1.4428 0.1385 0.1851
1.9572 2.8459 5.7478 0.7747 1.5601
1.0098 4.7157 2.4471 3.3473 3.3382
1.5407 6.5832 0.6751 2.7785 0.2119
0.3690 0.0458 0.4405 0.5234 4.5478
0.0844 0.1109 1.0738 0.0289 7.9767
0.0147 4.2859 10.0331 0.3156 6.4613
0.2940 4.1521 0.1581 0.1760 0.7376
1.3123 12.6011 3.3847 3.6612 14.5291
2.5277 0.0121 0.5664 0.0001 3.1254
6.1612 1.8715 8.4687 0.2640 0.0897
6.8959 0.9344 0.0532 1.3107 1.9240
5.6658 3.4138 3.5118 0.6910 2.6027
3.4460 4.4909 1.8546 0.1410 3.0507
4.3139 0.9154 6.2428 5.7051 11.1707
0.3005 3.0645 1.4565 2.9601 8.9277
2.3164 0.0077 0.0371 2.5572 1.7036
2.2972 0.0066 3.5981 28.4742 3.2054
age =
Columns 1 through 7
469.2222 40.4111 87.3556 18.3889 259.6778 31.1444 39.2000
450.4455 43.9364 89.1000 14.1000 303.6364 27.0455 22.3364
458.9571 51.1571 91.6429 7.7143 293.1714 25.0857 21.1000
Columns 8 through 14
41.4111 15.5444 4.3556 7.0111 41.6333 9.4111 14.1000
65.9455 10.7636 2.0636 9.0727 36.9455 8.2636 11.6273
68.7143 7.1571 0.9571 7.4000 46.5000 9.8571 12.4429
Columns 15 through 16
59.3222 138.4333
59.3909 135.7364
55.5857 150.9429
Yage =
Columns 1 through 7
0.6261 -0.4743 -0.2047 0.5777 -0.5689 0.3490 0.8719
-0.5141 -0.0783 -0.0087 0.0289 0.3715 -0.0924 -0.3997
0.0028 0.7329 0.2769 -0.7882 0.1476 -0.3035 -0.4929
Psi_Yage =
Columns 1 through 7
1.2616 -0.8734 -0.6991 -0.8708 -0.0554 0.3742 -0.1178
-0.1498 0.8321 0.2866 0.1105 -0.0957 -0.3259 0.0547
-1.3866 -0.1846 0.4484 0.9459 0.2216 0.0309 0.0655
54 CHAPITRE 3. APPLICATIONS
0.0505 -0.1032
0.0606 -0.0456
0.0118 0.0623
0.0452 0.0699
0.0653 -0.1612
0.1627 -0.1821
0.1524 -0.1438
-0.0303 -0.0533
-0.0941 0.1834
-0.0884 0.1970
0.0048 -0.1135
-0.0296 0.0444
-0.0192 0.0369
0.0499 -0.1467
0.0220 -0.1119
0.1241 -0.2976
0.0629 -0.0706
0.1316 -0.2149
-0.0868 0.0633
-0.1379 0.2426
-0.0302 -0.0529
-0.1061 0.1671
-0.0605 0.1460
-0.0606 0.0688
0.0640 -0.0800
2
allgo1
1
+35 Sup.
0 agglo2
Second. Paris
+50
Primaire agglo3
−35
−1
−2
−3
−4
−5
−4 −3 −2 −1 0 1 2 3 4 5 6
2.3 Questions
(i) À quelle valeur est égale la somme des valeurs propres ?
(ii) À quoi correspond cette valeur ?
(iii) Quel est le pourcentage d’information sur les 5 premiers axes ?
(iv) Donnez une raison pour laquelle on peut a priori s’arrêter au cinquième axe.
56 CHAPITRE 3. APPLICATIONS
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
−1 −0.5 0 0.5 1
(v) À partir du graphique de la figure 3.3 donner une estimation des corrélations entre les variables Ména et
Disq, Trar et Repr, Reps et Repr.
(vi) Interpréter les axes 1 et 2
(vii) À partir du graphique de la figure 3.2, que pouvez-vous dire des individus 1115 et 2123 ?
(viii) Comment est calculer la contribution de l’individu 1115 à l’axe 2 ?
(ix) Comment est calculer le cos2 de l’individu 2123 par rapport à l’axe 1 ?
(x) Comment ont été obtenus les points −35, +35 et +50 ?
(xi) Conclusion.
(xii) Comment a été calculé la meilleure approximation de rang 2 de Z ?
2.4 Réponses
(i) À 16.
(ii) C’est l’inertie totale du nuage car l’ACP est normée.
(iii) C’est
P5
i=1 λi
= 0.7612
16
Nous avons donc en pourcentage 76% de l’information sur les 5 premiers axes.
(iv) La sixième valeur propre est inférieure à 1. Ce critère s’appelle le critère de Kaiser.
(v) – La corrélation entre les variables Ména et Disq est proche de 1
(vi) – axe 1
+ -
Repas chez soi Repas restaurant
Jardinage, bricolage Loisirs estérieurs
Repos Mémage
Fréquentation Média Disque, cassette
Lecture
Trajet en voiture
Interprétation : opposition entre les activités extérieures ou d’ouverture et les activités d’intérieures.
– axe 2
Opposition entre le travail rémunéré et les activités de temps disponibles
(vii) L’individu 1115, en bas et à gauche est éloigné des autres points Ceci suggère qu’il a un emploi du temps aty-
pique par rapport aux critères des axes 1 et 2. L’individu 2123 est lui proche de l’origine. Il a un comportement
moyen par rapport aux critères définis par des axes 1 et 2.
3. TRAITEMENT D’IMAGES 57
(viii)
Y 2
(1/n)(ψ22 ) (1/27)(−5.1053)2
Ctr22 = 100 = 100 = 27.27%
λ2 3.6602
(ix)
Y 2
(ψij ) (−0.2970)2
cos2 (θ15,1 ) = = = 0.0106
~ i ||2
||OM (0.2970) + (−0.3311)2 + 0.76272 + · · ·
2
3 Traitement d’images
3.1 Problème
Les 12 images (3.4) sont les images obtenues à partir des données du satellite SPOT de la région de Fabas, pr‘es
de Boussens. SPOT donnedes mesures sur 12 longueurs d’ondes différentes. Une image est constituée de pixels (293
lignes×282colonnes=82626 pixels). Pour chaque pixel et chaque longueur d’onde on a l’amplitude codée entre 0 et
255. Les données sont ainsi par exemple pour les 10 premieres lignes et colonnes et la première longueur d’onde :
3.2 ACP
Les individus sont ici les pixels. La matrice des données X est donc une matrice (82626,12). Une colonne de
cette matrice est constituées des 282 colonnes d’une image de départ mises les unes au dessous des autres. Nous
réalisons une ACP normée sur cette matrice, puis nous recodons les valeurs des composantes principales entre 0
et 255, puis nous transformons chaque chaque colonne en une matrice ”image”. Nous avons ainsi sur la première
composante principale l’image noir et blanc qui maximise le ”contraste”, ...
Les Valeurs propres obtenus sont
λ = (5.5027, 2.0452, 1.7215, 0.8298, 0.7369, 0.4618, 0.3965, 0.2031, 0.0404, 0.0245, 0.0233, 0.0145)
Nous avons ainsi sur les trois premiers axes 77.2449% de l’information.
La figure (3.5) contient les 12 images obtenue pour les composantes principales
58 CHAPITRE 3. APPLICATIONS
50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250
50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250
50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250
50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250
50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250
50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250
Pour avoir la meilleure image couleur il suffit de mettre la première composante principale sur le canal ”vert”,
la deuxième composante principale sur le canal ”rouge” et la troisième sur le canal ”bleu”. Nous obtenons ainsi
l’image couleur (3.6)
Enfin le dernier graphique (3.7) montre l’espace des variables. On constate sur ce graphique qu’il y a des cannaux
très corélés.
3. TRAITEMENT D’IMAGES 59
50
100
150
200
250
0.5 0.5
0 0
−0.5 −0.5
b = x1 a.1 + · · · xp a.p
On a donc
Im A = V ect{a.1 , . . . , a.p }
(x/t a1. )
b=
..
.
(x/t an. )
Ker A = V ect{t a1. , . . . , t an. }⊥
61
62 ANNEXE A. INTERPRÉTATION DES PRODUITS MATRICIELS
Ceci est la définition du terme d’indice ij du produit de la matrice A par la matrice B (4.2.6).
Remarque 2.3.1. rg(a.k bk. ) = 0 si a.k = 0 ou si bk. = 0
rg(a.k bk. ) = 1 sinon
Par suite C est somme de matrices de rang 1 au plus.
Remarque 2.4.1. (i) t AA contient les produits scalaires des vecteurs colonnes de A.
(ii) At A contient les produits scalaires des vecteurs lignes de A.
Bibliographie
[1] Brigitte Escofier and Jérome Pagès. Analyses factorielles simples et multiples. Dunod, 1998. ISBN : 02 10
004127 3.
[2] Ludovic Lebart, A. Morireau, and J.P. Fenelon. Statistique exploratoire multidimensionnelle. Dunod, 1998.
ISBN :.
[3] Gibert Saporta. Probabilités, analyse des données et statistique. Technip, 1989. ISBN :.
63