Vous êtes sur la page 1sur 33

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE

U.F.R. SEGMI Année universitaire 2013 – 2014


Master d’économie Cours de M. Desgraupes

MATHS/STATS

Document 2 : Solution des exercices d’algèbre linéaire

Table des matières


1 Espaces Vectoriels 1

2 Applications linéaires 4

3 Représentation matricielle 9

4 Diagonalisation 15

5 Décompositions matricielles 23

1 Espaces Vectoriels

Corrigé ex. 1 : Espaces définis par paramètres

On considère les deux ensembles suivants :


E1 = {(a, 2b, b − a) | a, b ∈ R}
E2 = {(c, c + d, d) | c, d ∈ R}
1-1) Montrons que E1 est stable par addition et par multiplication par un scalaire.
Si x = (a, 2b, b − a) et x0 = (a0 , 2b0 , b0 − a0 ) alors on a

x + x0 = (a, 2b, b − a) + (a0 , 2b0 , b0 − a0 )


= (a + a0 , 2b + 2b0 , b − a + b0 − a0 )
= (a + a0 , 2(b + b0 ), (b + b0 ) − (a + a0 ))
= (A, 2B, B − A)

avec A = a + a0 et B = b + b0 . Le vecteur x + x0 est bien de la forme voulue et


appartient donc à E1 . Pour la multiplication par un scalaire, calculons λx :

λx = λ(a, 2b, b − a)
= (λa, λ2b, λ(b − a))
= (λa, 2λb, λb − λa)
= (A, 2B, B − A)

avec A = λa et B = λb.

1
On procède de manière analogue pour l’ensemble E2 . Ce sont donc des sous-
espaces vectoriels de R3 .
1-2) Soit → −
x = (x1 , x2 , x3 ) ∈ E1 . On va trouver l’équation vérifiée par x1 , x2
et x3 en éliminant les paramètres a et b entre les équations :

 x1 = a
x2 = 2b
x3 = b − a

On a
x3 = b − a = 1/2x2 − x1
d’où
2x1 − x2 + 2x3 = 0
Il s’agit d’un plan passant par l’origine.
Dans le cas de E2 , on obtient de façon analogue :
x1 − x2 + x3 = 0

1-3) L’intersection E1 ∩ E2 est une droite vérifiant les deux équations précé-
dentes : 
2x1 − x2 + 2x3 = 0
x1 − x2 + x3 = 0
qui conduisent à x1 = −x3 et x2 = 0. C’est la droite passant par l’origine et de vecteur
directeur (1, 0, −1).

Corrigé ex. 2 : Espaces définis par équations linéaires

Dans R3 , on considère les sous-ensembles suivants :


P = {(x1 , x2 , x3 ) | x1 − 2x2 + x3 = 0}
D = {(x1 , x2 , x3 ) | x1 + x2 + x3 = 0 et x2 − x3 = 0}
2-1) Pour montrer que P et D sont des sous-espaces vectoriels de R3 , il suffit de
monter qu’ils sont stables par addition et par multiplication par un scalaire.
Si x = (x1 , x2 , x3 ) et x0 = (x01 , x02 , x03 ) sont des vecteurs de P , ils vérifient
respectivement les équations

x1 − 2x2 + x3 = 0
x01 − 2x02 + x03 = 0
En additionnant les deux lignes, on voit que leur somme vérifie elle aussi l’équation
et donc x + x0 ∈ P . De même, on montre que le vecteur λx vérifie l’équation en la
multipliant par λ.
On procède de manière analogue pour D.
2-2) P est un plan car il est défini par une seule équation dans R3 . Il est donc
de dimension 2 et il suffit de trouver deux vecteurs indépendants vérifiant son équation
pour former une base. Par exemple, les deux vecteurs suivants : (2, 1, 0) et (0, 1, 2).
On peut aussi raisonner au moyen d’applications linéaires. P est l’ensemble des
vecteurs qui annulent la fonction f de R3 dans R définie par
f (x1 , x2 , x3 ) = x1 − 2x2 + x3

2
On a donc P = Kerf . L’espace image est R qui est de dimension 1, donc par le
théorème des dimensions on obtient :

dim Ker f = dim E − dim Im f = 3 − 1 = 2

ce qui confirme que le noyau est un plan.


L’espace D est de dimension 1 car il est défini par l’annulation de deux équations
linéaires indépendantes, d’où :

dim D = 3 − 2 = 1

Un vecteur directeur de cette droite est un vecteur qui vérifie les deux équations défi-
nissant D : 
x1 + x2 + x3 = 0
x2 − x3 = 0
On en déduit x2 = x3 et x1 = −2x3 . Un vecteur directeur possible est donc (−2, 1, 1).

Corrigé ex. 3 : Rang d’une famille de vecteurs

Le rang de la famille des trois vecteurs

a = (1, m, m) b = (m, 1, m) c = (m, m, 1)

est aussi le rang de la matrice


 
1 m m
M = m 1 m
m m 1

Son déterminant vaut

det M = 2m3 − 3m2 + 1 = (m − 1)2 (2m + 1)

Si m est différent de 1 et de -1/2, le déterminant n’est pas nul et la matrice est donc de
rang maximal 3.
Si m = −1/2, la matrice sera de rang 2. On note que, dans ce cas, la somme des
trois lignes de la matrice est nulle mais que les deux premières sont indépendantes, ce
qui est une autre façon de voir que le rang est 2.
Enfin, si m = 1, les trois lignes de la matrice sont identiques, ce qui signifie qu’elle
est de rang 1.

Corrigé ex. 4 : Sous-espace dépendant d’un paramètre

Fm est le sous-espace vectoriel de R3 défini par

Fm = {(x1 , x2 , x3 ) | x2 − 2x3 = 0 et m x2 + 3x3 = 0}

Les deux équations sont indépendantes si et seulement si les deux lignes de la


matrice  
1 −2
M=
m 3

3
sont indépendantes, ce qui a lieu lorsque le déterminant est non nul. On calcule :
det M = 3 + 2m.
Si m 6= −3/2, les deux équations sont indépendantes et ne peuvent être vérifiées
simultanément que si x2 = x3 = 0. L’espace Fm est alors l’ensemble des vecteurs de
la forme (x1 , 0, 0), c’est-à-dire l’axe des x1 qui a pour vecteur directeur (1, 0, 0).
Si m = −3/2, l’ensemble Fm est le plan d’équation x2 − 2x3 = 0. Il est donc de
dimension 2. Pour constituer une base, il suffit de prendre deux vecteurs indépendants
vérifiant cette équation. Par exemple, les vecteurs (1, 0, 0) et (0, 2, 1).

Corrigé ex. 5 : Base d’un sous-espace

Dans R4 , si on a les égalités x1 = x2 = x3 = x4 , tout vecteur s’écrit




x = (x1 , x2 , x3 , x4 )
= (x1 , x1 , x1 , x1 )
= x1 (1, 1, 1, 1)

Le sous-espace est donc l’ensemble des multiples du vecteur (1, 1, 1, 1). Il est donc de
dimension 1 : c’est la droite passant par l’origine et de vecteur directeur (1, 1, 1, 1).

2 Applications linéaires

Corrigé ex. 6 : Dimensions des espaces de départ et d’arrivée

Si f est une application linéaire de R3 dans R2 , l’espace de départ est de dimension


strictement plus grande que l’espace d’arrivée. On en déduit que :
1. f ne peut pas être injective car, si c’était le cas, l’espace de départ serait “injecté”
dans l’espace d’arrivée. Ce dernier devrait donc être de dimension au moins 3.
2. f pourrait être surjective.
3. f ne peut pas être bijective. Pour cela, il faudrait déjà que les deux espaces aient
la même dimension.
Si f est une application linéaire de R2 dans R3 , l’espace de départ est de dimension
strictement plus petite que l’espace d’arrivée. On en déduit que
1. f pourrait être injective.
2. f ne peut pas être surjective car l’espace image sera au mieux de dimension 2 et
ne pourra donc jamais remplir l’espace d’arrivée.
3. f ne peut pas être bijective. Pour cela, il faudrait déjà que les deux espaces aient
la même dimension.
Enfin, si f est une application linéaire de R2 dans R2 , elle peut tout à fait être
injective, surjective ou bijective. Les espaces de départ et d’arrivée ayant même dimen-
sion, on peut même dire que si elle est injective elle sera automatiquement surjective,
et vice-versa.

4
Corrigé ex. 7 : Noyau et image en fonction d’un paramètre

u est l’endomorphisme de R3 défini par


   
x1 x1 + x2 + x3
u x2  = x1 + λx2 + λx3 
x3 x1 + λx2

Pour déterminer son noyau, on pose les équations suivantes :



 x1 + x2 + x3 =0
x1 + λx2 + λx3 = 0
x1 + λx2 =0

Par soustraction des deux dernières équations, on obtient λx3 = 0.


Supposons que λ 6= 0. On en déduit que x3 = 0, ce qui conduit à

x1 + x2 =0
x1 + λx2 = 0

Si λ 6= 1, ces deux équations sont indépendantes et donnent x1 = 0 et x2 = 0. On




trouve alors que le noyau ne contient que le vecteur nul 0 . Si au contraire λ = 1, il
reste l’équation x1 + x2 = 0 (et toujours x3 = 0). Le noyau est alors la droite passant
par l’origine et de vecteur directeur (1, −1, 0).
Il reste à examiner le cas où λ = 0. Le système initial se ramène alors simplement
à:

x1 + x2 + x3 = 0
x1 = 0

Le noyau est cette fois la droite de vecteur directeur (0, 1, −1).


Déterminons maintenant l’image dans les trois cas précédents. Si λ 6= 0 et λ 6= 1,


le noyau est réduit à 0 et l’application est donc injective. Il en résulte qu’elle est
aussi surjective puisque l’espace de départ et l’espace d’arrivée ont même dimension.
L’espace image est donc l’espace d’arrivée R3 tout entier. Le rang est 3.
Si λ = 1, l’image de l’application est définie par

 X = x1 + x2 + x3
Y = x1 + x2 + x3
Z = x1 + x2

où X, Y et Z sont les coordonnées dans l’espace d’arrivée. On voit ici que X = Y ,


autrement dit que X − Y = 0. C’est l’équation d’un plan dans R3 . Une base possible
est formée des vecteurs (0, 0, 1) et (1, 1, 0). Le rang est 2.
Si λ = 0, l’image de l’application est définie par

 X = x1 + x2 + x3
Y = x1
Z = x1

On voit que Y = Z, autrement dit que Y − Z = 0. C’est l’équation d’un plan dans R3 .
Une base possible est formée des vecteurs (0, 1, 1) et (1, 0, 0). Le rang est 2.

5
Corrigé ex. 8 : Matrice de permutation

Soit u l’application de R3 dans R3 définie par


   
x1 x3
u  x2  =  x1 
x3 x2

8-1) u est linéaire car elle est définie par des combinaisons linéaires des variables
x1 , x2 et x3 .
8-2) La matrice associée à u dans la base canonique est
 
0 1 0
M = 0 0 1
1 0 0

C’est une matrice de permutation. L’application u opère une permutation circulaire des
variables x1 , x2 et x3 .
8-3) On calcule
   
0 0 1 1 0 0
M 2 = 1 0 0 M 3 = 0 1 0
0 1 0 0 0 1

On voit donc que M 3 = I, ce qui peut s’écrire M M 2 = M 2 M = I et montre que


M 2 est l’inverse de M . On a donc M −1 = M 2 .
8-4) Calculons les puissances successives de la matrice M .
Puisque M 3 = I, on a M 4 = M , M 5 = M 2 , M 6 = I, etc.
De même, puisque M −1 = M 2 , on calcule M −2 = M 4 = M , et ensuite M −3 =
I, M −4 = M 2 , M −5 = M , M −6 = I, etc.

Corrigé ex. 9 : Base d’un noyau

On considère l’application u de R4 dans R2 définie par


 
x1  
 x2  −x1 + 2x2 + 3x3 + x4
u:   −→
x3  x1 + x2 + 3x3 + x4
x4

Il s’agit de déterminer une base du noyau de cette application. Puisque les deux
expressions sont indépendantes, l’espace image sera de dimension 2. On en déduit
que le noyau est de dimension 4 − 2 = 2. Il suffit donc de trouver deux vecteurs
indépendants vérifiant les équations données. Si on soustrait les deux équations, on
trouve :
−2x1 + x2 = 0
On peut prendre, par exemple, les vecteurs (1, 2, 0, 0) et (0, 0, 1, −3).

6
Corrigé ex. 10 : Application définie sur les vecteurs d’une base

f est l’application linéaire de R2 dans R3 définie par

f (1, 1) = (4, 2, 0) et f (1, −1) = (2, 0, 6).

10-1) Pour trouver les images par f des vecteurs de la base canonique de R2 , il
suffit d’exprimer ces vecteurs en fonction des vecteurs (1, 1) et (1, −1) dont on nous
donne les images par f . On trouve facilement que e1 = (1, 0) = 1/2((1, 1) + (1, −1)).
D’où, par linéarité,

f (e1 ) = f (1, 0) = 1/2 f (1, 1) + f (1, −1)

= 1/2 (4, 2, 0) + (2, 0, 6)
= (3, 1, 3)

De même, e2 = (0, 1) = 1/2((1, 1) − (1, −1)) d’où :



f (e2 ) = f (0, 1) = 1/2 f (1, 1) − f (1, −1)

= 1/2 (4, 2, 0) − (2, 0, 6)
= (1, 1, −3)

10-2) L’image par f d’un vecteur quelconque de R2 s’écrit

f (x1 , x2 ) = f (x1 e1 + x2 e2 )
= x1 f (e1 ) + x2 f (e2 )
= x1 (3, 1, 3) + x2 (1, 1, −3)
= (3x1 + x2 , x1 + x2 , 3x1 − 3x2 )

10-3) Le noyau de f est défini par les équations



 3x1 + x2 = 0
x1 + x2 = 0
3x1 − 3x2 = 0



qui donnent x1 = x2 = 0. Le noyau est donc réduit au vecteur 0 et l’application f est
injective. Par le théorème des dimensions, on en déduit que l’image est de dimension
2 − 0 = 2 L’application n’est donc pas surjective (puisque 2 < 3). Par élimination
entre les équations suivantes

 y1 = 3x1 + x2
y2 = x1 + x2
y3 = 3x1 − 3x2

on obtient la relation :
3y1 − 6y2 − y3 = 0
C’est l’équation de l’image. Il s’agit d’un plan dans l’espace d’arrivée R3 .
Le rang de f est la dimension de l’espace image, c’est-à-dire 2.

7
10-4) La droite de R2 d’équation x1 + x2 a pour vecteur directeur (1, −1). Son
image est donc la droite de vecteur directeur f (1, −1) = (2, 0, 6). C’est un sous-
espace vectoriel de dimension 1 de R3 .
10-5) Dans l’équation du plan y1 + y2 + y3 = 0, on remplace y1 , y2 , y3 par leurs
valeurs en fonction de x1 , x2 , x3 . On obtient donc
(3x1 + x2 ) + (x1 + x2 ) + (3x1 − 3x2 ) = 0
et par conséquent
7x1 − x2 = 0
C’est l’équation d’une droite passant par l’origine dans R2 . C’est donc un sous-espace
vectoriel de dimension 1 de R2 .

Corrigé ex. 11 : Noyau et image sans calculs


 
2x1 − x2 + x3
f (x1 , x2 , x3 , x4 ) =
x1 + 2x2 − x4
11-1) L’application f est linéaire car les deux expressions qui définissent le vec-
teur image sont homogènes de degré 1 (linéaires).
11-2) L’application f n’est pas injective car la dimension de l’espace départ est
strictement supérieure à la dimension de l’espace d’arrivée.
11-3) Pour déterminer le noyau de f , on doit résoudre les équations
2x1 − x2 + x3 = 0
x1 + 2x2 − x4 = 0
On peut facilement exprimer toutes les variables en fonction de x1 et x2 comme ceci :
       
x1 x1 1 0
x2   x2  = x1  0  + x2 1
    
 =
x3  −2x1 + x2  −2 1
x4 x1 + 2x2 1 2
   
1 0
0 1
Les deux vecteurs V1 =  −2 et V2 = 1 sont indépendants et constituent
  

1 2
une base du noyau. Celui-ci est donc un sous-espace de dimension deux (un plan) dans
R4 .
11-4) On vérifie facilement que f (V ) = 0 et donc que le vecteur V appartient
au noyau de f . Pour trouver les coordonnées de V dans la base (V1 , V2 ) trouvée à la
question précédente, il faut déterminer λ1 et λ2 tels que :
V = λ1 V1 + λ2 V2
On trouve λ1 = 2 et λ2 = 1, donc V = 2V1 + V2 .
11-5) Le théorème des dimensions stipule que, pour toute application linéaire
f : E −→ F , on a
Dim Ker(f ) + Dim Im(f ) = Dim E
où E est l’espace de départ. Puisque la dimension du noyau est 2 et que la dimension
de l’espace de départ est 4, on en déduit que la dimension de l’image est 2. L’image est
donc l’espace d’arrivée tout entier.

8
3 Représentation matricielle

Corrigé ex. 12 : Images de la base canonique

On considère l’endomorphisme u de R3 défini par les relations :


 →
 u(− e1 ) = → −
e1 + →−
e2 + →
−e3

− →

u( e2 ) = e1 + e2 →

 →
u(−e3 ) = 2u(→ −
e1 ) − u(→ −
e2 )

La dernière relation conduit, par substitution, à

u(→

e3 ) = →

e1 + →

e 2 + 2→

e3

Les images des vecteurs de base ont respectivement pour coordonnées (1, 1, 1), (1, 1, 0)
et (1, 1, 2). La matrice de l’application dans la base canonique est donc
 
1 1 1
M = 1 1 1
1 0 2

On voit immédiatement que les deux premières lignes de cette matrice sont identiques
tandis que la troisième est indépendante. La matrice est donc de rang 2.
Le noyau est défini par les équations

x1 + x2 + x3 = 0
x1 + 0x2 + 2x3 = 0

On en tire x1 = −2x3 puis x2 = x3 . C’est la droite passant par l’origine et de vecteur


directeur (−2, 1, 1). Le noyau est de dimension 1.
L’image est l’ensemble des vecteurs vérifiant

 y1 = x1 + x2 + x3
y2 = x1 + x2 + x3
y3 = x1 + 2x3

ce qui conduit à y1 = y2 et y3 quelconque. L’image est donc un plan et a pour dimen-


sion 2.
Le théorème des dimensions se vérifie puisque la somme de la dimension du noyau
et de celle de l’image est égale à celle de l’espace lui-même : 1 + 2 = 3.
Enfin l’endomorphisme u n’est ni injectif (noyau non réduit à 0), ni surjectif (image
différente de l’espace d’arrivée).

Corrigé ex. 13 : Composition d’applications

On considère les fonctions f : (x, y) −→ (3x + y, y) et g : (x, y) −→ (y, 2x) de


R2 dans R2 .
13-1) On calcule

f ◦ g(x, y) = f g(x, y) = f (y, 2x) = (3y + 2x, 2x)

9
De même on trouve

g ◦ f (x, y) = g f (x, y) = g(3x + y, y) = (y, 6x + 2y)
Ces deux applications sont bien linéaires puisqu’elles sont définies par des combi-
naisons linéaires des variables.
13-2) Les matrices représentant les applications f , g, f ◦ g et g ◦ f dans la base
canonique sont respectivement :

       
3 1 0 1 2 3 0 1
Mf = Mg = Mf ◦g = Mg◦f =
0 1 2 0 2 0 6 2
On vérifie facilement les relations Mf ◦g = Mf Mg et Mg◦f = Mg Mf .

Corrigé ex. 14 : Matrice dans des bases données

On considère l’application u : R4 7−→ R3 définie par les relations suivantes dans



− → − → −
les bases canoniques B4 = {→ −
e1 , →

e2 , →

e3 , →

e4 } et B3 = { f1 , f2 , f3 } :
 → →
− → −
 u(−e1 ) = f1 − f2
 →
 →
− →

u(−

e2 ) = f2 + 2 f3

− →
− →

 u(→−
e3 ) = f1 + f2 + f3

− → − →


 →
u(−

e4 ) = 2 f1 + f2 + 3 f3

14-1) La matrice associée à u dans ces bases est faite en colonnes des images
des vecteurs de la base de départ, exprimées dans la base d’arrivée. On obtient donc à
partir des relations précédentes :
 
1 0 1 2
M = −1 1 1 1
0 2 1 3
C’est une matrice 3 × 4.
14-2) On montre facilement que les lignes de cette matrice sont indépendantes
(le bloc des trois premières colonnes, par exemple, est de déterminant non nul). Le rang
de u (qui est aussi le rang de la matrice) est donc 3.
14-3) Les coordonnées de l’image d’un vecteur → −x = (x1 , x2 , x3 , x4 ) s’ob-
tiennent en multipliant la matrice M par le vecteur x (en colonne) :
 
  x1  
1 0 1 2   x1 + x3 + 2x4
x 2
u(x) = M x = −1 1 1 1  x3  = −x1 + x2 + x3 + x4
  
0 2 1 3 2x2 + x3 + 3x4
x4

Corrigé ex. 15 : Changement de base

La matrice  
0 0 0
M = −1 1 0
−1 −1 2

10
représente un endomorphisme u de R3 dans une base B = {→ −
e1 , →

e2 , →

e3 }.

−0 → −0 → −0
15-1) Les vecteurs e1 , e2 et e3 sont définis dans la base canonique au moyen des
relations suivantes :  → −0 →
− → − → −
 e1 = e1 + e2 + e3


−0
e = → −
e2 + →−
e3
 →
 −20 →

e3 = e3
Ils ont donc respectivement pour coordonnées (1, 1, 1), (0, 1, 1) et (0, 0, 1) dans la base
canonique.
Leurs images (toujours dans la base canonique) sont obtenues en les multipliant à
gauche par la matrice M . On trouve
 
0
f (e01 ) = M e01 = 0
0
 
0
f (e02 ) = M e02 = 1
1
 
0
f (e03 ) = M e03 = 0
2
On constate donc les relations suivantes f (e01 ) = 0, f (e02 ) = e02 et f (e03 ) = 2e03 .
La matrice M 0 associée à u dans la base B 0 est faite en colonnes des images des
vecteurs de B 0 exprimées elles aussi dans la base B 0 . On a donc :
 
0 0 0
M 0 = 0 1 0
0 0 2

15-2) La matrice M 0 étant diagonale, on obtient :


 
0 0 0
(M 0 )n = 0 1 0 
0 0 2n

On en déduit M n en faisant le changement de base en sens inverse. La matrice de


passage P de la base B à la base B 0 est
 
1 0 0
P = 1 1 0
1 1 1

La relation de changement de base est M 0 = P −1 M P . Par conséquent M =


P M 0 P −1 et donc M n = P (M 0 )n P −1 . On calcule
 
1 0 0
P −1 = −1 1 0
0 −1 1

11
et on trouve, tous calculs faits, que
 
0 0 0
M n =  −1 1 0
−1 1 − 2n 2n

Corrigé ex. 16 : Indépendance dans l’image

On considère l’application linéaire h de R3 dans R3 définie par

f: (a, b, c) −→ (a + b, b + c, a − c).

16-1) Calculons les images des vecteurs de base :

f (e1 ) = f (1, 0, 0) = (1, 0, 1)

f (e2 ) = f (0, 1, 0) = (1, 1, 0)


f (e3 ) = f (0, 0, 1) = (0, 1, −1)

16-2) Cherchons une relation de dépendance entre les vecteurs f (e1 ), f (e2 ),
f (e3 ). Cela revient à chercher trois coefficients a1 , a2 , a3 non tous nuls tels que :

a1 f (e1 ) + a2 f (e2 ) + a3 f (e3 ) = 0

On a donc :
a1 (1, 0, 1) + a2 (1, 1, 0) + a3 (0, 1, −1)
D’où les équations : 
 a1 + a2 = 0
a2 + a3 = 0
a1 − a3 = 0

qui donnent a1 = −a2 = a3 et donc, par exemple, a1 = 1, a2 = −1 et a3 = 1. La


combinaison recherchée est finalement :

f (e2 ) = f (e1 ) + f (e3 )

16-3) Les vecteurs f (e1 ), f (e2 ), f (e3 ) sont liés mais ils sont deux à deux indé-
pendants : l’application f est donc de rang 2.
16-4) Par le théorème des dimensions, on en déduit que le noyau de f est de
dimension 3 − 2 = 1. En posant que f (x) = 0, on obtient les mêmes expressions que
précédemment : 
 a+b = 0
b+c = 0
a−c = 0

Les éléments du noyau sont donc de la forme (a, −a, a). Ce sont tous les multiples
de (1, −1, 1). Le noyau est ainsi la droite passant par l’origine et de vecteur directeur
(1, −1, 1).

12
16-5) Si f est une application linéaire de Rp dans Rq et que les vecteurs f (e1 ),. . . ,
f (ep ) forment un système linéairement indépendant dans l’image f (Rp ), on a

dim Im f = p

Par conséquent
dim Ker f = p − p = 0
ce qui montre que f est injective.
La réciproque est vraie : si f est injective, les vecteurs f (e1 ),. . . , f (ep ) sont linéai-
rement indépendants. Ils constituent une base de f (Rp ).
Remarque : f (Rp ) n’est pas forcément Rq tout entier (il faudrait en plus que p = q).

Corrigé ex. 17 : Systèmes dégénérés

Dans le système d’équations linéaires :



 x1 + 3x2 − x3 = 0
mx2 + 3x3 = 0
x2 + x3 = 0

le déterminant est égal à (m − 3). Si m 6= 3, le système a une solution unique qui est
(0, 0, 0). On aura donc des solutions autres que (0, 0, 0) seulement si m = 3.
Cela signifie que le noyau de l’application linéaire associée
   
x1 x1 + 3x2 − x3
u :  x2  −→  mx2 + 3x3 
x3 x2 + x3


n’est pas réduit à l’élément 0 et, par conséquent, que l’application n’est pas injective.

Corrigé ex. 18 : Matrices par blocs


 
A B
M=
0 C
où A et C sont des blocs carrés.
−1 −1
 18-1) Cherchons l’inverse M sous la forme d’une matrice par blocs M =
E F −1 −1
. Il faut que M M = I et M M = I. En développant ces deux égalités,
G H
on obtient les équations suivantes :


AE + BG = I EA = I

AF + BH = 0 EB + F C = 0
CG = 0
 GA = 0

CH = I HC = I

Les deux dernières relations imposent que C soit inversible. Dans ce cas, la relation
CG = 0 impose que G = 0.
Les deux premières relations imposent alors que AE = EA = I, c’est-à-dire que
A soit inversible.

13
18-2) Sous la condition que A et C sont inversibles, on peut alors résoudre les
équations précédentes pour obtenir l’inverse de M .
On trouve facilement :
E = A−1



F = −A−1 BC −1



 G=0
H = C −1

et donc finalement  −1
−A−1 BC −1

A
M −1 = .
0 C −1
On vérifie a posteriori que M M −1 = M −1 M = I.

Corrigé ex. 19 : Bloc identité


 
A 0
On a M = et on souhaite trouver un inverse de la même forme, c’est-à-
I B
 
C 0
dire M −1 = .
I D
Il faut que M M −1 = I et M −1 M = I. En développant la première égalité, on
obtient les équations suivantes :

AC = I

C +B =0

BD = I

La deuxième égalité donne de même :



CA = I

A+D =0

DB = I

Puisque les blocs sont tous carrés par hypothèse, les produits obtenus ne sont pos-
sibles que si ils ont tous la même taille. C’est une première condition.
Les relations AC = CA = I signifient que A doit être inversible et alors on a
C = A−1 . De la même manière, B doit être inversible et on a D = B −1 .
La condition A + D = 0 enfin impose que A = −B −1 .

14
4 Diagonalisation

Corrigé ex. 20 : Valeurs et vecteurs propres

Modèle de résolution
 
2 0 1
Prenons, à titre d’exemple, la matrice −1 4 −1.
−1 2 0
On commence par calculer son polynôme caractéristique :
 
2−λ 0 1
P (λ) = det  −1 4 − λ −1 
−1 2 −λ
= −λ3 + 6λ2 − 11λ + 6
= −(λ − 1)(λ − 2)(λ − 3)

Il y a donc trois valeurs propres : λ1 = 1, λ2 = 2 et λ3 = 3.


Les vecteurs propres associés X sont solution de l’équation (A − λI)X = 0 pour
chacune des valeurs propres respectivement.

Valeur propre λ1 : on pose le système (A − I)X = 0, ce qui donne



 x1 + 0x2 + x3 = 0
−x1 + 3x2 − x3 = 0
−x1 + 2x2 − x3 = 0

En faisant la différence entre la deuxième et la troisième équation, on obtient x2 = 0,


 quidonne ensuite x3 = −x1 . On peut donc choisir comme vecteur propre V1 =
ce
1
 0  (ou n’importe quel multiple de ce vecteur).
−1

Valeur propre λ2 : le système (A − 2I)X = 0 s’écrit



 0x1 + 0x2 + x3 = 0
−x1 + 2x2 − x3 = 0
−x1 + 2x2 − 2x3 = 0

La première équation donne x3 = 0,


ce qui conduit ensuite à x1 = 2x2 . On peut donc
2
choisir comme vecteur propre V2 = 1.
0

Valeur propre λ3 : le système (A − 3I)X = 0 s’écrit



 −x1 + 0x2 + x3 = 0
−x1 + x2 − x3 = 0
−x1 + 2x2 − 3x3 = 0

15
La première équation donne x1 = x3 . En reportant dans la deuxième,
  on obtient alors
1
x2 = 2x3 . On peut donc choisir comme vecteur propre V3 = 2.
1
Finalement, la matrice de passage est la matrice formée en colonne des vecteurs
propres :  
1 2 1
P =  0 1 2
−1 0 1
et la matrice diagonalisée comporte les valeurs propres sur la diagonale :
 
1 0 0
D = 0 2 0
0 0 3
La relation entre A, P et D est :

D = P −1 A P

Solution de tous les exemples


Pour tous les exemples de cet exercice, on donne le polynôme caractéristique et les
valeurs propres. Lorsque la matrice est diagonalisable, on indique aussi la matrice de
passage et la matrice diagonale, sinon on indique seulement les vecteurs propres.
 
2 −1
• Matrice
−1 2
Polynôme caractéristique : P (λ) = λ2 − 4 λ + 3 = (λ − 1) (λ − 3).
Valeurs propres : λ1 = 1, λ2 = 3. 
1 −1
Matrice de passage : P = .
1  1
1 0
Matrice diagonale : D = .
0 3
 
−6/5 8/5
• Matrice
8/5 6/5
Polynôme caractéristique : P (λ) = λ2 − 4 = (λ − 2) (λ + 2).
Valeurs propres : λ1 = 2, λ2 = −2.
1 −2
Matrice de passage : P = .
2 1
 
2 0
Matrice diagonale : D = .
0 −2
 
1 −1
• Matrice
1 1
Polynôme caractéristique : P (λ) = λ2 − 2 λ + 2.
Valeurs propres : λ1 = 1 −i, λ2 =1 + i.
1 1
Matrice de passage : P = .
 i −i 
1−i 0
Matrice diagonale : D = .
0 1+i

16
 
2 1
• Matrice
−1 2
Polynôme caractéristique : P (λ) = λ2 − 4 λ + 5.
Valeurs propres : λ1 = 2 −i, λ2 =2 + i.
1 1
Matrice de passage : P = .
 −i i 
2−i 0
Matrice diagonale : D = .
0 2+i
 
2 0 1
• Matrice −1 4 −1
−1 2 0
Polynôme caractéristique : P (λ) = −λ3 +6 λ2 −11 λ+6 = − (λ − 1) (λ − 2) (λ − 3).
Valeurs propres : λ1 = 1, λ2 = 2, λ3 =3.
1 2 1
Matrice de passage : P =  0 1 2.
 −1 0 1
1 0 0
Matrice diagonale : D = 0 2 0.
0 0 3
 
1 2 0
• Matrice  2 −4 −3
−2/3 3 2
2
Polynôme caractéristique : P (λ) = −λ3 − λ2 + 5 λ − 3 = − (λ − 1) (λ + 3).
Valeurs propres : λ1 = −3 simple, λ2 = 1 double.  
1
La valeur propre simple λ1 = −3 a pour vecteur propre V1 =  −2 .
4/3
 La valeur propre double λ2 = 1 ne possède qu’un seul vecteur propre V2 =
1
 0 .
2/3
La matrice n’est donc pas diagonalisable.
 
4 −6 −3
• Matrice 2 −3 −2
1 −2 0
2
Polynôme caractéristique : P (λ) = −λ3 + λ2 + λ − 1 = − (λ − 1) (λ + 1).
Valeurs propres : λ1 = 1 double,
 −1 simple.
λ2 = 
1 0 3
Matrice de passage : P = 0 1 2.
 1 −2 1
1 0 0
Matrice diagonale : D = 0 1 0 .
0 0 −1

17
 
3 0 0
• Matrice −8 7 1
−4 −1 5
2
Polynôme caractéristique : P (λ) = −λ3 +15 λ2 −72 λ+108 = − (λ − 6) (λ − 3).
Valeurs propres : λ1 = 3 simple, λ2 = 6 double.  
3
La valeur propre simple λ1 = 3 a pour vecteur propre V1 = 4.
8
 
0
La valeur propre double λ2 = 6 ne possède qu’un vecteur propre V2 =  1 .
−1
La matrice n’est donc pas diagonalisable.
 
3 0 2
• Matrice  7 2 11 
−3 0 −4
2
Polynôme caractéristique : P (λ) = −λ3 + λ2 + 8 λ − 12 = − (λ − 2) (λ + 3).
Valeurs propres : λ1 = −3 simple, λ2 = 2 double.  
5
La valeur propre simple λ1 = −3 a pour vecteur propre V1 =  26 .
−15
 
0
La valeur propre double λ2 = 2 ne possède qu’un vecteur propre V2 = 1.
0
La matrice n’est donc pas diagonalisable.
 
−4/3 2/3 2/3
• Matrice  1 −1 0 
1/3 1/3 −2/3
Polynôme caractéristique : P (λ) = −λ3 − 3 λ2 − 2 λ = −λ (λ + 1) (λ + 2).
Valeurs propres : λ1 = 0, λ2 = −1, λ3 =−2.
1 0 1
Matrice de passage : P = 1 1 −1.
1 −1 0
 
0 0 0
Matrice diagonale : D = 0 −1 0 .
0 0 −2
 
5 3 3 3
1 1 3 1 1
 
• Matrice 2 
1 1 5 1
1 1 1 7
Polynôme caractéristique : P (λ) = λ4 −10 λ3 +35 λ2 −50 λ+24 = (λ − 1) (λ − 2) (λ − 3) (λ − 4).
Valeurs propres : λ1 = 1, λ2 = 2, λ3 = 3, λ4= 4.
1 0 0 −1
1 −1 0 0 
Matrice de passage : P =  0 1 1 0 .

0 0 1 −1

18
 
1 0 0 0
0 2 0 0
Matrice diagonale : D = 
0
.
0 3 0
0 0 0 4
 
1 −1 −1 1
0 0 0 0
• Matrice 
−1 1

1 1
0 0 0 2
2
Polynôme caractéristique : P (λ) = λ4 − 4 λ3 + 4 λ2 = λ2 (λ − 2) .
Valeurs propres : λ1 = 0 double,
 λ2 = 2 double.

1 0 0 −1
1 −1 0 0 
Matrice de passage : P = 0 1 1 0 .

 0 0 1 −1
0 0 0 0
0 0 0 0
Matrice diagonale : D = 0 0 2 0.

0 0 0 2

Corrigé ex. 21 : Matrice paramétrique


 
m−2 m
On considère la matrice A = où m est un paramètre réel.
1 m−2
21-1) Pour que A ait une valeur propre nulle, il faut et il suffit que son déterminant
soit nul (puisque le déterminant est le produit des valeurs propres). On calcule :

det(A) = (m − 2)2 − m = m2 − 5m + 4 = (m − 1)(m − 4).

Cela se produit donc lorsque m = 1 ou m = 4.


On détermine la seconde valeur propre en utilisant la trace de la matrice. On a :

Tr(A) = 2m − 4 = λ1 + λ2 = 0 + λ2 .
(
−2 si m = 1
Par conséquent, λ2 = 2m − 4 =
4 si m = 4
21-2) Le vecteur propre V correspondant à la valeur propre 0 doit vérifier l’équa-
tion AV = 0V = 0.  
1
Dans le cas où m = 1, l’équation AV = 0 a pour solution le vecteur V1 = .
1 
2
Dans le cas où m = 4, l’équation AV = 0 a pour solution le vecteur V2 = .
−1

19
Corrigé ex. 22 : Trace et déterminant
 
1 −1 2
M = −1 2 1
2 1 −1
 
2
22-1) Si on additionne les colonnes de la matrice M , on trouve le vecteur 2.
2
 
1
Or additionner les colonnes, revient à multiplier la matrice à droite par le vecteur 1.
1
On a donc la relation :
     
1 2 1
M 1 = 2 = 2 1 .
1 2 1
 
1
Cela signifie que le vecteur 1 est un vecteur propre de valeur propre λ1 = 2.
1
22-2) On note λ1 , λ2 et λ3 les valeurs propres de M .
La trace de la matrice est :

Tr(A) = 1 + 2 − 1 = 2 = λ1 + λ2 + λ3 = 2 + λ2 + λ3 .

On en déduit que
λ2 + λ3 = 0.

22-3) Le déterminant de la matrice est :

det(A) = −14 = λ1 λ2 λ3 = 2λ2 λ3 .

On en déduit que
λ2 λ3 = −7.
√ √
22-4) Des deux questions précédentes, on déduit que λ2 = − 7 et λ3 = 7.

Corrigé ex. 23 : Matrices symétriques

les matrices symétriques possèdent les propriétés suivantes :


– toute matrice symétrique est diagonalisable ;
– les valeurs propres sont toujours réelles (autrement dit, jamais complexes) et les
vecteurs propres de même ;
– des vecteurs propres correspondant à des valeurs propres distinctes sont ortho-
gonaux entre eux ;
– on peut choisir les vecteurs propres de manière à former une base orthonormée
(c’est-à-dire constituée de vecteurs unitaires orthogonaux entre eux).

20
Pour tous les exemples de cet exercice, on donne le polynôme caractéristique, les
valeurs propres, la matrice de passage P et la matrice diagonale D. La matrice de
passage est formée en colonnes de vecteurs orthonormés : cela en fait une matrice dite
orthogonale qui vérifie la propriété P −1 = tP .
 
0 2
• Matrice
2 0
Polynôme caractéristique : P (λ) = λ2 − 4 = (λ − 2) (λ + 2).
Valeurs propres : λ1 = 2, λ2 = −2.
 1 1 
√ −√
Matrice de passage : P =  12 2
1 .

√ √
 2  2
2 0
Matrice diagonale : D = .
0 −2
 
3 −2
• Matrice
−2 3
Polynôme caractéristique : P (λ) = λ2 − 6 λ + 5 = (λ − 1) (λ − 5).
Valeurs propres : λ1 = 1, λ2 = 5.
 1 1 
√ √
Matrice de passage : P =  12 2 
1 .

√ −√
 2 2
1 0
Matrice diagonale : D = .
0 5
 
3 −6
• Matrice
−6 12
Polynôme caractéristique : P (λ) = λ λ2 − 15.
Valeurs propres : λ1 = 0, λ2 = 15.
 2 1 
√ √
Matrice de passage : P =  15 5 
2 .

√ −√
 2  5
0 0
Matrice diagonale : D = .
0 15
 
−1 2 2
• Matrice  2 1/2 1/2
2 1/2 1/2
Polynôme caractéristique : P (λ) = −λ3 + 9 λ = −λ (λ − 3) (λ + 3).
Valeurs propres : λ1 = −3,λ2 = 3, λ3 = 0.
2 1

√ √ 0
 6 3 
 1 1 1 
− √ √ √ 
Matrice de passage : P =  .
 6 3 2 
 1 1 1 
−√ √ −√
6 3 2

21
 
−3 0 0
Matrice diagonale : D =  0 3 0.
0 0 0
 
8 −1 2
• Matrice −1 8 2
2 2 5
2
Polynôme caractéristique : P (λ) = −λ3 +21 λ2 −135 λ+243 = − (λ − 9) (λ − 3).
Valeurs propres : λ1 = 3 simple, λ2 = 9 double. 
1 2 1

√ √ √
 6 5 30 
 1 5 
 √ 0 −√ 
Matrice de passage : P =  .
 6 30 
 2 1 2 
−√ √ −√
 6 5 30
3 0 0
Matrice diagonale : D = 0 9 0.
0 0 9
 
0 1 1
• Matrice 1 0 1
1 1 0
2
Polynôme caractéristique : P (λ) = −λ3 + 3 λ + 2 = − (λ − 2) (λ + 1) .
Valeurs propres : λ1 = 2 simple, λ2 = −1 double.
1 1 1

√ √ √
 3 2 6 
 1 2 
√ 0 −√ 
Matrice de passage : P =  .
 3 6
 1 1 1 
√ −√ √
 3 2 6
2 0 0
Matrice diagonale : D = 0 −1 0 .
0 0 −1
 
7 2 −2
1
• Matrice  2 1 −4
3
−2 −4 1
Polynôme caractéristique : P (λ) = −λ3 +3 λ2 +λ−3 = − (λ − 1) (λ + 1) (λ − 3).
Valeurs propres : λ1 = 1, λ2 = −1, λ3 = 3.
1 2

√ 0 −√
 3 6
 1 1 1 
− √ √ −√ 
Matrice de passage : P =  .
 3 2 6
 1 1 1 
√ √ √
 3 2 6
1 0 0
Matrice diagonale : D = 0 −1 0.
0 0 3

22
5 Décompositions matricielles

Corrigé ex. 24 : Décomposition en valeurs singulières

Définitions et propriétés
On considère une matrice A de taille m × n (donc pas nécessairement carrée) et on
note r son rang. On a donc r ≤ min(m, n).
Il est facile de vérifier que la matrice tA A est carrée de taille n × n et symétrique
de rang r. Puisqu’elle est symétrique, elle est diagonalisable et ses valeurs propres sont
réelles. On montre que ses valeurs propres sont même positives ou nulles.
Traditionnellement, les valeurs propres non nulles de tA A sont notées σ12 , σ22 , . . . , σr2
et sont rangées dans l’ordre décroissant, comme ceci :

σ12 ≥ σ22 ≥ · · · ≥ σr2 > 0.

Les nombres σ1 , σ2 , . . . , σr sont appelés les valeurs singulières de la matrice A.


Autrement dit, les valeurs singulières de A sont les racines carrées des valeurs propres
non nulles de tA A. Il y a r valeurs singulières (compte-tenu de l’ordre de multiplicité)
et, puisque tA A est de taille n, la valeur propre 0 est de multiplicité n − r.
On montre qu’il est possible de trouver des matrices orthogonales U et V telles que
la matrice A s’écrive sous la forme du produit

A = V Σ tU (1)

où Σ est une matrice de la même taille que la matrice A ayant les valeurs singulières sur
sa diagonale et des 0 partout ailleurs. La matrice Σ est dite parfois pseudo-diagonale.
Elle a la forme suivante :
 
σ1 0 0 0
 0 . . . 0 0
 
 
0 0 σr 0
Σ= 0

 0 0 0 
. .. .. .. 
 .. . . .
0 0 0 0
Le produit matriciel de la relation (1) implique que la matrice V est carrée de taille m,
la matrice U est carrée de taille n. La matrice Σ est de taille m × n comme A. Puisque
U et V sont orthogonales, on peut inversement exprimer Σ en fonction de A par la
relation suivante :
Σ = tV A U (2)
La relation (1) s’appelle décomposition en valeurs singulières de la matrice A.
Cette décomposition est toujours possible mais n’est pas unique. Il est cependant facile
de déterminer des matrices orthogonales U et V . Il se trouve en effet qu’on peut prendre
pour la matrice U la matrice des vecteurs propres singuliers, c’est-à-dire la matrice

23
de passage dans la diagonalisation de la matrice symétrique tA A. Si on appelle U1 ,
U2 ,. . .,Un ces vecteurs propres, on définit alors r vecteurs V1 , V2 ,. . .,Vr en posant
1
Vi = A Ui pour 1 ≤ i ≤ r.
σi
Si r < m, on complète ensuite les Vi obtenus afin de former une base orthonormée.
Les Vi constituent les colonnes de la matrice V .

Modèle de résolution
 
3 1 1
À titre d’exemple, prenons la matrice A = .
−1 3 1
On commence par calculer la matrice M = tA A :
 
10 0 2
M = tA A = · · · =  0 10 4
2 4 2
Le polynôme caractéristique de M est :
P (λ) = −λ3 + 22 λ2 − 120 λ = − (λ − 12) (λ − 10) λ
Les valeurs propres sont donc λ1 = 12, λ2 = 10 et λ3 = 0. Les√valeurs singulières

sont les racines carrées des valeurs propres non nulles, donc σ1 = 12 et σ2 = 10.
La matrice Σ sera la matrice pseudo-diagonale de même taille que A :
√ 
12 √0 0
Σ=
0 10 0
La diagonalisation de la matrice M = tA A conduit aux vecteurs propres suivants
(qui forment une base orthonormée) :
1 1
   
 2 
√ √
 6 √  30 
   5   
 2   2 
1
 
U1 =  √  U2 = − √  U3 =  30 
    √ 
 6  5   
 1   5 
√ 0 −√
6 30
On obtient donc la matrice orthogonale U :
1 2 1
 
√ √ √
 6 5 30 
 
 2 1 2 
U = 6√ − √ √ 
 5 30 
 1 5 
√ 0 −√
6 30
1
Il ne reste plus qu’à calculer les vecteurs V1 et V2 par la formule Vi = σi A Ui . On
trouve :
1
 
√ √ 
   6
  2
1 1 3 1 1  2   2 
√  = √ 
V1 = A U1 = √
σ1 12 −1 3 1   6
 
2

 1 
√ 2
6

24
puis
 √ 
 2 
√ 2
  5 
1 1 3 1 1    2 
 1 = √ 
V2 = A U2 = √ −√  
σ2 10 −1 3 1  2

 5 −
0 2
Les vecteurs V1 et V2 constituent les colonnes de la matrice V :
√ √ 
2 2
 2 2 
V = √ √ 
2 2


2 2
On peut vérifier a posteriori que le produit V Σ tU redonne bien la matrice A de
départ :
1 2 1
 
√ √  √ √ √
2 2 √  6
 6 6  
2 2 12 0 0 2 1
t √
   
V Σ U = √ √   √ 5 − √5 0 
  
2 2 0 10 0 

 
 1 2 5 
2 2 √ √ −√
30 30 30
1 2 1
 
√ √ √
√  6 6 6 

√ 
6 5 0  2 1
√ √

=  √ −√ 0 
6 − 5 0  5  5 

 1 2 5 
√ √ −√
30 30 30
 
3 1 1
= .
−1 3 1

Solution de tous les exemples


 
3 1 1
• Matrice
−1 3 1

1 2 1
 
√ √  √ √ √
2 2 √   6 5 30 
 2 12 0 0 
 2 1 2 

2 
V =
√ √  Σ= √  √6
U = −√ √
 
2 2

0 10 0 5 30 

 
 1 5 
2 2 √ 0 − √
6 30

25
 
1 1
• Matrice −1 0
1 −1

1 1 1
 
−√ −√ √ √ 
 3 2 6 3 0
√ 
   
 1 2  
−1 0
 √3
V = 0 √  Σ= 0 2 U=
 
 6   0 −1
 1 1 1 
−√ √ √ 0 0
3 2 6

 
1 1 0
1 1 0
• Matrice 
1

0 1
1 0 1


1 1 2
 
− 2 −
2 2
0  √
6 0 0

1

2


 1 √  √ 0 −√
1 2   √   3 6
− − − 0 
   0
 2 2 2  2 0


 1 1 1 

V = √  Σ= − √3
U = √ √ 
 
 1 1 2

 0 0 0
 2 6 
− 0 −

 1

1 1 
  
 2 2 2 
 √  −√ −√ √
0 0 0 3 2 6
1 1 2
 
− 0
2 2 2

 p p
− 3/2

3/2
p p 
 3/2 − 1 − 3/2 − 1
• Matrice 



p p 
3/2 + 1 − 3/2 + 1

1 2
 
√ 0 −√
1 1
 
 3 6 √ −√ 
 

 1 1 1 
 3 0  2 2
 √3
V = −√
2
√ 
6 
Σ = 0 2 U =
 1 1 

 1
 0 0 √ √
1 1  2 2
√ √ √
3 2 6

26
Corrigé ex. 25 : Décomposition LU

Modèle de résolution
 
2 4 1
Prenons, à titre d’exemple, la matrice A =  6 14 6 .
−4 −10 −3
On doit trouver une matrice triangulaire inférieure L et une matrice triangulaire
supérieure U dont le produit est égal à la matrice donnée.
La condition nécessaire et suffisante pour que cette décomposition soit possible
est que les mineurs principaux “nord-ouest” (situés en haut à gauche de la matrice)
soient non nuls. Si de plus le déterminant de la matrice elle-même est non nul alors la
décomposition est unique.
On vérifie ici que :

det(2) = 2 6= 0
 
2 4
det = 4 6= 0
6 14
 
2 4 1
det  6 14 6  =8 = 6 0
−4 −10 −3

On applique une méthode du pivot qui construira la matrice U et on remplit au fur


L.
et à mesure les éléments de la matrice  
1 0 0
Au départ la matrice L est égale à  . 1 0.
. . 1

Première étape
On prend la première ligne comme ligne pivot et on cherche à faire apparaître des 0
dans la première colonne sous le terme pivot (ici 2). On fait pour cela des combinaisons
linéaires avec la ligne pivot L1 .
On remplace la deuxième ligne L2 par L2 − 3L1 . On obtient la matrice :
 
2 4 1
0 2 3
−4 −10 −3
a21
Le coefficient = 3 (qui a servi à faire la combinaison) devient le terme d’indice
a11
(2, 1) de la matrice L.
De même, on remplace la troisième ligne L3 par L3 + 2L1 . On obtient maintenant
la matrice :  
2 4 1
A0 = 0 2 3
0 −2 −1
a31
Le coefficient = −2 (qui a servi à faire la combinaison) devient le terme d’indice
a11
(3, 1) de la matrice L.

27
 
1 0 0
À ce stade, la matrice L est égale à  3 1 0.
−2 . 1

Deuxième étape
La première ligne et la première colonne ont été traitées. On recommence mainte-
nant la même procédure sur le sous-bloc suivant :
 
2 4 1
0 2 3 
 
0 −2 −1
 
2 3
Dans ce sous-bloc , la première ligne va servir de ligne pivot et il faut
−2 −1
faire apparaître un 0 dans la première colonne sous le terme pivot 2.
Pour cela, on remplace la troisième ligne L3 de la matrice A0 par L3 + L2 et on
obtient maintenant la matrice :
 
2 4 1
A00 = 0 2 3
0 0 2

a032
Le coefficient = −1 (qui a servi à faire la combinaison) devient le terme d’indice
a022
(3, 2) de la matrice L.  
1 0 0
À ce stade, la matrice L est égale à  3 1 0.
−2 −1 1
La procédure est complète. La matrice A00 obtenue est triangulaire supérieure : c’est
la matrice U recherchée.
On peut vérifier effectivement que :
    
1 0 0 2 4 1 2 4 1
3 1 0 0 2 3 =  6 14 6 .
−2 −1 1 0 0 2 −4 −10 −3

Solution de tous les exemples


25-1) Tous les exemples de cette question peuvent être factorisés. On donne ci-
dessous les deux matrices triangulaires L et U dont le produit L × U est égal à la
matrice initiale.
 
2 3
• Matrice
−2 1
   
1 0 2 3
L= U=
−1 1 0 4

28
 
3 2
• Matrice
6 5
   
1 0 3 2
L= U=
2 1 0 1
 
b c
• Matrice
ab ac + b
   
1 0 b c
L= U=
a 1 0 b
 
3 4 1
• Matrice  6 7 4
−3 −6 2
   
1 0 0 3 4 1
L= 2 1 0 U = 0 −1 2
−1 2 1 0 0 −1
 
2 4 1
• Matrice  6 14 6
−4 −10 −3
   
1 0 0 2 4 1
L= 3 1 0 U = 0 2 3
−2 −1 1 0 0 2
 
2 −5 −1
• Matrice  8 −24 1 
−2 −7 19
   
1 0 0 2 −5 −1
L= 4 1 0 U = 0 −4 5
−1 3 1 0 0 3
 
4 2 −3 −1
−4 −4 5 4
• Matrice 
−8

−10 11 15 
−4 −4 3 15
   
1 0 0 0 4 2 −3 −1
−1 1 0 0 0 −2 2 3
L=
  U =
 
−2 3 1 0 0 0 −1 4
−1 1 2 1 0 0 0 3

29
 
3 0 −4 −1 −1
−15 −1 22 5 8
 
 −9 −2
• Matrice  15 6 11 

−12 2 12 7 −4
−3 −5 12 4 21

   
1 0 0 0 0 3 0 −4 −1 −1
−5 1 0 0 0 0 −1 2 0 3
   
−3
L= 2 1 0 0 0
U = 0 −1 3 2

−4 −2 0 1 0 0 0 0 3 −2
−1 5 2 −1 1 0 0 0 0 −1
 
1 2 3
25-2) La matrice A =  2 4 5  ne vérifie pas le critère indiqué précé-
−1 3 −2
demment concernant les mineurs  principaux
 “nord-ouest”. En effet, le déterminant du
1 2
mineur de taille 2 est nul : det = 0.
2 4
Cette matrice n’admet donc pas de décomposition LU.
On transpose les lignes et les colonnes d’indices 2 et 3. On obtient alors la matrice
suivante :  
1 3 2
A0 = −1 −2 3
2 5 4
La matrice A0 vérifie le critère. En appliquant l’algorithme, on obtient :
   
1 0 0 1 3 2
L = −1 1 0 U = 0 1 5
2 −1 1 0 0 5

La matrice qui effectue la permutation des lignes et colonnes d’indices 2 et 3 est :


 
1 0 0
P = 0 0 1
0 1 0

On a donc la relation A = P × L × U .

Corrigé ex. 26 : Décomposition de Cholesky

Toutes les matrices de cet exercice sont des matrices symétriques définies positives.
On peut le vérifier en calculant leurs mineurs principaux “nord-ouest” qui sont tous
strictement positifs.  
1 2 −1
Par exemple, dans le cas de la matrice A =  2 8 2 , on vérifie que
−1 2 14

30
det(1) = 1 > 0
 
1 2
det =4>0
2 8
 
1 2 −1
det  2 8 2  = 36 > 0
−1 2 14

On peut donc rechercher une décomposition de Cholesky, c’est-à-dire une matrice


triangulaire inférieure L telle que la matrice A s’écrive sous la forme A = L tL.

Modèle de résolution
 
1 2 −1
Prenons, à titre d’exemple, la matrice A A =  2 8 2  précédente.
−1 2 14
Si on écrit la matrice A donnée et la matrice L recherchée sous forme de matrices
par blocs, elles ont la forme suivante :
   
α11 B λ11 0
A= L=
a21 A22 l21 L22
où α11 et λ11 sont des nombres, a21 et l21 sont des vecteurs colonnes et A22 et L22
sont des sous-blocs carrés.
On effectue le produit L tL et on l’identifie avec A. On obtient les relations sui-
vantes : 
2
α11 = λ11

a21 = λ11 l21

A22 = l21 tl21 + L22 tL22

On en déduit que  √
λ11 = α11

l21 = a21 /λ11

A22 − l21 tl21 = L22 tL22

Les deux premières égalités permettent de calculer la première colonne de L et la troi-


sième signifie qu’il suffit de calculer la quantité A22 − l21 tl21 (qui est un bloc de taille
2) et de lui appliquer à nouveau la même procédure.
On a donc ici :  √
λ11 = 1 = 1
 !
2
l21 = a21 /1 =

−1
et d’autre part :
   
t 28 2 
A22 − l21 l21 = − 2 −1
142 −1
     
8 2 4 −2 4 4
= − =
2 14 −2 1 4 13

31
On a pour l’instant trouvé la première colonne de la matrice L. On arrive à la
matrice suivante :  
1 0 0
2 4 4 
 
−1 4 13
 
4 4
On recommence la procédure avec la sous-matrice de taille 2 encadrée : .
4 13
Cette fois on obtient :
( √
λ11 = 4 = 2
l21 = a21 /2 = 4/2 = 2

A22 − l21 tl21 = 13 − 2 × 2 = 9.


On arrive à la matrice suivante :
 
1 0 0
2 2 0
−1 2 9

On termine en appliquant à nouveau la procédure au sous-bloc de taille 1 encadré :



λ11 = 9 = 3.

Finalement la matrice recherchée est


 
1 0 0
L= 2 2 0
−1 2 3

On peut vérifier facilement que


    
1 0 0 1 2 −1 1 2 −1
L tL =  2 2 0 0 2 2 = 2 8 2 =A
−1 2 3 0 0 3 −1 2 14

Solution de tous les exemples


Pour tous les exemples de l’exercice, on indique ci-dessous la matrice triangulaire
inférieure L telle que le produit L tL soit égal à la matrice donnée.
 
1 −1
• Matrice
−1 2
 
1 0
L=
−1 1
 
1 −1
• Matrice
−1 5
 
1 0
L=
−1 2

32
 
4 −6
• Matrice
−6 10
 
2 0
L=
−3 1
 
1 a
• Matrice
a a2 + 1
 
1 0
L=
a 1

a2 −a2
 
• Matrice
−a2 2 a2
 
a 0
L=
−a a
 
1 2 −1
• Matrice  2 8 2
−1 2 14
 
1 0 0
L= 2 2 0
−1 2 3
 
1 2 −1
• Matrice  2 5 0
−1 0 6
 
1 0 0
L= 2 1 0
−1 2 1
 
16 −4 −4
• Matrice −4 5 3
−4 3 11
 
4 0 0
L = −1 2 0
−1 1 3
 
1 −1 −1 −1
−1 2 4 2
• Matrice 
−1

4 11 7
−1 2 7 20
 
1 0 0 0
−1 1 0 0
L=
−1

3 1 0
−1 1 3 3

33

Vous aimerez peut-être aussi