Vous êtes sur la page 1sur 54

Module d’Algèbre 2

Formation MIPC
S2, 2015-2016

Pr. Rachid KHIRI


Université Caddi-Ayyad,
Faculté des Sciences et Techniques,
Département de Mathématiques ,
B.P. 549, Guéliz-Marrakech-Maroc.
email : rkhiri@gmail.com

13 mai 2016
2
Table des matières

1 Applications linéaires 5
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Dé…nitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Applications linéaires et sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . 6
1.2.1 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . 6
1.2.2 Image d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Bases, dimension et applications linéaires . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Applications linéaires et changement de base . . . . . . . . . . . . . . . . . . . . 12

2 Déterminants 15
2.1 Théorie des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Dé…nition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2 Déterminants de matrices particulières . . . . . . . . . . . . . . . . . . . 16
2.2 Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.1 Interprétation géométrique des déterminants . . . . . . . . . . . . . . . . 19
2.2.2 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Quelques applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Expression de l’inverse d’une matrice à l’aide du déterminant . . . . . . . 20
2.3.2 Application des déterminants à l’indépendance linéaire de vecteurs . . . 21
2.3.3 Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.4 Formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3 Réduction des endomorphismes et des matrices 23


3.1 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . 23
3.1.2 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.3 Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . 28
3.2 Triangulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3
4 TABLE DES MATIÈRES

4 Formmes bilinéaires et quadratiques 41


4.1 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.1 Expression matricielle des formes bilinéaires (en dimension …nie) . . . . . 42
4.3 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3.1 Orthogonalité, noyau et rang . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4 Théorème de réduction de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.1 Exemples et Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Chapitre 1

Applications linéaires

Soient E et F deux espaces vectoriels sur le même corps K (K = R ou C).

1.1 Généralités
1.1.1 Dé…nitions et exemples
Dé…nition 1.1. Une application f de E dans F est dite linéaire (ou morphisme d’espace
vectoriel) si :
8 x; y 2 E, 8 2 K :
f (x + y) = f (x) + f (y); f ( x) = f (x):
ou encore :
8 x; y 2 E, 8 ; 2K:
f ( x + y) = f (x) + f (y):
La propriété précédente s’étend à toute combinaison linéaire : 8 x1 ; :::; xn 2 E, 8 1 ; :::; n 2K:
Xn X
n
f( i xi ) = i f (xi ):
i=1 i=1

- Si f est bijective, f est dite un isomorphisme de E sur F ;


- Si E = F , f est dite un endomorphisme de E ;
- Si f est bijective avec E = F , f est dite un automorphisme de E.
Notations. On note :
- L(E; F ) l’ensemble des applications linéaires de E dans F ,
- L(E) l’ensemble des applications linéaires de E dans E,
- GL(E) l’ensemble des automorphismes de E.

f : R2 ! R3
Exemple 1.1. ; f est linéaire.
(x; y) ! (3x; y x; 2x)

5
6 CHAPITRE 1. APPLICATIONS LINÉAIRES

Exemple 1.2. Soit A = (aij ) 2 Mm;n (K) une matrice de type (m; n) à coe¢ cients dans K.
L’application dé…nie par
Kn ! Km 0 1
0 1 a11 a1n 01 0 1
x1 B .. .. .. C x 1 a11 x 1 + ::: + a 1n x n
B .. C B C B .. C B .. C
X=@ . A ! A:X = B . . . C:@ . A = @ . A
@ am1 amn A
xn xn am1 x1 + ::: + amn xn

est linéaire.
Exemple 1.3. Homothéties : Soit E un K-espace vectoriel et 2 K. L’application
h
E ! E
u ! :u
est un endomorphisme sur E appelé homothétie de rapport . L’homothétie de rapport 1 est
appelée l’identité de E et notée IdE .
Exemple 1.4. Projecteurs : Soient F et G deux s.e.v. de E tels que E = F G. Tout x 2 E
se décompose de manière unique en x = y + z avec y 2 F et z 2 G. On appelle projecteur
sur F parallèlement à G l’endomorphisme dé…ni par p(x) = y.
Exemple 1.5. les applications suivantes sont linéaires :

C 1 (R) ! C 1 (R) C 1 (R) ! R


; Rb
f ! f0 f ! a f (t)dt:

1.1.2 Opérations algébriques


- Si f : E ! F et g : F ! G sont deux applications linéaires, alors g f : E ! G est
linéaire.
- Si f : E ! F est un isomorphisme, alors f 1 : F ! E est aussi un isomorphisme.
- L(E; F ) est un espace vectoriel : 8 f; g 2 L(E; F ), 8 ; 2 K, f + g 2 L(E; F ):

1.2 Applications linéaires et sous-espaces vectoriels


1.2.1 Noyau et image d’une application linéaire
Dé…nition 1.2. (image et image inverse d’un sous-ensemble)
Soit f : E ! F une application. Soit A un sous-ensemble de E, on appelle image de A
par f le sous-ensemble de F :

f (A) = ff (x) 2 F tels que x 2 Ag


1.2. APPLICATIONS LINÉAIRES ET SOUS-ESPACES VECTORIELS 7

Soit B un sous-ensemble de F , on appelle image inverse de B par f le sous-ensemble de


E :
f 1 (B) := fx 2 E tels que f (x) 2 Bg

Remarque 1.1. L’image inverse de B (f 1 (B)) est dé…nie même si f n’est pas bijective, c’est
à dire même si l’application f 1 n’est pas dé…nie.

Proposition 1.1. Soit f : E ! F une application linéaire entre deux K-espaces vectoriels.
1) Pour tout sous-espace vectoriel V de E, f (V ) est un sous-espace vectoriel de F .
2) Pour tout sous-espace vectoriel W de F , f 1 (W ) est un sous-espace vectoriel de E.

Preuve 1) L’ensemble f (V ) est non vide, car 0E 2 V et donc f (0E ) = 0F 2 f (V ). Soit


y = f (x); y 0 = f (x0 ) 2 f (V ) et ; 2 K, on a :

y + y 0 = f (x) + f (x0 ) = f ( x + x0 ) 2 f (V ):

Car f est linéaire et V est un s-e-v et donc x + x0 2 V . Ainsi, f (V ) est un s-e-v de F .


2) f (0E ) = 0F 2 W ) 0E 2 f 1 (W ) ) f 1 (W ) 6= ?.
Soit x; x0 2 f 1 (W ) et ; 2 K ) f (x); f (x0 ) 2 W ) f (x) + f (x0 ) = f ( x + x0 ), car f
est linéaire et W est un s-e-v, ainsi x + x0 2 f 1 (W ). Donc f 1 (W ) est un s-e-v de E.

Dé…nition 1.3. (Image et Noyau d’une application linéaire) Soit f : E ! F une application
linéaire :
On appelle image de f et on note Im f l’ensemble

Im f = f (E) = ff (x) 2 F tels que x 2 Eg:

On appelle noyau de f et on note ker f , l’ensemble


1
ker f = f (0F ) = fx 2 E tels que f (x) = 0F g:

Soit f 2 LK (E; F ). Comme E est un espace vectoriel, il résulte de la proposition 1:1 que
f (E) (= Im f ) est un sous-espace vectoriel de F . De même, ker f (= f 1 (0F )) est un s-e-v de
E.

Proposition 1.2. Soit f 2 LK (E; F ).


1) f surjective , Im f = F .
2) f injective , ker f = f0E g.

Preuve. 1) La première assertion résulte de la dé…nition de la surjectivité.


2) )) Supposons f injective. Soit x 2 ker f ) f (x) = 0F = f (0E ) et comme f est injective
alors x = 0E ) ker f = f0E g.
() Supposons ker f = f0E g. Soit x; x0 2 E tels que f (x) = f (x0 ) ) f (x x0 ) = 0F )
x x0 2 ker f ) x = x0 et donc f est injective.
8 CHAPITRE 1. APPLICATIONS LINÉAIRES

1.2.2 Image d’une famille de vecteurs


Proposition 1.3. Soit f 2 LK (E; F ) et v1 ; v2 ; :::; vp 2 E. Alors
f (V ect(v1 ; v2 ; :::; vp )) = V ect(f (v1 ); f (v2 ); :::; f (vp )):
Donc si une famille G engendre E, alors la famille f (G) engendre f (E).
Preuve. ) Soit x 2 V ect(v1 ; v2 ; :::; vp ) ) x = 1 v1 + ::: + p vp avec i 2 K ) par linéarité
de f : f (x) = 1 f (v1 ) + ::: + p f (vp ) ) f (x) 2 V ect(f (v1 ); f (v2 ); :::; f (vp )).
Donc f (V ect(v1 ; v2 ; :::; vp )) V ect(f (v1 ); f (v2 ); :::; f (vp )).
) Inversement, si y 2 V ect(f (v1 ); f (v2 ); :::; f (vp )), il existe 1 ; :::; p 2 K tels que y =
1 f (v 1 )+:::+ p f (vp ). Puisque f est linéaire, y = f ( 1 v1 +:::+ p vp ) 2 f (V ect(v1 ; v2 ; :::; vp )) )
V ect(f (v1 ); f (v2 ); :::; f (vp )) f (V ect(v1 ; v2 ; :::; vp )).
Ainsi on a montré l’égalité cherchée.
Proposition 1.4. Soit f 2 LK (E; F ).
1) Si f injective et (u1 ; u2 ; :::; up ) est une famille libre, alors la famille (f (u1 ); f (u2 ); :::; f (up ))
est une famille libre de F .
2) Si f surjective et (v1 ; v2 ; :::; vp ) est une famille génératrice de E, alors la famille
(f (v1 ); f (v2 ); :::; f (vp )) est une famille génératrice de F .
3) Par conséquent, si f est un isomorphisme et (v1 ; v2 ; :::; vn ) est une base de E, alors la famille
(f (v1 ); f (v2 ); :::; f (vn )) est une base de F .
Preuve. 1) Soit 1 ; :::; p 2 K tels que 1 f (u1 )+:::+ p f (up ) = 0F ) f ( 1 u1 +:::+ p up )=
0F ) 1 u1 + ::: + p up = 0E puisque f est injective. (u1 ; u2 ; :::; up ) libre ) 1 = ::: = p = 0.
Donc (f (u1 ); f (u2 ); :::; f (up )) est une famille libre.
2 ) (à faire en exercice) résulte de la proposition 1:3 du fait que f (E) = F .
Exercice 1.1. Considérons l’application linéaire
f : R3 ! R3
x = (x1 ; x2 ; x3 ) ! f (x) = (x1 + x2 + x3 ; x1 2x3 ; 3x1 + x2 x3 )
Déterminer une base de ker f et de Im f .
Soit x = (x1 ; x2 ; x3 ) 2 ker f , f (x) = (x1 + x2 + x3 ; x1 2x3 ; 3x1 + x2 x3 ) = (0; 0; 0). Ce qui
revient à résoudre le système suivant :
0 1
1 1 1 0
@ 1 0 -2 0 A
3 1 -1 0
Imf = V ect (u1 (1; 1; 3); u2 (1; 0; 1); u3 (1; 2; 1))
0 1 0 1
1 1 2 0 1 1 2 0
L2 L2 L1 @ 0 -1 -3 0 A ! L2 L2 @ 0 -1 -3 0 A
L3 L3 3L1 0 -2 -4 0 L3 L3 2L2 0 0 2 0
det A = 2 6= 0 et ker f = f(0; 0; 0)g . On remarque que dim ker f + dim Im f = 3.
1.3. BASES, DIMENSION ET APPLICATIONS LINÉAIRES 9

Exercice 1.2.
f : R3 ! R3
! f (x) = (x1 x2 + x3 ; 3x1 + x2 2x3 ; 4x1 x3 )
x = (x1 ; x2 ; x3 )
0 1
1 -1 1 0
@ 3 1 -2 0 A
4 0 -1 0
0 1 0 1
1 -1 1 0 1 -1 1 0
L2 L2 3L1 @ 0 4 -5 0 A ! @ 0 -4 -5 0 A
L3 L3 4L1 0 4 -5 0 L3 L3 L 2 0 0 0 0
det A = 0 donc ces trois vecteurs u1 (1; 3; 4); u2 ( 1; 1; 0); u3 (1; 2; 1) sont liés (u1 + 4u3 =
5u2 ).
Ainsi ker f = fe1 + 4e3 + 5e2 g et Im f = V etc (u1 (1; 1; 3); u2 (1; 0; 1)). On remarque que
dim ker f + dim Im f = 3.

Exercice 1.3. On considère l’application f : P 2 R3 [X] ! P 0 2 R2 [X]. Déterminer une base


de ker f et de Im f .
P 2 ker f ssi P 0 = 0 ssi P est un plynome constant. Donc ker f = V ect(1).
Imf = f (V ect(1; X; X 2 ; X 3 )) = V ect (f (1); f (X); f (X 2 ); f (X 3 )) = V ect (0; 1; 2X; 3X 2 ) =
R2 [X]. Donc f est surjective, mais elle n’est pas injective.
On remarque que dim Kerf + dim Imf = 4.

1.3 Bases, dimension et applications linéaires


Proposition 1.5. Soient E et F deux K-espaces vectoriels, B = (e1 ; :::; en ) une base de E et
u1 ; u2 ; :::; un : n vecteurs de F . Il existe une unique application linéaire f : E ! F telle que
pour tout i = 1; :::; n : f (ei ) = ui .

Preuve. Existence : Soit (e1 ; :::; en ) une base de E et soit u1 ; u2 ; :::; un : n vecteurs de F .
Considérons l’application linéaire f telle que f (ei ) = ui .
Unicité : supposons q’9 une autre application linéaire g telle que g(ei ) = ui .
8x 2 E (f g)(x) = (f g)(x1 e1 + ::: + xn en ) = x1 (f g)(e1 ) + :::: + xn (f g)(en ) =
x1 0 + :::: + xn 0 = 0F ) f (x) = g(x); 8x 2 E ) f = g.

Proposition 1.6. Soit E un K-espace vectoriel de base B = (e1 ; :::; en ). L’application E ! Kn


qui à un vecteur de E associe ses coordonnées dans la base B est un isomorphisme linéaire.

Preuve. Soit x = x1 e1 + ::: + xn en 2 E et f telle que f (x) = (x1 ; :::; xn ) 2 Kn .


f est linéaire (évident)
f injective ? Soient x = x1 e1 + ::: + xn en 2 E et x0 = x01 e1 + ::: + x0n en 2 E tels que
f (x) = f (x0 ). Ceci implique (x1 ; :::; xn ) = (x01 ; :::; x0n ) ) xi = x0i ) x = x0 ) f injective.
10 CHAPITRE 1. APPLICATIONS LINÉAIRES

f surjective ? Soit X = (x1 ; :::; xn ) 2 Kn ) x1 e1 + ::: + xn en 2 E car (e1 ; :::; en ) base de


E. Il existe donc x = x1 e1 + ::: + xn en 2 E tel que X = f (x) ) f surjective.
C/c : f est un isomorphisme.

Théorème 1.1. (Théorème du rang)


Soit E et F deux K-espaces vectoriels. On suppose E de dimension n et f 2 LK (E; F ),
alors :
dim E = dim ker f + dim Im f:
La dimension de l’image de f est dite le rang de f et souvent noté rang(f ).

Preuve. Soit (e1 ; :::; ep ) une base de ker f . Complétons cette base en B = (e1 ; :::; en ) base
de E. On a E = ker f S, avec S = V ect(ep+1 ; :::; en ). Notons que f (ep+1 ); :::; f (en ) 2 Im f et
montrons que (f (ep+1 ); :::; f (en )) est une base de Imf .
i) (f (ep+1 ); :::; f (en )) génératrice de Im f ?
Im f = V ect(f (e1 ); :::; f (ep ); f (ep+1 ); ; f (en )) = V ect(f (ep+1 ); ; f (en )).
ii) (f (ep+1 ); :::; f (en )) libre?
Soit p+1 ; :::; n 2 K tels que p+1 f (ep+1 ) + ::: + n f (en ) = 0F ) f ( p+1 ep+1 + ::: + n en ) =
0F ) p+1 ep+1 + ::: + n en 2 Kerf \ S = f0E g ) p+1 ep+1 + ::: + n en = 0. Or la famille
(ep+1 ; :::; en ) est libre, donc p+1 = ::: = n = 0 ) (f (ep+1 ); :::; f (en )) est libre.
Par conséquent rang(f ) = dim Im f = n p = dim E dim ker f .

Corollaire 1.1. Soient E et F deux K-espaces vectoriels de même dimension. Soit f 2


LK (E; F ). Alors, on a :
f est injective , f est surjective , f est un isomorphisme

1.4 Matrice d’une application linéaire


Dé…nition 1.4. Soient E et F deux K-espaces vectoriels. Soit B = (e1 ; :::; en ) une base de E et
B 0 = (e01 ; :::; e0m ) une base de F . Soit f 2 LK (E; F ). On appelle matrice de f dans les bases
B (base de départ) et B 0 (base d’arrivée), la matrice notée M (f; B 0 ; B) 2 Mm;n (K) dé…nie
comme suit : la i-ème colonne de M (f; B 0 ; B) est formée des coordonnées de f (ei ) dans la base
B0.
Cas particulier : lorsque E = F et B = B 0 , la matrice M (f; B; B) 2 Mn (K) est dite la matrice
de f dans les bases B . Elle est notée tout simplement M (f; B).

Proposition 1.7. Soient E et F deux K-espaces 0 vectoriels.


1 Soit B = (e1 ; :::; en ) une base de E
x1
0 0 0 B .. C
et B = (e1 ; :::; em ) une base de F . Soit X = @ . A la matrice colonne formée des coordonnées
xn
1.4. MATRICE D’UNE APPLICATION LINÉAIRE 11
0 1
y1
B C
d’un vecteur x dans la base B. Soit Y = @ ... A la matrice colonne formée des coordonnées
ym
du vecteur f (x) dans la base B 0 . Alors :
Y = M (f; B 0 ; B)X:
X
n
Remarque 1.2. yj = aji xi
i=1

Preuve. Soit aij le terme de la i-ème ligne et de la j-ème colonne de M (f; B 0 ; B), par
dé…nition :
X
m
f (ei ) = aji e0j
j=1

Il en résulte,
! !
Xn X
n X
n X
m X
m X
n X
m
f (x) = f ( xi ei ) = xi f (ei ) = xi aji e0j = aji xi e0j = yj e0j :
i=1 i=1 i=1 j=1 j=1 i=1 j=1

Donc Y = M (f; B 0 ; B)X.

Théorème 1.2. D’après la proposition 1:7, la donnée d’une application linéaire f 2 LK (E; F )
et d’une base B de E et une base B 0 dans F implique la donnée d’une application linéaire
fe 2 L(Kn ; Km ) et donc d’une matrice M (f; B 0 ; B) 2 Mm;n (K).
Inversement la donnée d’une matrice A 2 Mm;n (K) dé…nie une application linéaire f 2 L(Kn ; Km )
comme suit
Kn ! Km
X ! A:X
Proposition 1.8. Soient E et F deux K-espaces vectoriels, B une base de E et B 0 une base
de F . Soit f; g 2 LK (E; F ) et 2 K. On a :
1) M (f + g; B 0 ; B) = M (f; B 0 ; B) + M (g; B 0 ; B) et M ( f; B 0 ; B) = M (f; B 0 ; B).
2) Si G est un troisième espace vectoriel, B" une base de G et g 2 LK (F; G), alors
M (g f; B"; B) = M (g; B"; B 0 ) M (f; B 0 ; B):
Proposition 1.9. Soient E et F deux K-espaces vectoriels de dimensions respectivement n et
m, B une base de E et B 0 une base de F . L’application :
IB 0 ;B
LK (E; F ) ! Mm;n (K)
f ! M (f; B 0 ; B)
est un isomorphisme. Par conséquent dim L(E; F ) = dim Mm;n (K) = m n.
12 CHAPITRE 1. APPLICATIONS LINÉAIRES

Preuve. la linéarité de IB 0 ;B résulte de la proposition précédente.


f surjectivePm : Soit0 A = (aij ) 2 Mm;n (K), on 0dé…nit une application linéaire f 2 LK (E; F ),
par f (ei ) = j=1 aji ej , avec B = (e1 ; :::; en ) et B = (e1 ; :::; e0m ). Par dé…nition M (f; B 0 ; B) = A.
0

Donc IB 0 ;B est surjective.


f injective : Soit f; g 2 LK (E; F ) tq M (f; B 0 ; B) = M (g; B 0 ; B) ) f (ei ) = g(ei ) ) f = g car
(e1 ; :::; en ) est une base de E.

Proposition 1.10. Soit E un K-espace vectoriel, B une base de E. f 2 LK (E) est un isomor-
phisme si et seulement si M (f; B) est inversible. On a alors
1 1
M (f ; B) = M (f; B)

Preuve. )) Si f est un isomorphisme, en utilisant la proposition 1:8 , on obtient :


M (f 1 ; B)M (f; B) = M (f 1 f; B) = M (IdE ; B) = Idn , M (f; B)M (f 1 ; B) = M (f
f 1 ; B) = M (IdE ; B) = Idn Ainsi, M (f; B) est inversible et M (f 1 ; B) = M (f; B) 1 .
() Si M (f; B) est inversible, d’après la proposition 1:9 il existe un endomorphisme g 2
LK (E) tel que M (g; B) = M (f; B) 1 . En utilisant la proposition , on obtient : M (g f; B) =
M (f g; B) = Idn . Or, Idn est la matrice de IdE dans la base B. On déduit de la proposition :
g f = f g = IdE . Cette propriété assure que f est bijective et d’application réciproque g.

1.5 Applications linéaires et changement de base


Soit B = (e1 ; :::; en ) et B 0 = (e01 ; :::; e0n ) deux bases de E. On rappelle que la matrice de
passage de la base B à la base B 0 est la matrice P dont les colonnes Cj sont les composantes
des vecteurs e0j dans la base B. Donc P = M (IdE ; B; B 0 ) et M (IdE ; B 0 ; B) = M (IdE ; B; B 0 ) 1 .

Exercice 1.4. Soit R3 muni de sa base canonique B et soient B1 = f(1; 1; 0); ((0; 1; 0); (3; 2; 1)g
et B2 f(1; 1; 0); ((0; 1; 0); (0; 0; 1)g deux bases de R3 :
Quelle est la matrice de passage de B1 à B2 ?
0 1 0 1
1 0 3 1 0 0
Preuve : PB;B1 = @ 1 1 2 A et PB;B2 = @ 1 1 0 A ; on sait que PB;B2 =
0 0 1 0 0 1
1
PB;B1 PB1 ;B2 et donc PB1 ;B2 = PB;B P B;B2 .
0 1 1 01 1 0 1 0 1
1 0 3 1 0 0 1 0 3 1 0 0
PB1 ;B2 = @ 1 1 2 A @ 1 1 0 A = @ 1 1 1 A @ 1 1 0 A
0 01 0 1 0 0 1 0 0 1 0 0 1
1 0 3
= @ 2 1 1 A.
0 0 1
1.5. APPLICATIONS LINÉAIRES ET CHANGEMENT DE BASE 13

Proposition 1.11. Soient E et F deux K-espaces vectoriels, soient B1 et B2 deux bases de E,


B10 et B20 deux bases de F . Soit f 2 LK (E; F ), alors :

M (f; B20 ; B2 ) = M (IdF ; B20 ; B10 ):M (f; B10 ; B1 ):M (IdE ; B1 ; B2 )

Preuve. L’assertion résulte de la proposition 1:8 2. : f = IdF f IdE , donc


f
E ! F
f 0
B1 ! B1
IdF 1 f IdE
IdE # y # IdF
B2 ? B20

M (f; B20 ; B2 ) = M (IdF 1 f IdE ; B20 ; B2 ) = M (IdF 1 ; B20 ; B10 ):M (f; B10 ; B1 ):M (IdE ; B1 ; B2 ):

Corollaire 1.2. Soit E un K-espace vectoriel, B1 et B2 deux bases de E et f 2 LK (E). Notons


P = M (IdE ; B1 ; B2 ) la matrice de passage de la base B1 à la base B2 , alors :
1
M (f; B2 ) = M (IdE ; B2 ; B1 ):M (f; B1 ):M (IdE ; B1 ; B2 ) = P :M (f; B1 ):P

Exemple 1.6. On considère l’application linéaire

f0: R31 ! R
0
3
1
x x z
@ y A ! @ 2x 3y + z A
z y 2z
0 1
1 0 1
La matrice de f dans la base canonique est : M (f; C) = @ 2 3 1 A. On considère main-
0 1 2
tenant la nouvelle base B = ("1 ; "2 ; "3 ), avec "1 = (1;
0 0; 0), " =
2 1 (1; 1; 0) et "3 = (1; 1; 1). La
1 1 1
matrice de passage de la base C à la base B est P = @ 0 1 1 A. Donc la matrice de f dans
0 10 0 0 1 1 0 1
1 1 0 1 0 1 1 1 1
la base B est : M (f; B) = P 1 AP = @ 0 1 1 A @ 2 3 1 A @ 0 1 1 A=
0 1 0 0 0 0 1 2 0 0 1
1 2 1
@ 2 2 1 A.
0 1 1
14 CHAPITRE 1. APPLICATIONS LINÉAIRES

Corollaire 1.3. Soit E un K-espace vectoriel avec B1 et B2 deux bases de E. Soit F un K-


0 0
espace vectoriel avec B1 et B20 deux bases de F et f 2 LK (E; F ). Soient M (f; B1 ; B1 ) = A et
M (f; B20 ; B2 ) = B.

Alors :
f
E ! F
A
B1 ! B10 M (f; B20 ; B2 ) = M (IdF 1 ; B20 ; B10 ):M (f; B10 ; B1 ):M (IdE ; B1 ; B2 )
1 AP ,
P # IdE
B=Q
y IdF # Q soit B = Q 1 :A:P
B
B2 ! B20

Dé…nition 1.5. Deux matrices A et B de Mm;n (R) sont équivalentes ssi il existe deux matrices
inversibles P 2 Mn (R) et Q 2 Mm (R) telles que :

B = Q 1 :A:P
Chapitre 2

Déterminants

2.1 Théorie des déterminants


2.1.1 Dé…nition et premières propriétés
Théorème 2.1. (Théorème d’existence et d’unicité du déterminant)
Il existe une unique application de Mn (K) dans K, appelée déterminant, telle que
i) Le déterminant est linéaire par rapport à chaque vecteur-colonne, les autres étant …xés.
ii) Si une matrice A a deux vecteurs colonnes égaux, alors son déterminant est nul.
iii) Le déterminant de la matrice identité In vaut 1.

On a plusieurs notations pour les déterminants :

a11 a1n
detA = .. .. ..
. . .
an1 ann

On note Ci la ième colonne de A et

detA = jC1 ; C2 ; :::Cn j

Avec cette notation, la propriété i) s’écrit : pour tout i 2 f1; :::; ng,

jC1 ; ::: ; Ci + Ci0 ; ::: ; Cn j = jC1 ; :::; Ci ; :::; Cn j + jC1 ; ::: ; Ci0 ; ::: ; Cn j

Une application de Mn (K) dans K qui satisfait la propriété i) est appelée forme multilinéaire.
Si elle satisfait ii), on dit qu’elle est alternée.
Le déterminant est donc la seule forme multilinéaire alternée qui vaut 1 sur la matrice In . Les
autres formes multilinéaires alternées sont les multiples scalaires du déterminant. On verra plus
loin comment on peut calculer e¤ectivement les déterminants. Donnons maintenant quelques
propriétés importantes du déterminant.

15
16 CHAPITRE 2. DÉTERMINANTS

Proposition 2.1. Soit A une matrice dans Mn (K) et A0 la matrice obtenue en échangeant
deux colonnes distinctes de A. Alors on a detA0 = detA.
Preuve. Soit A = (C1 ; :::; Ci ; ::: Cj ; :::; Cn ). On va échanger les colonnes i et j, ce qui
donne la matrice A0 = (C1 ; :::; Cj ::: ; Ci ; :::; Cn ), où le vecteur Ci se retrouve en colonne i et
le vecteur Cj en colonne j (on a pris ici i < j, sans perte de généralité). Introduisons alors
une troisième matrice Ae = (C1 :::; Ci + Cj ; ::: ; Cj + Ci ; :::; Cn ), cette matrice a deux colonnes
distinctes égales, donc d’après ii) detA e = 0. D’un autre coté, nous pouvons développer ce
déterminant en utilisant la propriété i) de multilinéarité, c’est-à-dire linéarité par rapport à
chaque colonne. Ceci donne
detA e = detA + detA0 = 0:

Proposition 2.2. Soit A une matrice dans Mn (K) et A0 la matrice obtenue en ajoutant à une
colonne de A une combinaison linéaire des autres colonnes de A. Alors on a detA0 = detA.
Preuve. Soit A = (C1 ; :::; Ci ; ::: ; Cj ; :::; Cn ) et donnons nous des scalaires j, j = 1; :::; n,
j 6= i. On pose !
X
A0 = C1 ; :::; Ci + j Cj ; :::; Cj ; :::; Cn
j6=i

Par linéarité par rapport à la colonne i, on en déduit


X
detA0 = detA + j det (C1 ; :::; Cj ; ::: ; Cj ; :::; Cn ) :
j6=i

Or chacun des déterminants apparaissant sous le signe de sommation est nul, puisqu’il concerne
une matrice dont les colonnes i et j sont égales.
Corollaire 2.1. Si une colonne de A est combinaison linéaire des autres colonnes alors det A =
0.
Preuve. En e¤et, on soustrait à cette colonne la combinaison linéaire en question, ce qui ne
modi…e pas le déterminant. La matrice obtenue a une colonne nulle, et par linéarité par rapport
à cette colonne, le déterminant est nul.

2.1.2 Déterminants de matrices particulières


Calculons le déterminant de matrices triangulaires en utilisant les propriétés du déterminant.
Proposition 2.3. Si A = (aij ) est une matrice triangulaire supérieure ou inférieure, alors :

detA = a11 a22 :::ann :

Autrement dit, pour une matrice triangulaire, le déterminant est égal au produit des termes
diagonaux.
2.1. THÉORIE DES DÉTERMINANTS 17

Preuve. On traite le cas des matrices triangulaires supérieures, le cas des matrices trian-
gulaires inférieures est identique. Soit donc
0 1
a11 a12 a13 a1n
B 0 a22 a23 a2n C
B C
B 0 0 a33 a3n C
A=B C
B .. .. .. . . .. C
@ . . . . . A
0 0 0 ann

Par linéarité par rapport à la première colonne, on a :

1 a12 a13 a1n


0 a22 a23 a2n
det A = a11 0 0 a33 a3n
.. .. .. .. ..
. . . . .
0 0 0 ann

On ajoute maintenant à chaque colonne j 2 le vecteur a1j la colonne 1. Ceci ne modi…e


pas le déterminant d’après la section précédente. Il vient donc

1 0 0 0
0 a22 a23 a2n
det A = a11 0 0 a33 a3n
.. .. .. .. ..
. . . . .
0 0 0 ann

et l’on continue ainsi jusqu’à avoir parcouru toutes les colonnes de la matrice. Au bout de n
étapes, on a obtenu

1 0 0 0
0 1 0 0
det A = a11 a22 :::ann 0 0 1 0 = a11 a22 :::ann det(In ) = a11 a22 :::ann :
.. .. .. . . . ..
. . . .
0 0 0 1

Remarque 2.1. La façon de procéder doit rappeler l’algorithme de Gauss. C’est en fait le même
argument mais avec des substitutions de colonnes. Notons que le résultat s’applique en particu-
lier aux matrices diagonales, lesquelles sont à la fois triangulaires supérieures et triangulaires
inférieures.
Notation. Soit une matrice carrée M d’ordre n. Il est évident que si l’on supprime une
ligne et une colonne dans M , la matrice obtenue est à n 1 lignes et colonnes. On note la
matrice obtenue en supprimant la i-ème ligne et la j-ième colonne Mij .
18 CHAPITRE 2. DÉTERMINANTS

Théorème 2.2. Si M = (mij ) est une matrice carrée d’ordre n, on a :


det(M ) = ( 1)i+1 :mi1 : det(Mi2 ) + ( 1)i+2 :mi2 :d det(Mi2 ) + ::: + ( 1)i+n :min : det(Min )
Remarque 2.2. Tout ce que l’on a dit des déterminants à propos des colonnes est donc vrai
pour les lignes. Ainsi, le déterminant est multilinéaire par rapport aux lignes, si une matrice a
deux lignes égales, son déterminant est nul, on ne modi…e pas un déterminant en ajoutant à
une ligne une combinaison linéaire des autres lignes, etc.
Exemple 2.1. Calculer
1 1 2
d1 = 2 2 4 :
1 3 1
Si on ajoute à la première colonne la deuxième colonne on a,

0 1 2
1 2
d1 = 0 2 4 = 4 = 4( 1 4 2 2) = 32 .
2 4
4 3 1
Exemple 2.2. Calculer
1 3 2
d2 = 2 2 4 :
5 3 1
1 3 2
4 6
d2 = 0 4 6 L2 + 2L1 , d2 = 1 =4 9 6 12 = 36.
12 9
0 12 9 L3 5L1

Exemple 2.3. Calculer


2 x 3 2
d3 = 1 1 x 1 .
1 1 3 x
2 x 3 2 2 x 3 2 2 x 1 2
d3 = 1 1 x 1 = (2 x) 1 1 x 1 = (2 x) 1 2 x 1 C2 C
0 2 x 2 x L3 + L2 0 1 1 0 0 1

2 x 1
d3 = (2 x) 1 = (2 x)((2 x)2 1) = (1 x)(2 x)(3 x):
1 2 x
1 x1 x21 x31
1 x2 x22 x32
Exemple 2.4. d4 = = (x4 x3 )(x4 x2 )(x4 x1 )(x3 x2 )(x3 x1 )(x2 x1 ) =
1 x3 x23 x33
1 x4 x24 x34
(xi xj )
i6=j
2.2. PROPRIÉTÉS DU DÉTERMINANT 19

2.2 Propriétés du déterminant


Proposition 2.4. 1) Soit A 2 Mn K) et 2 K, on a donc det( :A) = n det(A)
A 0
2) det = det A det B
C B
3) Soit A; B 2 Mn (K), on a det(A:B) = det A det B
4) Une matrice carrée A, d’ordre n, est inversible si et seulement si son déterminant est non
1
nul ; De plus si A est inversible, alors det(A 1 ) = .
det(A)
5) Deux matrices semblables ont même déterminant :
Si B = P 1 AP avec P 2 GLn (K), alors det B = det A.
6) det(t A) = det A

2.2.1 Interprétation géométrique des déterminants


En dimension 2, deux vecteurs v1 ; v2 déterminent un parallélogramme, alors qu’en dimension
3, trois vecteurs v1 ; v2 ; v3 déterminent un parallélépipède. On prendra comme unité de surface
la surface du carré unité dont les cotés sont les vecteurs de la base canonique, et comme unité
de volume, le volume du cube unité construit de la même façon en dimension 3.

Proposition 2.5. La surface du parallélogramme est donnée par det(v1 ; v2 ),


Le volume du parallélépipède est donné par det(v1 ; v2 ; v3 ).

2.2.2 Déterminant d’un endomorphisme


Théorème 2.3. (dé…nition du déterminant d’un endomorphisme)
Soit E un K-espace vectoriel de dimension …nie et f un endomorphisme de E. Toutes les
matrices associées à f par rapport à des bases di¤érentes ont le même déterminant appelé
déterminant de f et noté det(f ).
Preuve. Soient B et B 0 deux bases de E: Soient M (f; B) et M (f; B 0 ) les matrices de f
respectivement par rapport à la base B et à la base B 0 . Soit P la matrice de passage de B à
B 0 . On a :
M (f; B 0 ) = P 1 :M (f; B):P
Les matrices M (f; B) et M (f; B 0 ) étant semblables, elles ont le même déterminant.

Théorème 2.4. (Propriétés du déterminant d’un endomorphisme)


Soit E un K-espace vectoriel de dimension …nie :
1) det(IdE ) = 1.
2) Soient f et g deux endomorphismes de E. On a det(f g) = det(f ): det(g).
3) Un endomorphisme f de E est bijectif si et seulement si det(f ) 6= 0.
20 CHAPITRE 2. DÉTERMINANTS

Preuve. Soit B une base de E, on a


1) det(IdE ) = det M (IdE ; B) = det(In ) = 1.
2) M (f g; B) = M (f; B) M (g; B), donc
det(f g) = det M (f g; B) = det(M (f; B) M (g; B)) = det(f ) det(g).
3) On a les équivalences suivantes :
f est bijectif ssi M (f; B) est inversible ssi det M (f; B) 6= 0 ssi det(f ) 6= 0.

2.3 Quelques applications des déterminants


2.3.1 Expression de l’inverse d’une matrice à l’aide du déterminant
Dé…nition 2.1. Soit A une matrice n n et Aij la matrice (n 1) (n 1) obtenue en
e¤açant la ligne i et la colonne j de A. On appelle mineur de A relatif à aij le déterminant
Dij = det(Aij ). On appelle cofacteur de A relatif à aij le nombre Cij = ( 1)i+j Dij .
Dé…nition 2.2. La matrice des cofacteurs de A, est la matrice notée ComA avec (ComA =
(Cij )) et Cij = ( 1)i+j det(Aij ).
Proposition 2.6. On a pour toute matrice A
A: t (Com A) = (Com A): t A = (detA)In :
En particulier, si A est inversible, alors
1 t
1
A (Com A):
=
det A
Exemple 2.5. Reprenons l’exemple précédent
1 1 2
A= 2 2 4 :
1 3 1
Solution :
d1 = 32 = det A, donc A est inversible.
0 1
2 4 2 4 2 2
B + 3 1 1 1
+
1 3 C
B C
B 1 2 1 2 1 1 C
Com A = BB + C
C
B 3 1 1 1 1 3 C
@ 1 2 1 2 1 1 A
+ +
2 4 2 4 2 2
Et 0 1t
14 2 8 14 5 8
1 t 1 @ 1
A 1
= (Com A) = 5 3 4 A = 2 3 8 :
detA 32 32
8 8 0 8 4 0
2.3. QUELQUES APPLICATIONS DES DÉTERMINANTS 21

2.3.2 Application des déterminants à l’indépendance linéaire de


vecteurs
Soit E un K-espace vectoriel de dimension n. Soit B une base de E. Soient v1 ; :::; vn n vecteurs
de E. Soit M la matrice de Mn (K) dont la j ieme colonne est formée des coordonnées du
vecteur vj par rapport à la base B. On appelle déterminant des vecteurs v1 ; :::; vn et on note
detB (v1 ; :::; vn ) le déterminant de la matrice M .
Proposition 2.7. Soit E un | espace vectoriel de dimension n. Soient n vecteurs de E et B
une base de E. Ces vecteurs sont linéairement indépendants si et seulement si detB (v1 ; :::; vn ) 6=
0.
Exercise 1. Exercice. Montrer que la famille F = (1 X; X X 2 ; X 2 X 3 ; X 3 ) est une base
de R3 [X].
F est une base de R3 [X] ssi elle est libre ssi detC (1 X; X X 2 ; X 2 X 3 ; X 3 ) 6= 0, où
C = (1; X; X 2 ; X 3 ) est la base canonique de R3 [X]. Or

1 0 0 0
1 1 0 0
det(1 X; X X 2; X 2 X 3; X 3) = = 1 6= 0:
C 0 1 1 0
0 0 1 1

Donc F est une base de R3 [X].

2.3.3 Calcul du rang d’une matrice


Dé…nition 2.3. Soient n et q deux entiers naturels. Soit A = (aij ) une matrice à n lignes et
q colonnes à coe¢ cients dans K. Soit p un entier inférieur à n et à q. On appelle mineur
d’ordre p le déterminant d’une matrice carrée d’ordre p obtenue à partir de A en supprimant
n p lignes et q p colonnes.
Rappelons la dé…nition du rang d’une matrice.
Dé…nition 2.4. Le rang d’une matrice est le nombre maximum de vecteurs colonnes linéaire-
ment indépendants.
Rappelons que l’on ne change pas le rang d’une matrice A = (C1 ; :::; Cn ) par les opérations
élémentaires suivantes sur les colonnes :
Permutation de deux colonnes.
On multiplie une colonne par un scalaire non nul.
On ajoute à une colonne un multiple d’une autre colonne.

Proposition 2.8. Le rang d’une matrice est le plus grand entier r tel qu’il existe une matrice
carrée d’ordre r extraite de M de déterminant non nul.
22 CHAPITRE 2. DÉTERMINANTS

Exemple 2.6. On considère la matrice


0 1
1 0 5 6
B 2 4 5 1 C
A=B
@ 1
C
2 2 1 A
3 3 4 2

det A = 0, en plus le determinant du mineur de A d’ordre 3 ;

1 0 5 1 0 5
2 4 5 = 0 4 15 = 28 30 = 2 6= 0:
1 2 2 0 2 7

Donc rangA = 3.

2.3.4 Formules de Cramer


La solution d’un système de Cramer d’écriture matricielle AX = Y est donnée par :

det(Aj )
xj = ; 1 j n:
det(A)

où Aj est la matrice obtenue à partir de A en remplaçant la j-ième colonne par la colonne du


second membre Y . Exemple. On considère le système
8
< 1x + 0y + 5z = 1
(S) 2x + 4y 5z = 0
:
x + 2y + 2z = 2

1 0 5
2 4 5 = 2 6= 0, donc le système est un système de Cramer et on a :
1 2 2

1 0 5 1 1 5 1 0 1
0 4 5 2 0 5 2 4 0
2 2 2 1 2 2 29 1 2 2
x= = 19; y = = ; z= = 4:
2 2 2 2
29
Donc l’ensemble de solutions du système (S) est f(19; ; 4)g.
2
Chapitre 3

Réduction des endomorphismes et des


matrices

3.1 Diagonalisation
Le but de ce chapitre est de savoir transformer une matrice carrée A en une matrice semblable
B la "plus simple possible". Dans la situation idéale, la matrice B sera diagonale, et on dira
alors que A est diagonalisable. Dans les cas moins favorables, on pourra seulement transformer
A en une matrice B triangulaire (et on dira que A est trigonalisable) voire triangulaire par
blocs. Pour
Pnl’endomorphisme, nous voulons décomposer un endomorphisme f en une somme
…nie f = i=1 fi d’endomorphismes fi "plus simples". Dans les cas les plus favorables, les ui
seront des homothéties. sur un sous-espace vectoriel de E.

3.1.1 Valeurs propres et vecteurs propres


Le cas des endomorphismes
Dé…nition 3.1. Soit f 2 End(E). On dit que 2 K est valeur propre de f s’il existe un
élément x non nul de E tel que f (x) = x.
Si est une valeur propre de f , tout élément x de E véri…ant la relation ci-dessus est appelé
vecteur propre de f associé à la valeur propre .
L’ensemble des valeurs propres de f est appelé spectre de f , et noté Sp(f ). C’est un sous
ensemble (éventuellement vide) de K.

Dé…nition 3.2. Si est une valeur propre de l’endomorphisme f de End(E), on appelle sous-
espace propre associé à l’ensemble des vecteurs propres de f pour .

Ce sous-espace se note E (f ) (ou simplement E en l’absence d’ambiguïté).

Proposition 3.1. Si est une valeur propre de f , l’ensemble E est un sous-espace vectoriel
de E non réduit à f0g, et l’on a : E = ker(f Id).

23
24 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES

Remarque 3.1. En particulier, 0 est valeur propre de f si et seulement si ker f n’est pas réduit
à 0, si et seulement si f n’est pas injectif. Dans ce cas E0 n’est autre que ker f .

Proposition 3.2. On a les propriétés suivantes :


i) Si est une valeur propre de f alors E est stable par f ( f (E ) E ). L’endomorphisme
fE induit par f sur E est égal à IdE .
ii) Si et sont deux valeurs propres distinctes de f , alors E et E sont en somme directe.
iii) Soit (x1 ; :::; xp ) une famille de p vecteurs propres non nuls de E associés à des valeurs
propres 1 , ... , p deux à deux distinctes. Alors (x1 ; :::; xp ) est une famille libre.

Preuve. Prouvons i). Soit x 2 E . On a f (f (x)) = f ( x) = f (x) par linéarité de u. Par


conséquent, f (x) 2 E , et E est donc stable par f . On peut donc parler d’endomorphisme
induit par f sur E , et il est trivial que fE = IdE .
Si maintenant x est vecteur propre pour et pour , on a f (x) = x = x, donc ( )x = 0.
On en déduit que = ou x = 0, ce qui prouve ii).
Pour prouver iii), considérons un p-uplet ( 1 ; :::; p ) de Kp tel que

p
X
i xi = 0:
i=1

En appliquant successivement f; f 2 ; :::; f p à l’égalité ci-dessus, on obtient le système suivant :


8
>
> 1 x1+ 2 x2 + ::: + p xp = 0
<
1 1 x1 + 2 2 x2 + ::: + p p xp = 0
(S) : :
>
> :::::::::::::::::::::::::::::::::::::::::::::
: p 1 p 1 p 1
1 1 x1 + 2 2 x2 + ::: + p p xp = 0

Si l’on considère ( 1 x1 ; 2 x2 ; :::; p xp ) comme les inconnues du système, la matrice de (S) n’est
autre que la matrice de Vandermonde associée au p-uplet ( 1 ; :::; p ). Comme les i sont deux
à deux distincts, on en déduit que (S) est de Cramer. Son unique solution est clairement
1 x1 = 2 x2 = ::: = p xp = 0. Comme tous les xi sont distincts de 0, on conclut que tous les
i sont nuls.

Exemples 3.1. 1. Projecteurs :


Supposons que E = F G avec F et G non réduits à f0g. Soit p le projecteur sur F parallèlement
à G.
Soit (e1 ; :::; em) une base de F et (em+1 ; :::; en) une base de G; alors p(ei ) = ei pour 1 i m
et p(ei ) = 0 pour m + 1 i n d’où :
3.1. DIAGONALISATION 25

1
0 m m+1 n
1
1 1 0 0 0 0
.. B .. C
. B 0 1 . 0 C
B .. .. .. C
B 0 0 . . . C
M (p; (ei )) = B C ) det(M I) = ( 1)m ( )n m
)
B .. .. C
B . . C
m B C
B 1 C
.. B C
. @ 0 A
n 0 0 0 0
Sp(p) = f0; 1g, E0 = ker p = G et E1 = Im p = F .
2. Symétries :
Si l’on considère maintenant la symétrie s par rapport à F parallèlement à G, alors on a
Sp(s) = f 1; 1g, E 1 = G et E1 = F .

Le cas des matrices


Dé…nition 3.3. Soit A 2 Mn (K). On dit que 2 K est valeur propre de A si la matrice
A In n’est pas inversible.
L’ensemble des valeurs propres de A est appelé spectre de A, et noté Sp(A).

Proposition 3.3. Soit A 2 Mn (K). Les propriétés suivantes sont équivalentes :


i) 2 Sp(A),
ii) rg(A In ) < n,
iii) il existe un vecteur colonne non nul X de Kn tel que AX = X.

Preuve. i) ) ii) : Comme 2 Sp(A), la matrice A In n’est pas inversible. Son rang est
donc strictement inférieur à n.
ii) ) iii) : Soit f l’endomorphisme de matrice A par rapport à la base canonique (e1 ; :::; en )
de Kn . On supose rg(f Id) < n. Donc, d’après le théorème du rang, ker(f Id) n’est pas
réduit à f0g et l’on peut trouver x = x1 e1 + ::: + xn en tel que f (x) = x. Le vecteur colonne
de composantes (x1 ; :::; xn ) répond à la question.
iii) ) i) : Si f désigne l’endomorphisme dé…ni ci-dessus, et x = x1 e1 + ::: + xn en où les xi sont
les composantes de x, alors x 2 ker(f Id). Donc f Id n’est pas inversible, et la matrice
(par rapport à la base canonique) correspondante A In non plus.

Dé…nition 3.4. Si est valeur propre de A, tout vecteur colonne X tel que AX = X est
appelé vecteur propre de A.

Proposition 3.4. Si A et B sont deux matrices semblables, alors Sp(A) = Sp(B).

Preuve. Il su¢ t de remarquer que si A et B sont semblables, alors A In et B In également.


Par conséquent A In et B In sont inversibles simultanément.
26 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES

Proposition 3.5. Soit f 2 End(E), B = (e1 ; :::; en ) une base de E et A la matrice de f


par rapport à B. Alors Sp(A) = Sp(f ). De plus, si est valeur propre de A ou f alors
Xn
x = xi ei est vecteur propre de f pour la valeur propre si et seulement si le vecteur
i=1
colonne X = t (x1 ; :::; xn ) est vecteur propre de A pour .
Preuve. La dé…nition de Sp(A) et Sp(f ) entraîne que Sp(A) = Sp(f ). Par ailleurs, si l’on
utilise les notations de la proposition, l’égalité f (x) = x est équivalente à AX = X.

3.1.2 Polynôme caractéristique


Le calcul du polynôme caractéristique (dé…ni dans la proposition qui suit) va nous permettre
de déterminer les valeurs propres d’une matrice ou d’un endomorphisme.
Proposition 3.6. Soit A 2 Mn (K). La fonction ! A ( ) = det(A In ) coïncide avec
n
un polynôme de degré n et de coe¢ cient dominant ( 1) , noté A . Ce polynôme est appelé
polynôme caractéristique de A. De plus, on a

A = ( 1)n X n + ( 1)n 1 X n 1 trA + ::: + detA:

Preuve. On développe l’expression suivante :

a11 a12 ::: a1n


a21 a22 ::: a2n
det(A In ) = ..
::: ::: . :::
an1 an2 : : : ann

Exemples 3.2. 1) Dans le cas n = 2, on a A = X 2 T race(A)X + det A.


Yn
2) Si A est scindé avec A = ( i X), alors
i=1

X
n Y
n
trace(A) = i et det(A) = i:
i=1 i=1
0 1
2 0 4 2 X 0 4
3) M = @ 3 4 12 A ; M = det(M XI3 ) = 3 4 X 12 = (2
1 2 5 1 2 5 X
X) [( 4 X)(5 X) + 24] + 4 [ 6 + 4 + X]
= (2 X) [X 2 X + 4] + 4 [ 2 + X] = (2 X)(X 2 X + 4 4) = (2 X)X(X 1).
Sp(M ) = f0; 1; 2g.
Donnons quelques propriétés importantes des polynômes caractéristiques :
3.1. DIAGONALISATION 27

Proposition 3.7. Soient A et B deux matrices de Mn (K). On a :


i) A = t A ,
ii) si A et B sont semblables alors A = B ,
iii) AB = BA .
a11 a12 ::: a1n
a21 a22 ::: a2n
Preuve. i) A = det(A In ) = ...
::: ::: :::
an1 an2 : : : ann
Théorème 3.1. Soit A 2 Mn (K). Alors 2 Sp(A) si et seulement si A( ) = 0.
Preuve. 2 Sp(A) si et seulement si A In n’est pas inversible, donc si et seulement si
det(A In ) = 0.
Corollaire 3.1. i) Si A 2 Mn (K) avec K = R ou C, alors Sp(A) a au plus n éléments.
ii) Si A 2 Mn (C), alors Sp(A) n’est pas vide.
iii) Si A 2 Mn (R) alors le spectre de A dans R est inclus dans le spectre de A dans C.
Preuve. Pour i), on utilise le fait qu’un polynôme de degré n a au plus n racines. La propriété
ii) résulte du théorème fondamental de l’algèbre. Comme l’ensemble des racines réelles d’un
polynôme est inclus dans l’ensemble de ses racines complexes, on obtient iii).

Exemples 3.3. 1) Soit


0 1
A= :
1 0
On a A = X 2 + 1. Donc d’après le théorème 1.1, le spectre de A dans C est i; i. Mais comme
A n’a pas de racine réelle, le même théorème montre que A n’a pas de valeur propre dans R.
2) Matrices triangulaires : Le polynôme caractéristique d’une matrice triangulaire supérieure
A de termes diagonaux 1 ; :::; n est
1 X ? ::: ?
. .. Y
n
0 2 X .. .
A = det .. ... ... = ( i X):
. ? i=1
0 ::: 0 n X
Résultat identique pour une matrice triangulaire inférieure.
3) Matrice Compagnon :
0 1
0 0 ::: 0 a0
B 1 0 ::: 0 a1 C
B C
B 0 1 ::: 0 a2 C
CP = B C
B .. . .. .. .. .. C
@ . . . . A
0 :::::: 0 1 an 1
28 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES

CP = ( 1)n mCP :
En e¤et
X 0 ::: 0 a0
1 X ::: 0 a1
CP (X) = 0 1 ::: 0 a2
.. .. .. .. ..
. . . . .
0 :::::: 0 1 an 1 X
Notons (Li ) la i-ème ligne de ce déterminant. Changer (L1 ) en (L1 ) + X(L2 ) + ::: + X n 1 (Ln )
ne modi…e pas le déterminant. Par conséquent,
Pn 1
0 0 ::: 0 X n + i=0 ai X i
1 X ::: 0 a1 X
n 1

CP = 0 1 : : : 0 a 2 = ( 1)n
(X n
ai X i ):
.. .. . . .. ..
. . . . . i=0

0 :::::: 0 1 an 1 X

De même, à tout endomorphisme dé…ni sur un espace vectoriel E de dimension …nie n, on peut
associer un polynôme caractéristique.
Dé…nition 3.5. Soit f 2 End(E) avec E de dimension …nie, B une base de E, et A la matrice
de f par rapport à B. On appelle polynôme caractéristique de f , le polynôme f = A .
Remarque 3.2. D’après la proposition 6.4, deux matrices semblables ont même polynôme
caractéristique. La dé…nition ci-dessus ne dépend donc pas de la base B choisie. On dispose
bien sûr du résultat fondamental suivant :
Théorème 3.2. Soit f 2 End(E). Alors 2 Sp(f ) si et seulement si f( ) = 0.
Corollaire 3.2. Si est racine de f de multiplicité alors 1 dimE . Le nombre
entier est appelé multiplicité de la valeur propre . En particulier, si est racine simple
alors dimE = 1. Résultat identique pour les matrices.
Preuve. Si est racine de f alors E n’est pas réduit à 0, d’où = dimE 1. De plus,
d’après la proposition 1.3, l’endomorphisme induit par f sur E coïncide avec IdE . Son po-
lynôme caractéristique est donc ( X) . D’après la proposition précédente, ( X) divise
donc f , ce qui montre que .

3.1.3 Endomorphismes diagonalisables


Dé…nition 3.6. On dit que f 2 End(E) est diagonalisable si f admet une famille de vecteurs
propres (x1 ; :::; xn ) qui est une base de E.
3.1. DIAGONALISATION 29

Dé…nition 3.7. On dit que A 2 Mn (K) est diagonalisable si A est semblable à une matrice B
diagonale.

La proposition suivante fait le lien entre les deux dé…nitions.

Proposition 3.8. i) Un endomorphisme f 2 End(E) est diagonalisable si et seulement si il


existe une base B de E par rapport à laquelle matB (f ) est une matrice diagonale.
ii) Une matrice A est diagonalisable si et seulement si l’endomorphisme f de matrice A par
rapport à la base canonique de Kn est diagonalisable.
Dans ce cas, si (e1 ; :::; en ) est une base de vecteurs propres de f , et ( 1 ; :::; n ) les valeurs propres
associées, on a :
A = P:diag( 1 ; :::; n ):P 1 ;
où P est la matrice de passage de la base canonique à la base (e1 ; :::; en ).

Preuve. Si f est diagonalisable, alors sa matrice dans une base de vecteurs propres est diago-
nale. Réciproquement, si dans une base B = (e1 ; :::; en ) donnée la matrice de f est diagonale,
alors tous les ei sont vecteurs propres pour f . On a donc prouvé i).
Pour prouver ii), il su¢ t de remarquer que si A = P:diag( 1 ; :::; n ):P 1 et si l’on note ("1 ; :::; "n )
la base canonique de Kn , on a AP "i = P diag( 1 ; :::; n )"i = i P "i .
Par conséquent dire que A est diagonalisable équivaut à dire que l’endomorphisme f de matrice
A par rapport à la base canonique admet (P "1 ; :::; P "n ) comme base de vecteurs propres.

Exemples 3.4. 1) Projecteurs : Soit p le projecteur sur F parallèlement à G. Alors n’importe


quelle base (e1 ; :::; en ) adaptée à la décomposition E = F G est une base de vecteurs propres
pour p. Plus précisément, si dimF = m, ei est associé à la valeur propre 1 si 1 i m, et à
la valeur propre 0 si m + 1 i n.
En conclusion, tout projecteur est diagonalisable.
2) Symétries : Soit s la symétrie par rapport à F parallèlement à G. Alors n’importe quelle
base (e1 ; :::; en ) adaptée à la décomposition E = F G est une base de vecteurs propres pour s.
Plus précisément, si dimF = m, ei est associé à la valeur propre 1 si 1 i m, et à la valeur
propre 1 si m + 1 i n.
En conclusion, toute symétrie est diagonalisable.

Théorème 3.3. Soit f 2 End(E). Notons Sp(f ) = f 1 ; :::; p g. Les quatre propriétés suivantes
sont équivalentes :
i) f est diagonalisable,
ii) E = pi=1 E i .
p
X
iii) dimE = dimE i .
i=1
iv) Il existe p entiers non nuls 1 ; :::; p tels que 1 + ::: + p = n, et une base B de E par
30 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES

rapport à laquelle la matrice de f est


0 1
1I 1
0 ::: 0
B .. C
B 0 2I ::: . C
matB (f ) = B .. ..
2
.. .. C
@ . . . . A
0 0 ::: pI p

Preuve. Sachant que les E i sont en somme directe et inclus dans E, on a ii) , iii).
i) ) iii) : Soit f diagonalisable. On considère une base (e1 ; :::; en ) de vecteurs propres de f que
l’on ordonne de telle sorte que les 1 premiers
Pp vecteurs soient associés à 1 , les 2 suivants à
2 . On a bien évidemment dimE i = i et i=1 i = n, ce qui entraîne iii).
ii) ) iv) : Supposons que E = pi=1 E i . La matrice de f par rapport à une base adaptée à
cette décomposition est clairement du type voulu.
iv) ) i) : Immédiat.
Corollaire 3.3. Si f a n valeurs propres deux à deux distinctes, 1 ; :::; n alors f est diagona-
lisable et tous ses sous-espaces propres sont de dimension 1. De plus, la matrice de f dans une
base de vecteurs propres (x1 ; :::; xn ) associés à 1 ; :::; n est
matB (f ) = diag( 1 ; :::; n ):

Preuve. Comme les E i


sont en somme directe et tous de dimension au moins 1, on a :
X
dim pi=1 E i = dimE i n;
i=1

avec égalité si et seulement si tous les sous-espaces propres sont de dimension 1. Mais par ailleurs
p p
i=1 E i est inclus dans E donc est de dimension au plus n. On conclut que E = i=1 E i , et
donc f est diagonalisable en vertu du théorème 6.3.
Théorème 3.4. Un endomorphisme f 2 End(E) est diagonalisable si et seulement si f est
scindé dans K[X] et la dimension i de chaque sous-espace propre E i de f est égale à la
multiplicité i de i dans f . Dans ce cas, on a
p
Y
n
f = ( 1) (X i)
i

i=1

où Sp(f ) = f 1 ; :::; p g.

Preuve. On sait déjà quePpour tout i 2 f1; :::; pg, on a i i.


Puisque deg f = n, on a pi=1 i = n. P
Supposons f diagonalisable. Alors d’après le théorème 6.3, on a pi=1 i = n, et donc nécessai-
rement i = i pour tout i. P
Réciproquement, si i = i pour tout i, alors pi=1 i = n, et donc f est diagonalisable d’après
le théorème 6.3.
3.1. DIAGONALISATION 31

Exemple 3.1. Chercher les valeurs propres et des bases des espaces propres associés à la
matrice A. diagonaliser A dans R ou C si c’est possible.
0 1
0 1 0
A = @ 0 0 1 A:
2 1 2
Le polynôme caractéristique de A est
X 1 0
X 1 0 1
A (X) = 0 X 1 = X = X 3 + 2X 2 + X 2:
1 2 X 2 2 X
2 1 2 X
On remarque 1 est une racine de A . Par suite, A (X) = (X 2)(X 1)(X + 1). Donc le
spectre de A est Sp(A) = f 1; 1; 2g. Puisque Les valeurs propres de A sont réelles et distinctes.
Donc A est diagonalisable dans R.
Recherche d’un vecteur propre X(x; y; z) associé à 1. X est un vecteur propre associé à 1 si
et seulement si (A + I)X = 0 si et seulement si X véri…e le système de Cramer

0 1 0 1 0 1
1 1 0 0 1 1 0 0 1 1 0 0
@ 0 1 1 0 A , @ 0 1 1 0 A,@ 0 1 1 0 A
2 1 3 0 0 3 3 0 0 0 0 0
Donc un vecteur propre associé à 1 est "1 = (1; 1; 1).
Recherche d’un vecteur propre X(x; y; z) associé à 1. X est un vecteur propre associé à 1 si et
seulement si (A I)X = 0 si et seulement siX véri…e le système de Cramer
0 0 0
1 1 0 1 1 1 0 1 1 1 0 1
B 0 0 B 0 0 B 0 0
B 1 1 A,B 1 1 A,B 1 1
@ 2 1 1 0 @ 2 1 1 0 @ 0 0 A
1 1
0 0 0

Donc un vecteur propre associé à 1 est "2 = (1; 1; 1).


Recherche d’un vecteur propre X(x; y; z) associé à 2. X est un vecteur propre associé à 2 si et
seulement si (A 2I)X = 0 si et seulement si X véri…e le système de Cramer
0 1 0 1 0 1
2 1 0 0 1 1 0 0 2 1 0 0
@ 0 2 1 0 A,@ 0 1 1 0 A,@ 0 2 1 0 A
2 1 0 0 2 1 1 0 0 0 0 0
Donc un vecteur propre associé à 2 est "3 = (1; 2; 4). D’après ce qui précède, on a :
0 1 0 1
1 0 0 1 1 1
@ 0 1 0 A = P 1 AP; avec P = @ 1 1 2 A:
0 0 2 1 1 4
32 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES
0 1
2 0 4
Exemple 3.2. M = @ 3 4 12 A ; M = det(M XI3 ) = (2 X)X(X 1).
1 2 5

Sp(M ) = f0; 1; 2g.


E0 , E1 , E2 ? 8
<2x1 + 4x3 = 0
u 2 E0 ) (f 0:Id3 )(u) = 0 ou (M 0:I3 )u =3x1 4x2 + 12x3 = 0 )
:
x1 2x2 + 5x3 = 0
(
L2 L1 L3 : 2x2 + 3x3 = 0 x1 = 2x3
) 3 ) E0 = V ect f( 4; 3; 2)g .
2x1 + 4x3 = 0 x2 = x3
8 2
< x1 + 4x3 = 0
u 2 E1 ) (M 1:I3 )u = 3x1 5x2 + 12x3 = 0 )
:
x1 2x2 + 4x3 = 0
L2 2L1 L3 : 3x2 = 0
) E1 = V ect f( 4; 0; 1)g .
x1 = 4x3
De même on0obtient : E12 = V ect f(2; 1; 0)g .
0 0 0
matB (f ) =
0 @ 0 1 0 A ;où B 0 = f( 4; 3; 2); ( 4; 0; 1); (2; 1; 0)g.
0 0 2
0 1
3 1 1
Exemple 3.3. M = @ 1 3 1 A ; M = 6X(X 4)2 et Sp(M ) = f0; 4g
2 2 2

E0 , E4 ?
E0 = V ect fu0 = (1; 1; 2)g et E4 = V ect fv4 = (1; 1; 0); w4 = (1; 0; 1)g .
dim E0 = 1 et 2. dim E0 + dim E4 = 3 ) M est diagonalisable.
0 dim E4 =1
0 0 0
matB 0 (f ) = @ 0 4 0 A ;où B 0 = fu0 ; v4 ; w4 g.
0 0 4

Exercice 3.1. Calculer les valeurs propres et des bases des espaces propres associés aux ma-
trices suivantes.
0 Les diagonaliser
1 0 dans R ou C si1c’est possible.
1 1 0 2 8 6
B = @ 1 1 2 A et C = @ 4 10 6 A :
0 0 2 4 8 4

Exercice 3.2. On considère les suites (un ) et (vn ) dé…nies par u0 = 1 et v0 = 1 et pour tout
n2N:
un+1 = 72un + 50vn
vn+1 105un 73vn
3.2. TRIANGULATION 33

un 72 50
On pose Xn = et A =
vn 105 73
1) Diagonaliser A.
2) Endéduire An , pour n 2 N.
3) Exprimer un et vn en fonction de n.

3.2 Triangulation
ou (Trigonalisation)

Exemple 3.4.
0 1
2 1 1
A=@ 2 3 1 A, A = M (B; u) où B = (e1 ; e2 ; e3 ).
0 1 1
1. On calcule et on factorise le polynôme caractéristique de A :
PA (t) = det(A I) = ( 2)3 . A possède une seule valeur propre = 2. PA est scindable,
donc A est au moins trigonalisable (triangulable).
2. Détermination
0 1 de E2 .
x
X = @ y A 2 E2 , (A 2I)X = 0.
z 8 8 0 1
< 2x + y + z = 2x < y = z 1
On résoud donc le système : 2x + 3y z = 2y ) x = z ) X = z@ 1 A
: :
y+z = 2z y = z 1
On obtient ainsi E2 = V ect fv1 = e1 + e2 e3 g.
3. dim(E2 ) = 1 6= 3 (donc A n’est pas diagonalisable)
4. On complète le système libre fv1 g pour construire une base B1 = fv1 ; v2 ; v3 g de E, (en
utilisant
les vecteurs de B = (e1 ; e2 ; e3 )). On pose :
8 8
< v1 = e1 + e2 e3 < e1 = v2
v2 = e1 ) e2 = v3 .
: :
v3 = e2 e3 = v1 + v2 + v3
5.
8 On calcule A1 = M (B1 ; u)
< u(v1 ) = u(e1 + e2 e3 ) = 2v1
u(v2 ) = u(e1 ) = 2e1 2e2 = 2v2 2v3 . D’où :
:
u(v0
3 ) = u(e2 ) = e1 + 3e2
1 e3 = v1 + 2v3
2 0 1
A1 = @ 0 2 0 A = M (u; B1 ) où B1 = fv1 ; v2 ; v3 g.
0 2 2
34 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES

2 0
6. On travaille maintenant sur A0 = = M (u0 ; fv2 ; v3 g)
2 2
(a) PA0 (t) = (t 2)2
(b) Recherche des vecteurs propres de A0 en résolvant (A0 2I)(Y ) = 0 et en posant :
y
Y =
z
On obtient donc :
0=0 y=0 0
) )Y =z
2y + 0 = 0 z quelconque 1
0 1
0
On peut donc considérer le vecteur w2 = @ 1 A = v3
0
(c) On complète le système libre fv1 ; w2 g pour construire la base B2 = fw1 ; w2 ; w3 g de E,
en utilisant
8 les vecteurs
8 de B1 = fv1 ; v2 ; v3 g. On pose :
< w1 = v1 < v1 = w1
w2 = v3 ) v2 = w3
: :
w3 = v2 v3 = w2
(d) On calcule A2 = M (u; B2 ) la matrice représentative de u dans la base B2 :
8
< u(w1 ) = u(v1 ) = 2v1 = 2w1
u(w2 ) = u(v3 ) = v1 + 2v3 = w1 + 2w2 . D’où :
:
u(w3 ) = u(v2 ) = 2v2 2v3 = 2w2 + 2w3
0 1
2 1 0
A2 = T = @ 0 2 2 A = M (u; B2 ) où B2 = fw1 ; w2 ; w3 g (une base de E).
0 0 2
7. La matrice triangulaire semblable à A que nous venons de construire est la matrice T = A2
, relativement
8 a la matrice de passage P de la0base B à la 1 base B2 :
< w1 = v1 = e1 + e2 e3 1 0 1
w2 = v3 = e2 ) PB;B2 = @ 1 1 0 A.
:
w3 = v2 = e1 1 0 0
4.bis. On aurait pu faire autrement si on avait un peu plus de chance et on a pensé au bon
choix des vecteurs v2 ; v3 .
On complète le système libre fv1 g pour construire une base B1 = fv1 ; v2 ; v3 g de E, (en
utilisant les vecteurs de B = (e1 ; e2 ; e3 )). On pose :
8 8
< v1 = e1 + e2 e3 < e2 = v2
v2 = e2 ) e3 = v3 .
: :
v3 = e3 e1 = v1 v2 + v3
5.
8 On calcule A1 = M (B1 ; u)
< u(v1 ) = u(e1 + e2 e3 ) = 2v1
u(v2 ) = u(e2 ) = e1 + 3e2 e2 = v1 + 2v2 . D’où :
:
u(v3 ) = u(e3 ) = e1 e2 + e3 = v1 2v3 + 2v3
3.2. TRIANGULATION 35
0 1 0 1
2 1 1 1 0 0
A1 = @ 0 2 2 A = M (u; B1 ) où B1 = fv1 ; v2 ; v3 g. Et P = PB;B2 = @ 1 1 0 A
0 0 2 1 0 1

Exemple 3.5. 2ieme méthode :


on sait que Ker(A 2I) Ker(A 2I)2 Ker(A 2I)3 , Cherchons donc une famille
3
libre de Ker(u 2I) qui est de dimension 3.
On a E2 = V ect fv1 = e1 + e2 e3 g et v1 2 Ker(A 2I) Ker(A 2I)3 )

(A 2I)v1 = 0 (1)
On va chercher v2 2 Ker(A 2I)2 (au sens stricte)) (A 2I)2 v2 = 0 ) (A 2I) [(A 2I)v2 ] =
0 ) (A 2I)v2 2 Ker(A 2I)
Il su¢ t de prendre (A 2I)v2 = v1 et cherchons v2 en résolvant le système qui en résulte :
8
< y+z =1
2x + y + z = 1 ) v2 = (x; x + 1; x); x 2 R . On a donc, par exemple, v2 =
:
y z= 1
(0; 1; 0) tel que (A 2I)v2 = v1 )

(A 2I)v2 = v1 (2)
On cherche v3 2 Ker(A 2I)3 (au sens stricte)) (A 2I)3 v3 = 0 ) (A 2I)2 [(A 2I)v3 ] =
0 ) (A 2I)v3 2 Ker(A 2I)2
Il su¢ t de prendre (A 2I)v3 = v2 et cherchons v3 en résolvant le système qui suit :
8
< y+z =0
1
2x + y + z = 1 ) v3 = ( + z; z; z); z 2 R. On a donc, par exemple, v3 =
: 2
y z=0
1
( ; 0; 0) tel que (A 2I)v3 = v2 )
2
(A 2I)v3 = v2 (3)
Véri…ons maintenant que les 3 vecteurs v1 , v2 et v3 sont libres : v1 = (1; 1; 1); v2 =
1
(0; 1; 0); v3 = ( 1=2; 0; 0) ) det(v3 ; v2 ; v1 ) = 6= 0.
2
C/c : Dans la base8 (v 1 ; v 2 ; v 3 ) la matrice semblable
0 à A1est triangulaire :
< Av 1 = 2v 1 2 1 0
(1); (2) et (3) ) Av2 = v1 + 2v2 ) T = @ 0 2 1 A.
:
Av3 = v2 + 2v3 0 0 2
0 1 1
1 0
B C
La matrice de passage est P = @ 1 1 02 A.
1 0 0
36 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES
0 1
15 12 15 10
B 3 8 5 2 C
Exemple 3.6. C = B
@ 1
C = M (u; B) où B = (e1 ; e2 ; e3 ; e4 ) la base cano-
4 1 6 A
5 8 13 18
4
nique de R .

1. On calcule et factorise le polynôme caractéristique de C :


PC (t) = det(C tI) = (t 16)(t 8)3 .
C possède comme valeurs propres 1 = 16, et 2 = 8.
PC est scindable, donc C est au moins trigonalisable (triangulable).
2. Détermination
0 1 de E16 .
x
B y C
X=B C
@ z A 2 E16 , (B 16I)(X) = 0 ;
t
On résoud donc le système :
8
> x + 12y + 15z + 10t = 0 8
>
< < x= 3z
3x 8y + 5z + 2t = 0
) y= z
>
> x 4y 17z 6t = 0 :
: t= 3z
5x + 8y + 13z + 2t = 0
0 1
3
B 1 C
) X = zB C
@ 1 A = zv1 où v1 = 3e1 + e2 + e3 3e4 vect.propre 2 E16 .
3

3. Détermination
0 1 de E8 .
x
B y C
X=B C
@ z A 2 E8 , (B 8I)(X) = 0 ;
t
On résoud donc le système :
8
> 7x + 12y + 15z + 10t = 0 8
>
< < x= z
3x + 5z + 2t =0
) y= z
>
> x 4y 9z 6t = 0 :
: t= z
5x + 8y + 13z + 10t = 0
0 1
1
B 1 C
) X = zB C
@ 1 A = zv2 où v2 = e1 e2 + e3 e4 vect.p 2 E8 .
1

4. dim(E8 ) = 1 6= 3 (donc A est trigonalisable (triangulable), non diagonalisable )


3.2. TRIANGULATION 37

5. On complète le système libre fv1 ; v2 g pour construire la base B1 = fv1 ; v2 ; v3 ; v4 g de E,


(en
utilisant
8 les vecteurs de B = (e1 ; e28 ; e3 ; e4 ). On pose :
1 1
>
> v1 = 3e1 + e2 + e3 3e4 >
> e1 = v
2 1
v + v3 2v4
2 2
< < 1 3
v2 = e1 e2 + e3 e4 e2 = v
2 1
v + 2v3 3v4
2 2
)
>
> v3 = e3 >
> e3 = v3
: :
v4 = e4 e4 = v4
6.
8 On calcule C1 = M (u; B1 ) la matrice représentative de u dans la nouvelle base B1 .
>
> u(v1 ) = 16v1
<
u(v2 ) = 8v2
.
>
> u(v 3 ) = u(e3 ) = 15e1 + 5e 2 e 3 + 13e 4 = 10v1 15v2 + 24v3 32v4
:
u(v4 ) = u(e ) = 10e1 + 2e2 6e3 + 18e4 = 6v1 8v2 + 8v3 8v4
0 4 1
16 0 10 6
B 0 8 15 8 C
D’où : C1 = B @ 0 0 24
C = M (u; B1 ) où B1 = fv1 ; v2 ; v3 ; v4 g.
8 A
0 0 32 8
24 8
7. On travaille maintenant sur C10 = = M (u0 ; fv3 ; v4 g).
32 8
(a) PC10 (t) = (t 8)2
(b) Recherchons les vecteurs propres de C10 en résolvant (C10 2I)(Y ) = 0 et en posant :
z
Y = .
t
On a donc :
16z + 8t = 0 t = 2z 1
) )X=z ;
32z 16t = 0 z quelconque 2
0 1
0
B 0 C
Considérons le vecteur w3 = z B C
@ 1 A = v3 2v4
2 B1
(c) On complète le système libre fw1 ; w2 ; w3 g pour construire une base B2 = fw1 ; w2 ; w3 ; w4 g de
E, en
8 utilisant les vecteurs8de B1 = fv1 ; v2 ; v3 ; v4 g. On pose :
>
> w1 = v1 >
> v1 = w1
< <
w2 = v2 v2 = w2
)
>
> w 3 = v 3 2v 4 >
> v 3 = w3 + 2w4
: :
w4 = v4 v4 = w4
(d) On calcule C2 = M (u; B2 ) la matrice représentative de u dans la nouvelle base B2 .
u(w1 ) = u(v1 ) = 16w1
u(w2 ) = u(v2 ) = 8w2
. D’où
u(w3 ) = u(v3 2v4 ) = 2v1 + v2 + 8v3 16v4 = 2w1 + w2 + 8w3
u(w4 ) = u(v4 ) = 6v1 8v2 + 8w3 + 8w4 = 6w1 8w2 + 8w3 + 8w4
38 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES
0 1
16 0 2 6
B 0 8 1 8 C
C2 = T = B C
@ 0 0 8 8 A = M (u; B2 ) où B2 = fw1 ; w2 ; w3 ; w4 g.
0 0 0 8
8. La matrice triangulaire semblable à B que nous venons de construire est la matrice
T = C2 ,
relativement
8 à la matrice de passage P de la base B à la0base B2 : 1
>
> w 1 = v 1 = 3e 1 + e2 + e3 3e4 3 1 0 0
< B 1
w2 = v2 = e1 e2 + e3 e4 1 0 0 C
) PB;B2 = B @
C.
>
> w3 = v3 2v4 = e3 2e4 1 1 1 0 A
:
w4 = v4 = e4 3 1 2 1

Exemple 3.7. 2ieme méthode :


On a PA (t) = det(A tI) = (t 16)(t 8)3 , E16 = vect fv1 = ( 3; 1; 1; 3)g et E8 =
vect fv2 = (1; 1; 1; 1)g.
dim E8 = 1 3 ) cherchons maintenant 2 autres vecteurs libres dans Ker(A 8I)3 avec
v2 de telle façon que la matrice obtenue dans la base formée par ces 4 vecteurs soit triangulaire.
on sait que Ker(A 8I) Ker(A 8I)2 Ker(A 8I)3 , Cherchons donc une famille
libre de Ker(u 2I)3 qui est de dimension 3.
On a E8 = vect fv2 = (1; 1; 1; 1)g et v2 2 Ker(A 8I) Ker(A 8I)3 )

(A 8I)v2 = 0 (1)
On va chercher v3 2 Ker(A 8I)2 (au sens strict)) (A 8I)2 v3 = 0 ) (A 8I) [(A 8I)v3 ] =
0 ) (A 8I)v3 2 Ker(A 8I)
Il su¢ t de prendre (A 8I)v3 = v2 et cherchons v3 en résolvant le système qui en résulte :
8
> 7x + 12y + 15z + 10t = 1 (1) 8 8
>
< < x + 2y + z = 1 (1) (4) < x z=0 (1)0
3x + 5z + 2t = 1 (2)
) 5x + 2y 3z = 1 3(2) + (3) ) 2x + 2y = 1 (2)
>
> x 4y 9z 6t = 1 (3) : :
: 3x + 5z + 2t = 1 (2) 2x + 2t = 1 (2)
5x + 8y + 13z + 10t = 1 (4)
1 1 1 1
(x; x; x; x); x 2 R . On a donc, par exemple, v3 = (0; ; 0; ) tel que (A 8I)v3 =
2 2 2 2
v2 )

(A 8I)v3 = v2 (2)
On cherche v4 2 Ker(A 8I)3 (au sens stricte)) (A 8I)3 v4 = 0 ) (A 2I)2 [(A 8I)v4 ] =
0 ) (A 8I)v4 2 Ker(A 8I)2
Il su¢ t de prendre (A 8I)v4 = v3 et cherchons v4 en résolvant le système suivant
8 :
8
> 7x + 12y + 15z + 10t = 0 (1) 8 >
> 4x 4z = 1
>
< < x + 2y + z = 1=2 (1) (4) >
< 1
3x + 5z + 2t = 1 (2) y= x v0 =
) 5x + 2y 3z = 1=2 3(2) + (3) ) 8
>
> x 4y 9z 6t = 0 (3) : >
> 1
: 3x + 5z + 2t = 1 (2) >
: t= x
5x + 8y + 13z + 10t = 1 (4)
8
3.2. TRIANGULATION 39

1 1 1 1 1 1
(x; x; + x; x); x 2 R . On a donc, par exemple, v4 = (0; ; ; ) tel que
8 4 8 8 4 8
(A 8I)v4 = v3 )

(A 8I)v4 = v3 (3)
Véri…ons maintenant que les 3 vecteurs v2 , v3 et v4 sont libres : v2 = (1; 1; 1; 1), v3 =
1 1 1 1 1
(0; ; 0; ), v4 = (0; ; ; ) ) det(v2 ; v3 ; v4 )extrait 6= 0.
2 2 8 4 8
C/c : Dans la base 8 (v1 ; v2 ; v3 ; v4 ) la matrice 0
semblable à A est1 triangulaire :
>
> Av 1 = 16v 1 16 0 0 0
< B 0 8 1 0 C
Av2 = 8v2
(1); (2) et (3) ) )T =B @ 0 0 8 1 A.
C
>
> Av 3 = v 2 + 8v 3
:
Av4 = v3 + 8v4 0 0 0 8
0 1
3 1 0 0
B 1 1 21 1 C
La matrice de passage est P = B @ 1
8 C.
1 0 0 A
1 1
3 1 2 8
40 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES
Chapitre 4

Formmes bilinéaires et quadratiques

Dans ce chapitre, E est un espace vectoriel sur un corps commutatif K (K = R ou C).

4.1 Formes linéaires


Dé…nition 4.1. Une forme linéaire sur E est une application linéaire : : E ! K.
Exemple
R1 4.1. 1) Si E = K[X] est l’espace des polynômes, alors : P ! P (0) et P !
P (t)dt sont des exemples de formes linéaires.
1 0 1
x1
B x2 C
n B C
2) : K ! K, B .. C ! 1 x1 + 2 x2 + + n xn
@ . A
x3
est une forme linéaire sur Kn .
Exercice 4.1. Montrer que toutes les formes linéaires sur Kn sont de la forme 2).

4.2 Formes bilinéaires


Dé…nition 4.2. Une application b : E E ! K
est appelée une forme bilinéaire quand :
8x1 ; x2 ; y 2 E 8 2 K¸ b(x1 + x2 ; y) = b(x1 ; y) + b(x2 ; y)
8x; y1 ; y2 2 E 8 2 K¸ b(x; y1 + y2 ) = b(x; y1 ) + b(x; y2 )
(bilinéarité = linéarité à gauche + linéarité à droite).
On dit que b est symétrique quand :
8x; y 2 E¸ b(x; y) = b(y; x).
On dit que b est anti-symétrique (ou alternée) quand :
8x; y 2 E¸ b(x; y) = b(y; x).
Remarquer que la symétrie permet de ne véri…er la linéarité que d’un seul côté.

41
42 CHAPITRE 4. FORMMES BILINÉAIRES ET QUADRATIQUES

Exemples 4.1. 1. E = K. La multiplication (x; y) ! xy est une forme bilinéaire symétrique


sur K K.
x1 y1
2. E = R2 . Le produit scalaire usuel , ! x1 y1 + x2 y2
x2 y2
est une forme bilinéaire symétrique sur R2 R2 .
3. E = C([ 1; 1]; R). L’application C 0 ([ 1; 1]; R) C 0 ([ 1; 1]; R) ! R R
1
(f; g) 7! 1 f (t)g(t)dt
est une forme bilinéaire symétrique.
4. E = Mn (K). L’application Mn (K) Mn (K) ! K
(A; B) 7! trace(AB)
est une forme bilinéaire symétrique (véri…er la symétrie).
Exercice 4.2. Montrer que toute forme bilinéaire ' sur E s’écrit d’une manière unique comme
somme d’une forme bilinéaire symétrique et d’une forme bilinéaire alternée.
2
Les
8 applications '1 et '2 dé…nies sur E par :
< '1 (x; y) = 1 ('(x; y) + '(y; x))
>
2
> 1
: '2 (x; y) = ('(x; y) '(y; x))
2
sont bilinéaires. '1 est symétrique et '2 est anti-symétrique. Et on a bien ' = '1 + '2 .
Réciproquement si ' = '1 + '2 avec '1 symétrique et '2 alternée, on a alors :
'(x; y) = '1 (x; y) + '2 (x; y)
'(y; x) = '1 (y; x) + '2 (y; x) = '1 (x; y) '2 (x; y)
) '(x; y) + '(y; x) = 2'1 (x; y) et '(x; y) '(y; x) = 2'2 (x; y) ce qui prouve l’unicité de
'1 et '2 .

4.2.1 Expression matricielle des formes bilinéaires (en dimension


…nie)
Soient E un K e-v de dimension n et B = (ei )1 i n une base de E.
Plaçons nous tout d’abord dans E = R2 .
'(x; y) = '(x1 e1 + x2 e2 ; y1 e1 + y2 e2 ) = x1 y1 '(e1 ; e1 ) + x1 y2 '(e1 ; e2 ) + x2 y1 '(e2 ; e1 ) +
x2 y2 '(e2 ; e2 )
'(e1 ; e1 ) '(e1 ; e2 )
En désignant par A la matrice A =
'(e2 ; e1 ) '(e2 ; e2 )
On remarque que
'(e1 ; e1 ) '(e1 ; e2 ) y1 y1 '(e1 ; e1 ) + y1 '(e2 ; e1 )
AY = =
'(e2 ; e1 ) '(e2 ; e2 ) y2 y2 '(e1 ; e2 ) + y2 '(e2 ; e2 )
y 1 '(e ;
1 1e ) + y 1 '(e2 e1 )
;
et t X(AY ) = (x1 ; x2 )
y2 '(e1 ; e2 ) + y2 '(e2 ; e2 )
= '(x; y).
Le produit matriciel est associatif, donc :
4.2. FORMES BILINÉAIRES 43

'(x; y) = t XAY .
Le cas d’une forme bilinéaire sur un espace de dimension n se traite de manière analogue.

Dé…nition 4.3. La matrice d’une forme bilinéaire ' dans une base B = (ei )1 i n de E est la
matrice carrée d’ordre n :
A = ('(ei ; ej ))1 i;j n .

Théorème 4.1. Soit ' une forme bilinéaire sur E et A la matrice de ' dans la base B. Pour
tous vecteurs x; y dans E on a :
'(x; y) = t XAY .

Preuve : En utilisant la bilinéarité de ', on a :


Xn Xn
'(x; y) = '( (xi ei ; y)) = xi '(ei ; y)
i=1 i=1
X
n Xn X
n X
n
= xi '(ei ; yj ej ) = xi yj '(ei ; ej )
i=1 j=1 i=1 j=1
!
Xn
avec AY = yj '(ei ; ej ) on a :
j= 1 1 i n
X
n X n
t
XAY = xi yj '(ei ; ej ).
i=1 j=1
On a le résultat attendu.
On retiendra que l’expression d’une forme bilinéaire ' dans une base est :
X n X n
t
XAY = aij xi yj ;
i=1 j=1
Où on a posé aij = '(ei ; ej ) les coe¢ cients de la matrice A.
Réciproquement une telle fonction sur E 2 dé…nit bien une forme bilinéaire sur E.

Théorème 4.2. Une application ' de E E dans K est une forme bilinéaire dans E si, et
seulement si, il existe une matrice A = ((aij ))1 i;j n dans Mn (K) et des formes linéaires l1 ; ln
linéairement indépendantes telles que :
Xn Xn
8(x; y) 2 E E; '(x; y) = aij xi yj = aij li (x)lj (y)
1 i;j n 1 i;j n
où (li )1 i n est la base duale de B.

Et la réciproque est vraie.


L’application qui fait associer à une forme bilinéaire ' sur un espace vectoriel E de dimension
n sa matrice dans une base donnée de E réalise un isomorphisme de Bil(E) sur l’espace Mn (K)
des matrices carrées d’ordre n. Cet espace étant de dimension n2 , on en déduit que :
dim(Bil(E)) = n2 :
44 CHAPITRE 4. FORMMES BILINÉAIRES ET QUADRATIQUES

Théorème 4.3. Une forme bilinéaire ' sur E est symétrique (resp. alternée) si, et seulement
si, sa matrice A dans une base B de E est symétrique (resp. alternée).
Preuve : Si ' est symétrique (resp. alternée), on a 8(x; y) 2 R2 : '(x; y) = '(y; x) en
particulier '(ei ; ej ) = '(ej ; ei ) (resp. '(ei ; ej ) = '(ej ; ei )) 8i; j 2 f1; ng ce qui signi…e que la
matrice A de ' dans B est symétrique (resp. alternée).
Réciproquement si A est symétrique (resp. alternée), on a alors 8(x; y) 2 E 2 :
'(y; x) = t Y AX = t (t Y AX) = t X t AY = t XAY = '(x; y).
(idem pour alternée)
Le sous-espace Bils (E) formé des formes bilinéaires symétriques sur E est donc isomorphe
au sous-espace de Mn (K) formé des matrices carrées symetriques ; cet espace étant de dimension
n(n + 1)
n(n + 1)=2, il en résulte que dim(Bils (E)) = .
2
n(n + 1) n(n 1)
Bil(E) = Bils (E) Bila (E) ) dim(Bila (E)) = n2 = .
2 2
Exercice 4.3. Montrer que chacune des applications ' est bilinéaire et donner sa matrice dans
la base canonique de Rn .
1) n = 2, '(x; y) = x1 y1 3x2 y2 ;
2) n = 3; '(x; y) = x1 y1 x1 y2 x2 y2 2x2 y3 x3 y1 2x3 y3 .
Solution :
0 1
1 1 0
1 0
A1 = et A2 = @ 0 1 2 A.
0 3
1 0 2
0 1
1 4 7
Exercice 4.4. Soit A = @ 2 5 8 A ; Déterminer la forme bilinéaire associée à A dans la
3 6 9
3
base canonique de R .
Solution :
0 10 1
1 4 7 y1
'(x; y) = t XAY = (x1 ; x2 ; x3 ) @ 2 5 8 A @ y2 A
3 6 9 y3
= x1 (y1 + 4y2 + 7y3 ) + x2 (2y1 + 5y2 + 8y3 ) + x3 (3y1 + 6y2 + 9y3 ).
Théorème 4.4. Soient B1 et B2 2 bases de E et P la matrice de passage de B1 à B2 . Si A1 et
A2 sont les matrices d’une forme bilinéaire ' sur E dans les bases B1 et B2 respectivement, on
alors :
A2 = t P A 1 P .
Preuve : Soient x 2 E , X1 = coordB1 (x) et X2 = coordB2 (x).
8(x; y) 2 E 2 '(x; y) = t X1 A1 Y1 = t (P X2 )A1 (P Y2 ) = t X2 (t P A1 P )Y2
) A2 = t P A 1 P .
4.3. FORMES QUADRATIQUES 45

4.3 Formes quadratiques


Dé…nition 4.4. On appelle forme quadratique sur E une application q dé…nie de E dans K
par :

8x 2 E; q(x) = '(x; x)
où ' est une forme bilinéaire sur E.
Remarque 4.1. L’ensemble Q(E) des formes quadratiques sur E est un K-espace vectoriel.
Remarque 4.2. Il n’y a pas unicité des formes bilinéaires associées à une forme quadratique.
Par exemple sur R2 , les formes bilinéaires ' et dé…nies par :
'(x; y) = x1 y1 + x2 y2
(x; y) = x1 y1 + x1 y2 x2 y1 + x2 y2
dé…nissent la même forme quadratique :
q(x) = '(x; x) = x21 + x22 = (x; x) = x21 + x1 x2 x2 x1 + x22 .
L’unicité de ' est assurée par le résultat suivant.
Théorème 4.5. Si q est une forme quadratique sur E, il existe alors une unique forme bilinéaire
symétrique ' telle que q(x) = '(x; x) pour tout x 2 E.
Preuve : La forme quadratique q est dé…nie par q(x) = '0 (x; x) pour tout x 2 E, où '0 est
une forme bilinéaire sur E. L’application ' dé…nie sur E E par :
1
'(x; y) = ('0 (x; y) + '0 (y; x))
2
est bilinéaire et symétrique avec '(x; x) = q(x) 8x 2 E, ce qui prouve l’existence de '.
Comme ' est bilinéaire et symétrique, on a pour x; y dans E :
q(x + y) = '(x + y; x + y) = '(x; x) + 2'(x; y) + '(y; y)
= q(x) + 2'(x; y) + q(y)
de sorte que :
1
'(x; y) = (q(x + y) q(x) q(y))
2
ce qui prouve l’unicité de '.
Dé…nition 4.5. Avec les notations du théorème qui précède, on dit que ' est la forme polaire
de la forme quadratique q.
1
Remarque 4.3. 8(x; y) 2 E 2 ; '(x; y) = (q(x + y) q(x) q(y))
2
1
= (q(x + y) q(x y))
4
Remarque 4.4. Pour tout scalaire et tout vecteur x, on a :
q( x) = '( x; x) = 2 '(x; x) = 2 q(x)
46 CHAPITRE 4. FORMMES BILINÉAIRES ET QUADRATIQUES

ce qui se traduit en disant que q est une fonction homogène de degré 2 .

Remarque 4.5. L’application qui associe à une forme quadratique q sa forme polaire ' réalise
un isomorphisme d’espaces vectoriels de Q(E) sur l’espace Bils(E) des formes bilinéaires
symétriques sur E. Pour E de dimension n, Q(E) est de dimension n(n + 1)=2.

Remarque 4.6. De cet isomorphisme, on déduit aussi que deux formes bilinéaires symétriques
'1 et '2 sur E sont égales si, et seulement si, '1 (x; x) = '2 (x; x) pour tout x 2 E.

Dé…nition 4.6. Soit E un espace vectoriel de dimension n et B = (ei )1 i n une base de E. Si


q est une forme quadratique sur E de forme polaire ', la matrice de q (ou de ') dans la base
B est la matrice : A = ('(ei ; ej ))1 i;j n .

L’application qui associe à une forme quadratique q sa matrice dans la base B réalise un
isomorphisme d’espaces vectoriels de Q(E) sur l’espace Sn (K) des matrices symétriques d’ordre
n.
En notant aij = '(ei ; ej ) pour tous i; j compris entre 1 et n, l’expression de la forme
quadratique q 2 Q(E)
X dans la base B = (ei )1 i n est :
q(x) = aij xi xj = t XAX
1 i;j n
où on a noté X le vecteur de Kn formé des composantes de x dans la base B.

Exercice 4.5. Soient p un entier naturel non nul, `1 ; ; `p des formes linéaires sur E et 1; ; p
des scalaires.
Montrer que l’application q dé…nie sur E par :
p
X
2
8x 2 E; q(x) = j `j (x)
j=1
est une forme quadratique et déterminer sa forme polaire.

L’application ' dé…nie sur E 2 par :


p
X
2
8(x; y) 2 E ; '(x; y) = j `j (x)`j (y)
j=1
est bilinéaire symétrique et q(x) = '(x; x) pour tout x 2 E.

Exercice 4.6. Montrer que si q est une forme quadratique sur Rn , alors sa forme polaire ' est
donnée par :
1 X @q(x) 1 X @q(y)
n n
'(x; y) = yj = xi
2 j=1 @xj 2 i=1 @yi

Soit A =X
(aij )i i;j n la matrice de q dans la base canonique, on a :
q(x) = aij xi xj
1 i;j n
4.3. FORMES QUADRATIQUES 47

et la forme polaire de q est dé…nie par :


Xn
'(x; y) = aij xi yj
1 i;j n
Pour tout entier k entre 1 et n,!on a alors : !
@q @ X n Xn Xn
@ X n
(x) = xi aij xj = xi aij xj
@xk @xk i=1 j=1 i=1
@xk j=1
! !
X n
@ Xn X n
@ Xn
= xk aij xj + xi aij xj
i=1
@x k j=1 i=1
@x k j=1
i6=k
X
n X
n X
n X
n
= akj xj + akk xk + aik xi = akj xj + aik xi
j=1 i=1 j=1 i=1
i6=k
X
n X
n X
n
= ajk xj + aik xi = 2 aik xi
j=1 i=1 i=1
(les égalités akj = ajk sont justi…ées par la symétrie de la matrice A). On en déduit alors
que : !
X Xn Xn
1 X @q
n
'(x; y) = aij xi yj = aij xi yj = (x)yj
1 i;j n j=1 i=1
2 j=1 @xj
Par symétrie, on a la deuxième formule.
Exemple 4.2. La forme polaire de la forme quadratique q dé…nie dans la base canonique de
R3 par :
q(x) = x21 + 3x22 + 5x23 + 4x1 x2 + 6x1 x3 + 2x2 x3 .
est donnée par :
1 X @q(x)
n
1 @q(x) @q(x) @q(x)
'(x; y) = yj = y1 + y2 + y3
2 j=1 @xj 2 @x1 @x2 @x3
1
= ((2x1 + 4x2 + 6x3 )y1 + (4x1 + 6x2 + 2x3 )y2 + (10x3 + 6x1 + 2x2 )y3 )
2
= (x1 + 2x2 + 3x3 )y1 + (2x1 + 3x2 + x3 )y2 + (5x3 + 3x1 + x2 )y3

4.3.1 Orthogonalité, noyau et rang


Soit q une forme quadratique sur un ev E de forme polaire '.
Dé…nition 4.7. Deux vecteurs x, y de E sont dits orthogonaux relativement à ' si '(x; y) = 0.
Dé…nition 4.8. Pour toute partie non vide X de Rn , l’orthogonal de X relativement à ' est
le sous-ensemble de E formé des vecteurs orthogonaux à tous les vecteurs de X. On note X ?
l’orthogonal de X relativement à ' et on a :
X ? = fy 2 E j 8x 2 X; '(x; y) = 0g .
48 CHAPITRE 4. FORMMES BILINÉAIRES ET QUADRATIQUES

Exemple 4.3. Pour X = f0g , on a X ? = E.

Les propriétés suivantes se déduisent immédiatement de la dé…nition.

Théorème 4.6. Soient X, Y deux parties non vides de E.


1. X ? est un sous-espace vectoriel de E.
2. X (X ? )? .
3. Si X Y , alors Y ? X ? .

Dé…nition 4.9. On dit qu’un vecteur x de E est isotrope relativement à ' s’il est orthogonal
à lui même.

Dé…nition 4.10. L’ensemble des vecteurs isotropes de E, relativement à ', est le cône isotrope
de '.

Le cône isotrope de ' est donc le sous-ensemble de E :


C' = q 1 f0g = fx 2 E = q(x) = '(x; x) = 0g.
On dit aussi que C' est le cône isotrope de la forme quadratique q.

Dé…nition 4.11. Le noyau de ' est l’orthogonal de E.


ker(') = E ? = fy 2 E = 8x 2 E; '(x; y) = 0g:

On dit aussi que ker(') est le noyau de la forme quadratique q et on le note alors ker(q)

Lemme 4.1. Le noyau de ' est contenu dans son cône isotrope, soit : ker(') C'.

Théorème 4.7. Soient E un espace vectoriel de dimension n, B = (ei )1 i n une base de E, A


la matrice de la forme bilinéaire ' dans la base B et u l’endomorphisme de E de matrice A
dans la base B. On a alors : ker(') = ker(u) .

Preuve : Un vecteur x est dans le noyau de ' si, et seulement si, il est orthogonal à tout
vecteur de E, ce qui équivaut à dire du fait de la linéarité à droite de ' que x est
orthogonal à chacun des vecteurs de la base B, soit :
x 2 ker(') , (8i 2 f1; ; ng; '(x; ei ) = 0)
ce qui revient à dire les coordonnées x1 ; ; xn de x dans la base B sont solutions du système
linéaire de n équations
! à n inconnues :
Xn Xn X
n
' xj ej ; ei = xj ' (ej ; ei ) = ' (ei ; ej ) xj = 0 (1 i; j n)
j=1 j=1 j=1
Ce système s’écrit AX = 0 où A = ('(ei ; ej ))1 i;j n est la matrice de ' dans B et X le
vecteur colonne formé des composantes de x dans cette base. Ce système est encore équi-
valent à u(x) = 0, où u l’endomorphisme de E de matrice A dans B, ce qui revient à dire que
x 2 ker(u) .
On retiendra qu’en dimension …nie, le noyau de ' se calcule en résolvant le système AX = 0,
en utilisant les notations du théorème précédent.
4.4. THÉORÈME DE RÉDUCTION DE GAUSS 49

Ce résultat peut aussi se montrer dans le cas réel comme suit. Dire que x 2 ker(') équivaut
à dire que '(y; x) = 0 pour tout y 2 E, soit à t Y AX = 0 pour tout Y 2 Rn et prenant Y = AX,
on a t (AX)AX = 0.
X n
n t
Mais pour Z 2 R , on a ZZ = zi2 et t ZZ = 0 équivaut à Z = 0. Donc AX = 0 pour
i=1
x 2 ker(') .
La réciproque est évidente.
Dé…nition 4.12. On dit que la forme bilinéaire symétrique ' (ou de manière équivalente la
forme quadratique q) est non dégénérée si son noyau est réduit à f0g .
Du théorème précédent, on déduit qu’en dimension …nie, une forme bilinéaire symétrique
est non dégénérée si, et seulement si, sa matrice dans une quelconque base de E est inversible,
ce qui équivaut à dire que son déterminant est non nul.
Comme pour les applications linéaires, on peut dé…nir le rang d’une forme quadratique à
partir de la dimension de son noyau.
Dé…nition 4.13. Si E est de dimension …nie égale à n, le rang de ' (ou de q) est l’entier :

rg(q) = n dim(ker(q)):
Du théorème précédent, on déduit qu’en dimension …nie le rang d’une forme quadratique
est égal à celui de sa matrice dans une quelconque base.

4.4 Théorème de réduction de Gauss


Si E est un espace vectoriel de dimension n 1 sur un corps commutatif | (| = R ou C),
on notera B = (ei )1 i n une base de E et pour tout vecteur x de E, x1 ; ; xn
Xn
désignent les coordonnées de x dans cette base, soit x = xi ei . On associe toujours à ce
i=1
vecteur x de E le vecteur colonne X = (xi )1 i n dans |n .
E désigne le dual de E.
Théorème 4.8. Pour toute forme quadratique non nulle q sur E; il existe un entier r compris
entre 1 et n, des scalaires non nuls 1 , , r et des formes linéaires `1 ; ; `r indépendantes
dans E tels que :
Xr
2
8x 2 E; q(x) = j `j (x)
j=1

Preuve : On procède par récurrence sur n 1.


Pour n = 1, il n’y a rien à montrer.
Pour n = 2, une telle forme s’écrit, dans la base B, sous la forme :
50 CHAPITRE 4. FORMMES BILINÉAIRES ET QUADRATIQUES

q(x) = ax21 + 2bx1 x2 + cx22


Si a 6= 0, on a :
b
q(x) = a(x1 + x2 )2 + x22
a a
où = ac b2 .
Pour = 0, on a :
b
q(x) = a(x1 + x2 )2 = a`21 (x)
a
b
où `1 : x ! x1 + x2 est une forme linéaire non nulle.
a
Pour 6= 0, on a :
b
q(x) = a(x1 + x2 )2 + x22 = a`21 (x) + `22 (x)
a a a
b
où `1 : x ! x1 + x2 et `2 : x1 ! x2 sont deux formes linéaires indépendantes puisque
a
1 0
b = 1 6= 0.
1
a
Si a = 0 et c 6= 0, on a :
b
q(x) = 2bx1 x2 + cx22 = c( x1 + x2 )2 + x21
c c
où = b2 .
Pour = 0, on a :

q(x) = cx22 = c`21 (x)


où `1 : x ! x2 est une forme linéaire non nulle.
Pour 6= 0, on a :
b
q(x) = c(x2 + x1 )2 + x21 = a`21 (x) + `22 (x)
c c a
b
où `1 : x ! x2 + x1 et `2 : x ! x1 sont deux formes linéaires indépendantes.
c
Si a = 0 et c = 0, on a alors b 6= 0 et :
b b 2 b 2
q(x) = 2bx1 x2 = ((x1 + x2 )2 (x1 x2 )2 ) = `1 (x) ` (x)
2 2 2 2
où `1 : x ! x1 + x2 et `2 : x ! x1 x2 sont deux formes linéaires indépendantes puisque
1 1
= 2 6= 0.
1 1
4.4. THÉORÈME DE RÉDUCTION DE GAUSS 51

On suppose le résultat acquis au rang n 1 et on se donne une forme quadratique non nulle
q dé…nie dans une base B d’un espace vectoriel E de dimension n 3 par :

X
n X
n
q(x) = aii x2i + 2 aij xi xj
i=1 1 i j n

Supposons tout d’abord que cette expression contient au moins un terme carré, c’est-à-dire
qu’il existe un indice i compris entre 1 et n tel que aii 6= 0. Quitte à e¤ectuer une permutation
sur les vecteurs de base, on peut supposer que a11 6= 0. En regroupant les termes contenant
x1 , on écrit que :
Xn Xn
a1j
2 2
a11 x1 + 2 a1j x1 xj = a11 (x1 + 2x1 xj )
j=2
a
j=2 11

!
X
n
a1j X n
a1j 2
= a11 (x1 + xj )2 ( xj )
j=2
a11 j=2
a 11
et :
!2
X
n
a1j
q(x) = a11 x1 + 2 xj + q 0 (x0 ) = a11 `1 (x) + q 0 (x0 )
j=2
a11

X
n
a1j
où `1 (x) = x1 + 2 xj
j=2
a11
q 0 est une forme quadratique dé…nie sur le sous espace vectoriel H de E de dimension n 1
X n X
n
0
qui est engendré par e2 ; , en et x = xi ei si x = xi ei .
i=2 i=1
Si q 0 = 0, on a alors q = a11 `1 avec a11 et `1 non nuls.
Si q 0 6= 0, l’hypothèse de récurrence nous dit qu’il existe un entier r compris entre 2 et n,
des scalaires non nuls 2 ; ; r et des formes linéaires indépendantes `2 ; ; `r dé…nies sur H
tels que :

X
r
8x0 2 H; q 0 (x0 ) = 2 0
i `i (x )
i=2

et en prolongeant les formes linéaires `2 ; ; `r à E (en posant `j (x) = `j (x0 )), on a :


X
r
2 2 0
q(x) = a11 `1 (x) + i `i (x )
i=2
ce qui donne une décomposition de q comme combinaison linéaire de carrés de formes
linéaires. Il reste à véri…er que les formes `1 , `2 , , `r sont linéairement indépendantes
dans E .
52 CHAPITRE 4. FORMMES BILINÉAIRES ET QUADRATIQUES

X
r X
r
L’égalité i `i = 0 équivaut à dire que i `i (x) = 0 pour tout x 2 E. Prenant x = e1 ,
i=1 i=1
X
r
0
on a `1 (x) = 1 et `j (x) = 0 pour j compris entre 2 et r, ce qui donne 1 = 0 et i `i (x )=0
i=2
X
r
pour tout x0 2 H, ce qui implique i `i = 0 et la nullité de tous les i puisque le système
i=2
(`2 ; ; `r ) est libre dans H . On a donc le résultat annoncé.
Il reste en…n à traiter le cas où q est sans facteurs carrés, c’est-à-dire le cas où tous les
coe¢ cients aii sont nuls. Comme q est non nulle, il existe deux indices i < j tels que aij 6= 0.
Quitte à e¤ectuer une permutation sur les vecteurs de base, on peut supposer que a12 6= 0. On
regroupe alors dans l’expression de q tous les termes contenant x1 et x2 que l’on fait apparaître
comme fragment d’un produit de deux formes linéaires, soit :
Xn X
n
Q = a12 x1 x2 + x1 a1j xj + x2 a2j xj
j=3 j=3
! ! ! !
X
n X
n
a1j X
n X
n
a1j
= a12 x1 + a2j xj x2 + xj a2j xj xj
j=3 j=3
a12 j=3 j=3
a12
ce qui donne :
Xn
q(x) = aij xi xj
1 i j n
Xn
= 2Q + aij xi xj
3 i j n
= 2L1 (x)L2 (x) + q 0 (x0 )
Xn Xn
a1j
où L1 (x) = a12 x1 + a2j xj , L2 (x) = x2 + xj et q 0 est une forme quadratique dé…nie
j=3 j=3
a 12
Xn X
n
sur le sous espace vectoriel H de E engendré par e3 ; ; en et x0 = xi ei si x = xi ei
i=3 i=1
En écrivant que :

1 1
2L1 (x)L2 (x) = (L1 (x) + L2 (x))2 (L1 (x) L2 (x))2
2 2

1
= (`21 (x) `22 (x))
2
on a :

1
q(x) == (`21 (x) `22 (x)) + q 0 (x0 )
2
4.4. THÉORÈME DE RÉDUCTION DE GAUSS 53

1 1 2
Si q 0 = 0, on a alors q = `21 ` , les formes linéaires `1 et `2 étant indépendantes puisque
2 2 2
la matrice :

A1 a12 1 13 1n
A=
A2 a12 1 23 2n

a12 1
est de rang 2 car le déterminant extrait = 2a12 est non nul.
a12 1
Si q 0 6= 0, l’hypothèse de récurrence nous dit qu’il existe un entier r compris entre 3 et n,
des scalaires non nuls 3 ; ; r et des formes linéaires indépendantes `3 ; ; `r dé…nies sur H
tels que :
X
r
0 0 0 2 0
8x 2 H; q (x ) = i `i (x )
i=3
et en prolongeant les formes linéaires `3 ; ; `r à E, on a :
1 2 X r
2 2
q(x) = (`1 (x) `2 (x)) + i `i (x)
2 i=3
ce qui donne une décomposition de q comme combinaison linéaire de carrés de formes
linéaires. Il reste à véri…er que les formes `1 ; `2 ; ; `r sont linéairement indépendantes dans
E .
X r X
r
L’égalité i `i = 0 équivaut à dire que i `i (x) = 0 pour tout x 2 E.
i=1 i=1
Prenant x = e1 et x = e2 , on obtient 1 a12 + 2 a12 = 0 et 1 2 = 0, ce qui équivaut à
X
r Xr
0 0
1 = 2 = 0 puisque a12 6= 0 et i `i (x ) = 0 pour tout x 2 H, ce qui équivaut à i `i = 0
i=3 i=3
et la nullité de tous les j puisque le système (`3 ; ; `r ) est libre dans H . On a donc le résultat
annoncé.
Remarque 4.7. Une telle décomposition est appelée réduction de Gauss, ou plus simplement
réduction, de la forme quadratique q et la démonstration précédente nous donne un algorithme
pour obtenir une telle réduction.

4.4.1 Exemples et Exercices


Exercice 4.7. Réduire, en utilisant l’algorithme de Gauss, la forme quadratique q dé…nie sur
R3 par :
q(x) = x21 x22 x23 + 2(x1 x2 + x1 x3 + x2 x3 )
Solution :
On a : (x1 x2 x3 )2 = (x21 2x1 x2 + x22 2x1 x3 + 2x2 x3 + x23 )
) q = (x1 x2 x3 )2 + 4x2 x3
= (x1 x2 x3 )2 + (x2 + x3 )2 (x2 x3 )2
54 CHAPITRE 4. FORMMES BILINÉAIRES ET QUADRATIQUES

Exercice 4.8. Réduire la forme quadratique dé…nie sur R3 par :

q(x) = x21 + 3x22 + 5x23 + 4x1 x2 + 6x1 x3 + 2x2 x3 :


Solution :
q(x) = (x1 + 2x2 + 3x3 )2 x22 4x23 10x2 x3
= (x1 + 2x2 + 3x3 )2 (x2 + 5x3 )2 + 21x23

Exercice 4.9. Réduire la forme quadratique dé…nie sur R4 par :

q(x) = x1 x2 + 2x1 x3 + 2x1 x4 + x2 x3 + 4x2 x4 + 2x3 x4


Solution :
q(x) = x1 x2 + 2x1 x3 + 2x1 x4 + x2 x3 + 4x2 x4 + 2x3 x4
= (x1 + x3 + 4x4 )(x2 + 2x3 + 2x4 ) 2x23 8x24 8x3 x4
= (x1 + x3 + 4x4 )(x2 + 2x3 + 2x4 ) 2(x3 + 2x4 )2
1 1
= (x1 + x2 + 3x3 + 6x4 )2 (x1 x2 x3 + 2x4 )2 2(x3 + 2x4 )2 .
4 4

Merci de votre attention


Fin