Vous êtes sur la page 1sur 86

Chapitre 2

Applications linéaires et matrices

2.1 Applications linéaires


2.1.1 Définition d’une application linéaire
Définition 2.1.1. Soient E et F deux espaces vectoriels sur K, et
f : E −→ F
une application de E dans F. On dit que f est linéaire si
∀ (u, v) ∈ E 2 , ∀ λ ∈ K on a f (u + v) = f (u) + f (v) et f (λ.u) = λ.f (u).
De plus on a les notations et les définitions suivantes:
1. L’ensemble des applications linéaires de E dans F se note par L(E, F ).
2. L’ensemble qu’on note Ker(f ) = {x ∈ E | f (x) = 0F } s’appelle aussi le
noyau de f.
3. L’ensemble qu’on note Im(f ) = f (E) = {f (x) | x ∈ E} s’appelle l’image
de f.
4. Une applications linéaire de E dans F s’appelle aussi homomorphisme d’es-
paces vectoriels.
5. Une applications linéaire de E dans E s’appelle endomorphisme d’espace
vectoriel E.
6. Si f une application linéaire de E dans F et bijective, alors on dit que f
est un isomorphisme et on écrit E ' F.
7. Si f une application linéaire de E dans E et bijective, alors f est dit
automorphisme.
Exemples 2.1.2. 1.
f : R2 −→ R2
(x, y) 7−→ (3.x, 3.y)
est une application linéaire bijective de R2 dans R2 alors f est un auto-
morphisme.

26
Chapitre 2. Applications linéaires et matrices

2.
g : R2 −→ R3
(x, y) 7−→ (x + 2y, 3x + 5y, −7x + 11y)
est une application linéaire ( ou homomorphisme).
3. Soit E un espace vectoriel;

IdE : E −→ E

x 7−→ x
est linéaire s’appelle application identité.

Propriétés 2.1.3. Soient E et F deux espaces vectoriels sur K, et f une appli-


cation linéaire de E dans F, on a les propriétés suivantes.
1. f (0E ) = 0F .
2. f (−u) = −f (u), pour tout u ∈ E.
3. ∀ u ∈ E; ∀ n ∈ Z : f (nu) = nf (u), avec
+



 |
u+u+ {z· · · + u} , si n ∈ Z
n f ois
nu =

 (−u) + (−u) + · · · + (−u) , si n ∈ Z−
 | {z }
−n f ois

Preuve. Laissé aux étudiants.

Proposition 2.1.4. Soient E et F deux espaces vectoriels sur K, et f une appli-


cation linéaire de E dans F.
1. Si {e1 , e2 , . . . , en } est une base de E, alors {f (e1 ), f (e2 ),. . . , f (en )} est une 
partie génératrice de f (E) = Im(f ), c.a.d; f (E) = vect f (e1 ), f (e2 ), . . . , f (en ) .
2. Si {e1 , e2 , . . . , en } est une base de E, alors on a l’ équivalence suivante:
f injective ⇐⇒ {f (e1 ), f (e2 ), . . . , f (en )} est une base de f (E).
3. Si {e1 , e2 , . . . , en } est une base de E, alors on a l’équivalence suivante:
f bijective ⇐⇒ {f (e1 ), f (e2 ), . . . , f (en )} est une base de F.

Preuve. (Comme exercice).

Exercice. Considérons f l’application linéaire d’espaces vectoriels de E dans F.


1. Montrer que Ker(f ) est un sous espace vectoriel de E.
2. Montrer que Im(f ) est un sous espace vectoriel de F.
3. Montrer que (L(E, F ), +, .) est un sous espace vectoriel de l’espace vecto-
riel (L(E, F ), +, .) des applications de E dans F.
4. Montrer que; f est injective ⇐⇒ Ker(f ) = {0E }.

27
Chapitre 2. Applications linéaires et matrices

5. Montrer que; f est surjective ⇐⇒ Im(f ) = F.


6. Supposons que E et F sont de dimensions finies telles que dim(E) =
dim(F ). Montrer que

f bijective ⇐⇒ f injective ⇐⇒ f surjective.

Remarque 2.1.5. i) Pour montrer qu’une application linéaire est injective


il suffit de montrer que Ker(f ) = {0E }.
ii) Si E et F deux espaces vectoriels sur le même corps K et E ' F , alors
dim(E) = dim(F ).
iii) Dans le cas de F = K, l’application linéaire

f : (E, +, .) −→ (K, +, .)

s’appelle forme linéaire définie sur E et L(E, K) appelé l’ensemble des


formes linéaires qui sont définies sur E.

2.1.2 Décomposition canonique d’une application linéaire


Soient (E, +, .) et (F, +, .) deux espaces vectoriels et f une application li-
néaire de E dans F. Soit R la relation associé à f définie sur E par;

xRy ⇐⇒ f (x) = f (y)

R est une relation d’équivalence compatible avec les lois ” + ” et ”.” et on note
E/R l’ensemble des classes d ’équivalence de la relation R. On sait que l’ensemble
E/R muni de la loi interne ” + ” et de la loi externe ”.” définissant par;

x̄ + ȳ = x + y
∀ λ ∈ K; ∀ x̄ ∈ E/R : λ.x̄ = λ.x

est un espace vectoriel sur K, elle s’appelle l’espace quotient de E par R. L’ap-
plication;

s : E −→ E/R
x 7−→ x̄

est surjective, elle s’appelle la surjection canonique. L’application;

i : f (E) −→ F
y 7−→ y

est injective, elle s’appelle l’injection canonique.


Exercice. Soit R la relation d’équivalence associée à f qu’a été définie précé-
demment par;
xRy ⇐⇒ f (x) = f (y)

28
Chapitre 2. Applications linéaires et matrices

1. Montrer que
xRy ⇐⇒ x − y ∈ Ker(f )
2. En déduire le diagramme de la décomposition de f suivant:
f
E /F
O
s i
 f¯
E/Kerf / f (E)

Avec f¯ est un isomorphisme.


Théorème 2.1.6. Soient H un sous espace vectoriel de E et H 0 son supplémen-
taire c.a.d; E = H ⊕ H 0 comme somme directe. L’application;

h : H 0 −→ E/H

x 7−→ x̄
est un isomorphisme d’espace vectoriel.
Preuve. L’application h est injective; en effet: soit x ∈ H 0 , on a

h(x) = 0̄ =⇒ x̄ = 0̄
=⇒ x ∈ H

Donc x ∈ H ∩ H 0 . Or H ⊕ H 0 est directe, alors H ∩ H 0 = {0E }, donc x = 0E .


L’application h est surjective; en effet: soit x̄ ∈ E/H, écrivons x = x1 +x2 avec x1 ∈
H ; x2 ∈ H 0 , donc on a x¯2 = x̄, car x¯1 = 0̄. Alors h(x2 ) = x̄.
Proposition 2.1.7. Si E = H⊕H 0 , alors E ' H×H 0 , de plus si H ' H1 et H 0 '
H2 , alors E ' H1 × H2 .
Preuve. Comme exercice.
Corollaire 2.1.8. Soit H un sous espace vectoriel de E. On a dim(E/H) =
dim(E) − dim(H).
Preuve. Notons H 0 le sous espace supplémentaire de H dans E; ie : E = H ⊕ H 0 .
Donc dim(E) = dim(H)+dim(H 0 ). Or H 0 ' E/H, alors dim(E/H) = dim(H 0 ),
d’où dim(E/H) = dim(E) − dim(H).
Théorème 2.1.9. Soient E et F deux espaces vectoriels sur K, de dimensions
finies et f une application de E dans F. Alors on a;

dim(E) = dim(Ker(f )) + dim(Im(f )).

Preuve. D’après la décomposition canonique d’une application linéaire on sait


que E/Ker(f ) ' Im(f ). Donc dim(E/Ker(f )) = dim(E) − dim(Ker(f )) =
dim(Im(f )), d’où le résultat.

29
Chapitre 2. Applications linéaires et matrices

2.1.3 Rang d’une application linéaire


Définition 2.1.10. i) Soit {u1 , u2 , . . . , up } une famille finie de vecteurs d’un
espace vectoriel E. On définit son rang par;
 
rang(u1 , u2 , . . . , up ) = dim V ect(u1 , u2 , . . . , up ) .

ii) On définit le rang d’une matrice comme étant le rang de ses vecteurs
colonnes.
iii) Soient E et F deux espaces vectoriels sur K, et f une application de
E dans F et B = {e1 , e2 , . . . , en } la base de E. On définit le rang de
f comme étant le rang des vecteurs {f (e1 ), f (e2 ), . . . , f (en )}. Autrement
dit; rang(f ) = dim(Im(f )).

Remarque 2.1.11. 1. On a dim(E) = dim(Ker(f )) + rang(f ). Autrement


dit; rang(f ) = codim(Ker(f ).
2. Soit f ∈ L(E, F ). f bijective ⇐⇒ rang(f ) = dim(F ) = dim(E).

Exercice. 1. Montrer que rang(u1 , u2 , . . . , up ) ≤ p.


2. Quel est le rang de la famille {u1 , u2 , u3 } telle que u1 = (1, 0, 1, 0); u2 =
(0, 1, 1, 1); u3 = (−1, 1, 0, 1).
3. Soit
f : R −→ R2
x 7−→ (x, 4x)
Déterminer rang(f ).

2.2 Matrice associée à une application linéaire


Soient E un espace vectoriel sur K de dimension p, F un e.v sur K de dimension
n, B = {e1 , e2 , . . . , ep } une base de E, B 0 = {f1 , f2 , . . . , fn } une base de F et f
une application linéaire de E dans F. On a;

x ∈ E =⇒ x = x1 .e1 + x2 .e2 + · · · + xp .ep


=⇒ f (x) = x1 .f (e1 ) + x2 .f (e2 ) + · · · + xp .f (ep )
p
X
=⇒ f (x) = xj .f (ej )
j=1

Or chaque f (ej ) ∈ F, s’écrit dans la base B 0 = {f1 , f2 , . . . , fn } comme suivante:


n p n n X p
X X X X
f (ej ) = αi,j .fi . Donc f (x) = xj . αi,j .fi = ( xj αi,j ).fi .
i=1 j=1 i=1 i=1 j=1

30
Chapitre 2. Applications linéaires et matrices

Alors le vecteur des coordonnées de f (x) dans la base B 0 = {f1 , f2 , . . . , fn }


de F c’est;  p 
X
 xj α1,j 
 j=1 
 p 
 X 
xj α2,j 
 

 j=1 .
 

 .
.. 

 p 
 X 
 xj αn,j 
j=1

Il s’écrit sous la forme.


 p 
X
 xj α1,j 
 j=1     
α α1,2 · · · α1,p x1
 p 
  1,1
 X 
xj α2,j   α2,1 α2,2 · · · α2,p x2
   

f (x) =  = . ×
  
j=1   .. .. .. .. .. 

 ..  . . .   . 
 p . αn,1 αn,2 · · · αn,p xp
 

 X 
 xj αn,j 
j=1

La matrice  
α1,1 α1,2 · · · α1,p
 α2,1 α2,2 · · · α2,p 
MBB 0 (f ) = 
 
.. .. .. .. 
 . . . . 
αn,1 αn,2 · · · αn,p
qu’est une matrice dont la j ieme colonne est formée des coordonnées de f (ej ) dans
la base {f1 , f2 , . . . , fn } de F, s’appelle matrice associée à l’application linéaire f,
pour les bases B et B 0 . Elle est unique pour ces bases B et B 0 .
Inversement; si on se donne une matrice M ∈ Mn,p (K) où Mn,p (K) est l’en-
semble des matrices de type (n, p), on lui est associée une application linéaire
définit par:
f : E −→ F
x 7−→ f (x) = M.x
 
x1
 x2 
où x =   c.a.d; x = x1 .e1 + x2 .e2 + · · · + xp .ep
 
..
 . 
xp

Exercice. 1. Soient f, et g deux applications linéaires d’espace vectoriel E


vers l’espace vectoriel F dont leurs bases sont respectivement B et B 0 .

31
Chapitre 2. Applications linéaires et matrices

i) Montrer que MBB 0 (f + g) = MBB 0 (f ) + MBB 0 (g).


ii) Montrer que ∀ λ ∈ K : MBB 0 (λ.f ) = λ.MBB 0 (f ).
2. Soient f : E −→ F ; g : F −→ G et B, B 0 , B 00 sont respectivement les
bases de E, F et G. Montrer que MBB 00 (gof ) = MB 0 B 00 (g) × MBB 0 (f ).
Proposition 2.2.1. Soient L(E, F ) l’ensemble des applications linéaires de E
dans F avec dim(E) = p, dim(F ) = n. et Mn,p (K) l’ensemble des matrices de
type (n, p). Alors (L(E, F ), +, .) et (Mn,p (K), +, .) sont 2 espaces vectoriels sur K
isomorphes.
Preuve. On montre facilement que (L(E, F ), +, .) et (Mn,p (K), +, .) sont des es-
paces vectoriels sur K pour les lois habituels ”+” et ”.”. Ensuite; d’après les résul-
tats précédents on montre que l’application:

ψ : (L(E, F ), +, .) −→ (Mn,p (K), +, .)

f 7−→ MBB 0 (f )
est une application linéaire bijective.
• Notation: Dans le cas où E = F, (ie; n = p) on note Mn,n (K) = Mn (K) et L(E, F ) =
L(E)
i) Mn (K) s’appelle l’ensemble des matrices carrées d’ordre n.
ii) L(E) s’appelle l’ensemble des endomorphismes.
Corollaire 2.2.2. L’espace vectoriel (Mn,p (K), +, .) est de dimension n × p.
Preuve. Considérons la familles des matrices Aij ∈ Mn,p (K) telles que 1 ≤ i ≤
n; 1 ≤ j ≤ p tels que les éléments de chaque matrice Aij sont tous nuls sauf celui
de iemes ligne et j emes colonne qui vaut 1. Cette famille de matrices est libre et
de plus c’est une partie génératrice de Mn,p (K), car
p
n X
X
∀ A = (aij )i,j ∈ Mn,p (K), on a : A = aij Aij .
i=1 j=1

 
2 √ −3
Exemples 2.2.3. Prenons A = ∈ M2 (R). On a
4 2


         
2 √−3 1 0 0 0 0 1 0 0
A= = 2. + 4. + (−3). + 2.
4 2 0 0 1 0 0 0 0 1

dim(M2 (R)) = 2 × 2 = 4.
Corollaire 2.2.4. dim(L(E, F )) = dim(F ) × dim(E).
Preuve. On sait que ces deux espaces (L(E, F ), +, .) et (Mn,p (K), +, .) sont iso-
morphes, donc ont même dimension. D’où le résultat.

32
Chapitre 2. Applications linéaires et matrices

Exercice. 1. Soit
f : R2 −→ R3
(x, y) 7−→ (x + 2y, 3x + 5y, −7x + 11y)
en utilisant les bases canoniques respectivement de R2 et R3 , trouver la
matrice associée à f .
2. Soit E un espace vectoriel de dimension n. Déterminer la matrice associée
à IdE .
Proposition 2.2.5. Soit f : E −→ F une application linéaire et B, B 0 respecti-
vement les bases de E et F. On a;
f bijective ⇐⇒ MBB 0 (f ) est inversible .
 −1
Dans ce cas on a MBB 0 (f ) = MB 0 B (f −1 ).
Preuve. Posons n = dim(F ) = dim(E).
• f bijective implique f of −1 = IdF et f −1 of = IdE , donc MB 0 B 0 (f of −1 ) =
MB 0 B 0 (IdF ) et MBB (f −1 of ) = MBB (IdE )
=⇒ MBB 0 (f ) × MB 0 B (f −1 ) = MB 0 B (f −1 ) × MBB 0 (f ) = In ; (In matrice identité)
 −1
d’où MBB 0 (f ) est inversible et MBB 0 (f ) = MB 0 B (f −1 ).

• Inversement; si MBB 0 (f ) est inversible, soit A ∈ Mn (K) telle que

MBB 0 (f ) × A = A × MBB 0 (f ) = In ,
et soit g ∈ L(F, E) telle que MB 0 B (g) = A, c’est à dire; ∀ y ∈ F : g(y) = A.y .
On a alors MBB (gof ) = MB 0 B 0 (f og) = In . Donc gof = IdE et f og = IdF , d’où
f est inversible.

2.2.1 Rang d’une matrice


Définition 2.2.6. Soit A une matrice de type (n, p), et f son application linéaire
associée. On définit le rang de A comme étant le rang de f.
Proposition 2.2.7. On a: rang(A) = rang( t A).
Preuve. Voir plus loin.
Remarque 2.2.8. 1. Pour déterminer le rang d’une matrice A donné, on suit
parfois la technique suivante: On fait échelonner la matrice A, et puisque
rang(A) = rang( t A), alors
rang(A) = M in{le nbre de lignes non nulles, le nbre de colonnes non nulles}
dans sa matrice échelonné. Autrement
 dit si par exemple la matrice éche-
1 3 0 0
0 −2 9 0
lonné de A est; 
0 0 0 0 , alors rang(A) = 2.

0 0 0 0

33
Chapitre 2. Applications linéaires et matrices

2. Si A est une matrice carrée d’ordre n, et rang(A) = n, alors A est inver-


sible.
Exercice. Faire échelonner la matrice A suivante, puis déduire son rang:
 
−1 3 5 0
A =  2 −4 10 1 
2 8 5 −1

2.3 Matrices de passages - Changement de bases


La question c’est; que devient la matrice MBB 0 (f ) si on change les bases?

2.3.1 Matrices de passages


Définition 2.3.1. Soient E un e.v et B1 = {e1 , e2 , . . . , en }; B2 = {e01 , e02 , . . . , e0n }
deux bases de E. Considérons l’écriture de chaque e0j , où 1 ≤ j ≤ n dans la base
n
X
B1 ; e0j = αij ei . La matrice (αij )i,j s’appelle matrice de passage de B1 à B2 .
i=1
Autrement dit; c’est la matrice associée à l’identité de E (ie, MB2 B1 (IdE )) comme
suivant:

IdE : (E, B2 ) −→ (E, B1 )


x 7−→ x
On la note PB1 B2 . (Voir que PB1 B2 = MB2 B1 (IdE )).
Remarque 2.3.2. i)
IdE : (E, B2 ) −→ (E, B1 )
x 7−→ x
n
X
Ceci veut dire que si l’écriture de x dans la base B1 est x = xi ei et
i=1
n
X
celle dans la base B2 c’est x = x0i e0i , alors;
i=1
   
x1 x01
 x2   x02 
 = PB1 B2 × 
   
 .. .. 
 .   . 
xn x0n
n
X
En autre ∀ i ∈ {1, 2, . . . , n} : e0i = pji ej où (pji )j sont les coefficients
j=1
de la i-ième colonne de la matrice de passage PB1 B2 .

34
Chapitre 2. Applications linéaires et matrices

ii) La matrice de passage PB1 B2 est inversible et son inverse PB−1


1 B2
c’est la
−1
matrice de passage de B2 à B1 , (ie; PB1 B2 = PB2 B1 ).
Exercice. Considérons dans R2 le cercle unité. Son equation dans la base cano-
nique B = {(1, 0), (0, 1)} est x2 + y 2 = 1. Soit B 0 = {(2, 3), (5, 7)} ⊂ R2 .
i) Montrer que B 0 est une base de R2 .
ii) Donner la matrice de passage de B à B 0 ; (ie, PBB 0 ).
iii) En déduire l’équation du cercle unité dans la base B 0 .
iv) Déterminer la matrice de passage de B 0 à B et calculer PBB 0 × PB 0 B . Que
peut on conclure?

2.3.2 Changement de bases


Proposition 2.3.3. Soient E un e.v tel que dim(E) = p et B1 = {e1 , e2 , . . . , ep }; B2 =
{e01 , e02 , . . . , e0p } deux bases de E, et F un autre e.v tel que dim(F ) = n et B10 =
{f1 , f2 , . . . , fn }; B20 = {f10 , f20 , . . . , fn0 } deux bases de F. Soient encore
. P la matrice de passage de B1 à B2 .
. Q la matrice de passage de B10 à B20 .
. f une application linéaire de E dans F.
. A la matrice associée à f relativement aux bases B1 à B10 .
. B la matrice associée à f relativement aux bases B2 à B20 .
Alors on a B = Q−1 AP. Dans le cas de n = p et B1 = B10 , B2 = B20 on aura
B = P −1 AP, et dans ce dernier cas on dit que les matrices A et B sont semblables.
Preuve. On a le diagramme suivant:
f
(E, B1 ) / (F, B10 )
O
IdE IdF
f

(E, B2 ) / (F, B20 )

ce qui donne f = IdF of oIdE . Donc

MB2 B20 (f ) = MB10 B20 (IdF ) × MB1 B10 (f ) × MB2 B1 (IdE ) = Q−1 MB1 B10 (f )P.

Exercice. Soit
f : R2 −→ R3
(x, y) 7−→ (x + 2y, 3x − 5y, 6x − y)
Soient B1 , B10 les bases canoniques respectivement de R2 et R3 . Posons B2 =
{(1, 1), (2, 3)} ⊂ R2 , B20 = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} ⊂ R3 .
1. Vérifier que B2 et B20 sont respectivement des bases de R2 et R3 .
2. Déterminer MB1 B10 (f ) et MB2 B20 (f ).
3. Trouver les matrices de passages P = PB1 B2 et Q = QB10 B20 , puis Q−1 .
4. Vérifier que MB2 B20 (f ) = Q−1 MB1 B10 (f )P.

35
Chapitre 2. Applications linéaires et matrices

2.4 Espace dual- Espace Bidual


Définition 2.4.1. Soient K un corps (ici K = R où C), et E un espace vectoriel.
On appelle forme linéaire de E, tout application linéaire de E dans K. L’ensemble
des formes linéaires de E dans K se note par E ∗ = L(E, K), c’est un espace
vectoriel sur K; l’espace E ∗ appelé espace dual de E (ou bien le dual de E). De
plus l’ensemble des formes linéaires de E ∗ dans K appelé espace bidual de E et
se note par; E ∗∗ = L(E ∗ , K).
Exemples 2.4.2. 1. Soient E un e v de dimension finie sur K,

n = dim(E) ≥ 1 et B = (e1 , e2 , . . . , en )

une base de E. On a pour chaque i ∈ {1, 2, . . . , n} l’application;

e∗i : E −→ K
n
X
x= xi ei 7−→ xi
i=1

est une forme linéaire sur E.


2. Soit E = C([a, b]), l’espace des fonctions numériques continuent sur l’in-
tervalle [a, b]. L’application;

µ : E −→ R
Z b
f 7−→ f (x)dx
a
est une forme linéaire sur E.

2.4.1 Bases duales


On suppose que E un espace vectoriel de dimension finie (dim(E) = n), soit
B = (e1 , e2 , . . . , en ) une base de E. On considère pour chaque i ∈ {1, 2, . . . , n} la
forme linéaire e∗i définie par; e∗i : E −→ K, tel que

∗ 1 si i = j
∀ j ∈ {1, 2, . . . , n}; ei (ej ) = δi,j =
0 si non

δi,j s’appelle symbole de Kronecker. La famille qu’on note B ∗ = (e∗1 , e∗2 , . . . , e∗n )
est une base de E ∗ , en effet: les e∗i sont bien des éléments de E ∗ (voir l’exemple
précédent), d’autre part soient ψ ∈ E ∗ et (λ1 , λ2 , . . . , λn ) ∈ K n , on a;
n
X n
X
λi e∗i = ψ ⇐⇒ ∀ j ∈ {1, 2, . . . , n}, λi e∗i (ej ) = ψ(ej )
i=1 i=1
⇐⇒ ∀ j ∈ {1, 2, . . . , n}; λj = ψ(ej ).

36
Chapitre 2. Applications linéaires et matrices

Donc si ψ ≡ 0, alors λj = 0, ∀ j ∈ {1, 2, . . . , n}, d’où (e∗1 , e∗2 , . . . , e∗n ) est libre
Xn
∗ ∗
dans E . De plus pour tout ψ ∈ E on a ψ = ψ(ei ).e∗i , ce qui montre que
i=1
(e∗1 , e∗2 , . . . , e∗n ) engendre E ∗ . Enfin (e∗1 , e∗2 , . . . , e∗n ) est une base de E ∗ .
Définition 2.4.3. La base (e∗1 , e∗2 , . . . , e∗n ) de E ∗ citée précédemment s’appelle
base duale de la base B et se note par B ∗ .
Corollaire 2.4.4. dim(E ∗ ) = dim(E).
Preuve. D’après la démonstration précédente.
Remarque 2.4.5. Soient B = (e1 , e2 , . . . , en ) une base de E, B ∗ = (e∗1 , e∗2 , . . . , e∗n )
sa base duale on a:  
e∗1
n    e∗ 

X
∗  2
i) ∀ ψ ∈ E : ψ = ψ(ei ).ei = ψ(e1 ), ψ(e2 ), . . . , ψ(en ) .  .. 
i=1
.
e∗n
 
e1
Xn Xn    e2 
ii) ∀ x ∈ E : x = xi e i = e∗i (x)ei = e∗1 (x), e∗2 (x), . . . , e∗n (x) .  .. 
 
i=1 i=1
.
en
Proposition 2.4.6. (Changement de base pour la dualité)
Soient B, B 0 deux bases de E, P la matrice de passage de B à B 0 . Alors la matrice
de passage de B ∗ à B 0∗ est t P −1 .
Preuve. Notons B = (e1 , e2 , . . . , en ), B 0 = (f1 , f2 , . . . , fn ), P = (pij )i,j , la ma-
trice de passage de B à B 0 , puis Q = (qij )i,j , la matrice de passage de B ∗ à B 0∗ . On
Xn Xn Xn
2 ∗ ∗ ∗
a pour tout (i, j) ∈ {1, 2, . . . , n} : fj (fk ) = fj ( plk el ) = ( qij ei )( plk el ) =
l=1 i=1 l=1
n X
X n n
X
qij plk δil = qij pik , ça d’une part, d’autre part fj∗ (fk ) = δjk . Donc
i=1 l=1 i=1
n
X
qij pik = δik . Ceci montre que t Q.P = In , d’ où Q = t P −1 .
i=1

Exercice. 1. Montrer que les vecteurs V1 = (2, 1, 4), V2 = (3, 2, 3), V3 =


(−1, −1, 2) de R3 , forment une base de R3 , en déterminant sa base duale.
Q x−xj
2. On considère pour chaque i ∈ {0, 1, . . . , n} le polynôme Li = xi −xj
0≤j≤n
j 6= i
de degré inférieur ou égale à n à coefficients dans R. Montrer que (L0 , L1 , . . . , Ln )
est une base de Rn [X] avec Rn [X] est l’espace vectoriel des polynômes de
degré ≤ n, en déduisant sa base duale.

37
Chapitre 2. Applications linéaires et matrices

2.4.2 Hyperplans
Définition 2.4.7. Soit E un espace vectoriel. Les hyperplans de E sont les noyaux
des formes linéaires sur E autre que la forme nulle, c’est à dire;

si f : E −→ K

x 7−→ f (x)
une forme linéaire non nulle, H = Ker(f ) est un hyperplan de E. Autrement dit;
un sous e.s.v H est un hyperplan si et seulement si;

∃ψ ∈ E ∗ − {0} tq H = Ker(ψ) = {x ∈ E | ψ(x) = 0}.

L’équation ψ(x) = 0 dite équation de l’hyperplan H.

Exemples 2.4.8.
ψ : R2 −→ R
(x, y) 7−→ x + y
est une forme linéaire, Ker(ψ) = {(x, y) ∈ R2 | x + y = 0} est un hyperplan.

Proposition 2.4.9. Soit H un sous espace vectoriel de E. Pour que H soit un


hyperplan de E, il faut et il suffit qu’il existe une droite vectorielle D ( ie; D est
engendré par un seul vecteur) de E telle que H et D soient supplémentaires dans
E.

Preuve. =⇒) Soit H un hyperplan de E. Il existe ψ ∈ E ∗ − {0} tq H = Ker(ψ),


alors ∃ u0 ∈ E tq ψ(u0 ) 6= 0. On pose donc D = K.u0 ; D est un sous espace
vectoriel de E appelé droite vectorielle, et on montre que D est supplémentaire
de H dans E.
• Soit x ∈ D ∩ H, il existe α ∈ K tq x = α.u0 et ψ(x) = 0. Donc si α 6= 0,
alors ψ(x) = α.ψ(u0 ) =⇒ ψ(u0 ) = α1 ψ(x) = 0, contradiction. D’où α = 0, ce qui
montre que x = 0, et donc D ∩ H = {0}.
• Soit x ∈ E; montrons qu’il existe (x1 , x2 ) ∈ D × H, tq x = x1 + x2 ; ie :
∃ λ ∈ K et x2 ∈ H tq x = λ.u0 + x2 , ce qui montre ψ(x) = λ.ψ(u0 ) + ψ(x2 ) =
ψ(x) ψ(x) ψ(x)
λ.ψ(u0 ) =⇒ λ = ψ(u 0)
. Donc il suffit de prendre λ = ψ(u0)
et x2 = x − ψ(u0)
.u0 ;
ψ(x) ψ(x) ψ(x)
c’est à dire x = .u + x − ψ(u
ψ(u0 ) 0 0)
.u0 . On a bien ψ(x − ψ(u0)
.u0 ) = ψ(x) − ψ(x) =
ψ(x) ψ(x) ψ(x)
0 et ψ(u 0)
.u0 ∈ x − ψ(u
K.u0 , d’où x1 = ψ(u0 ) .u0 et x2 =
0)
.u0 , ce qui montre que
D ⊕ H = E.
⇐=) Réciproquement: supposons qu’il existe une droite vectorielle D telle que
D ⊕ H = E, et on montre que H est un hyperplan.
• D une droite vectorielle =⇒ ∃ u0 ∈ E − {0} tq D = K.u0 .
• D’autre part; D ⊕ H = E =⇒ ∀ x ∈ E; ∃ (λ, x2 ) ∈ K × H, tq x = λ.u0 + x2 .
Soit l’application:
ψ : E −→ K

38
Chapitre 2. Applications linéaires et matrices

x 7−→ λ
ψ est linéaire et bien définie car pour chaque x ∈ E il existe un unique λ, et x2 ∈
H tq x = λ.u0 + x2 , on a alors ψ ∈ E ∗ − {0}, et Ker(ψ) = H.

Corollaire 2.4.10. Si E est de dimension finie égale n ≥ 1, alors les hyperplans


de E sont les sous espaces de E de dimension (n − 1).

Proposition 2.4.11. Soient H un hyperplan de E, ϕ ∈ E ∗ − {0} telle que H =


Ker(ϕ) et ψ ∈ E ∗ − {0}. On a:

H = Ker(ψ) ⇐⇒ (∃ α ∈ K − {0} : ψ = α.ϕ)

Preuve. ⇐=) Il est clair que pour tout α ∈ K − {0} : Ker(α.ϕ) = Ker(ϕ) = H.
=⇒) Réciproquement; soit ψ ∈ E ∗ − {0} tq H = Ker(ψ). Il existe x0 ∈ E tel
que ϕ(x0 ) 6= 0, (car ϕ ∈ E ∗ − {0}, or H = Ker(ϕ) donc;

E = H ⊕ K.x0 =⇒ Ker(ϕ) + K.x0 .

Soit x ∈ E =⇒ λ ∈ K et y ∈ Ker(ϕ) = H tq x = y + λ.x0 . Alors ϕ(x) =


ϕ(x)
λ.ϕ(x0 ) ψ(x) = λ.ψ(x0 ), donc ψ(x) = ϕ(x0)
.ψ(x0 ) =⇒ ψ(x) = ψ(x 0)
ϕ(x0 )
.ϕ(x). En
ψ(x0 )
notant α = ϕ(x0 )
∈ K − {0}, on a donc ψ = α.ϕ.

2.4.3 Application linéaire associée à une famille finie de


vecteurs ou de formes linéaires
• Cas d’une famille finie de vecteurs: Soit (x1 , x2 , . . . , xp ) ∈ E p , l’appli-
cation:
u : E ∗ −→ Kp
ϕ 7−→ (ϕ(x1 ), . . . , ϕ(xp ))
est linéaire, appelée application linéaire associée à (x1 , x2 , . . . , xp ). On a :

Ker(u) = {ϕ ∈ E ∗ | ∀ i ∈ {1, 2 . . . , p}; ϕ(xi ) = 0}

rang(u) = dim(Im(u)) = dim(E ∗ ) − dim(Ker(u))


• Cas d’une famille finie de formes linéaires: Soient p ∈ N∗ ; (ϕ1 , ϕ2 , . . . , ϕp ) ∈
(E ∗ )p . Considérons l’application

v : E −→ Kp

x 7−→ (ϕ1 (x), ϕ2 (x), . . . , ϕp (x))


on montre que l’application v est linéaire, et on a:

Ker(v) = {x ∈ E | ∀ i ∈ {1, 2 . . . , p}; ϕ(xi ) = 0}, et rang(v) = dim(E)−dim(Ker(v)).

39
Chapitre 2. Applications linéaires et matrices

2.5 Notions sur les formes bilinéaires


On verra en détail les formes bilinéaires, dans le chapitre 5.

Définition 2.5.1. Soient E et F deux espaces vectoriels sur K. L’application;

ϕ : E × F −→ K

(x, y) 7−→ ϕ(x, y)


est dite forme bilinéaire si elle vérifie les propriétés suivantes: ∀ x, x0 ∈ E, ∀ y, y 0 ∈
F et λ, λ0 ∈ K on a ;
i) ϕ(λ.x + λ0 .x0 ; y) = ϕ(λ.x; y) + ϕ(λ0 .x0 ; y) = λ.ϕ(x; y) + λ0 .ϕ(x0 ; y).
ii) ϕ(x; λ.y + λ0 .y 0 ) = ϕ(x; λ.y) + ϕ(x ; λ0 .y 0 ) = λ.ϕ(x; y) + λ0 .ϕ(x; y 0 ).
Autrement dit; elle est linéaire à chacune des variables.

Remarque 2.5.2. L’ensemble (L(E × F, K), +, .) est un espace vectoriel sur K.

Exemples 2.5.3.
ψ : R2 × R2 −→ R
((x, y), (x0 , y 0 )) 7−→ xy 0 + x0 y
ψ : R × R −→ R
(x, y) 7−→ xy

2.5.1 L’othogonalité
D’abord l’application;
ϕ : E × E ∗ −→ K
(x, f ) 7−→ ϕ(x, f ) = f (x)
est une forme bilinéaire (vérifiez ça), s’appelle forme bilinéaire canonique définie
sur E × E ∗ , et on note ϕ(x, f ) = f (x) =< x, f > . Donc on aura
i) < λ.x + λ0 .x0 ; f >= λ. < x; f > +λ0 . < x0 ; f > .
ii) < x; λ.f + λ0 .g >= λ. < x; f > +λ0 . < x; g > .

Définition 2.5.4. Soit E est un e.v et E ∗ son dual.


1. On dit qu’un vecteur x ∈ E, et une forme linéaire f ∈ E ∗ sont orthogonaux
si < x, f >= 0.
2. Soit X une partie de E, on appelle l’orthogonale de X, et on note X ⊥ ,
l’ensemble des formes linéaires f telles que < x; f >= 0, ∀ x ∈ X. C’est à
dire;
X ⊥ = {f ∈ E ∗ | < x; f >= 0, ∀ x ∈ X}.

40
Chapitre 2. Applications linéaires et matrices

3. Soit F une partie de E ∗ , (ie; F ⊂ E ∗ ). On appelle l’orthogonalité de F,


et on note ⊥ F avec le symbole d’orthogonalité à gauche seulement pour
rappeler que c’est une partie de E, l’ensemble;

F = {x ∈ E | < x; f >= 0, ∀ f ∈ F }.

Remarque 2.5.5. 1. f ∈ X ⊥ ⇐⇒ f /X ≡ 0, ie; la restriction de f sur X


est nulle. Ceci équivalent que X ⊂ Ker(f ).
2. Pour tout F ⊂ E ∗ on a ⊥
F = ∩ Ker(f ). En effet;
f ∈F


x∈ F ⇐⇒ < x, f >= 0, ∀ f ∈ F
⇐⇒ x ∈ Ker(f ), ∀ f ∈ F
⇐⇒ x ∈ ∩ Ker(f ).
f ∈F

Propriétés 2.5.6. Soient X et Y sont deux parties de E, puis F et G sont deux


parties de E ∗ . On a les propriétés suivantes:
1. X ⊥ est un sous espace vectoriel de E ∗ .
2. X ⊂ Y =⇒ Y ⊥ ⊂ X ⊥ .
3. (X ∪ Y )⊥ = X ⊥ ∩ Y ⊥ .

4. X ⊂ (X ⊥ ).
5. E ⊥ = {0E ∗ }; {0E }⊥ = E ∗ .

6. F est un sous espace vectoriel de E.
⊥ ⊥
7. F ⊂ G =⇒ G⊂ F.
⊥ ⊥ ⊥
8. (F ∪ G) = F∩ G.
9. F ⊂ ( ⊥ F )⊥ .

10. {0E } ⊂ {E ∗ }; ⊥
{0E ∗ } = E.

Preuve. Faites ça comme exercice.

Théorème 2.5.7. Soit E un espace vectoriel sur K de dimension finie (dim(E)=n),


et X un sous espace de E, et F un sous espace de E ∗ . On a:

dim(X) + dim(X ⊥ ) = dim(E) (2.1)


dim(F ) + dim( ⊥ F ) = dim(E). (2.2)

Preuve. 1. Soit (e1 , e2 , . . . , ep ) une base de X, complété en une base


(e1 , e2 , . . . , ep , ep+1 , . . . , en ) de E, et soit (e∗1 , e∗2 , . . . , e∗p , e∗p+1 , . . . , e∗n ) sa base
duale de E ∗ , donc;
X n

f ∈ E =⇒ f = λi e∗i
i=1

41
Chapitre 2. Applications linéaires et matrices

ce qui montre que;


n
X

f ∈ X ⇐⇒ ∀ j ∈ {1, 2, . . . , p} : f (ej ) = λi e∗i (ej ) = λj = 0; car ej ∈ X.
i=1

n
X
D’où f = λi e∗i , ceci dit que X ⊥ est engendré par {e∗p+1 , e∗p+2 . . . , e∗n }
i=p+1
et puisque {e∗p+1 , e∗p+2 . . . , e∗n } est libre, alors c’est une base de X ⊥ .
Donc dim(X) + dim(X ⊥ ) = dim(E).
2. De la même manière.
Corollaire 2.5.8. Dans le cas de dimension finie et avec les mêmes notations
on a: ⊥ (X ⊥ ) = X.
Preuve. On sait que X ⊂ ⊥ (X ⊥ ) et dim(X) = n − dim(X ⊥ ) et or aussi
dim(X ⊥ ) + dim ⊥ (X ⊥ ) = dim(E), alors;

dim(X ⊥ ) = n − dim ⊥ (X ⊥ ) =⇒ dim(X) = dim ⊥ (X ⊥ ),



d’où X = (X ⊥ ).
Remarque 2.5.9. On peut définir aussi une forme canonique sur E ∗ × E ∗∗ et
pour une partie F ⊂ E ∗ on définit:

F ⊥ = {ϕ ∈ E ∗∗ | < f, ϕ >= 0, ∀ f ∈ F }

Aussi pour une partie G de E ∗∗ on définit;



G = {f ∈ E ∗ | < f, ϕ >= 0, ∀ ϕ ∈ G}.

2.5.2 Transposition d’une application linéaire


Définition 2.5.10. Soient E et F deux espaces vectoriels sur K, et u une appli-
cation linéaire de E dans F.
u : E −→ F
x 7−→ u(x)
L’application de F ∗ dans E ∗ qui à tout f associe f ◦ u est linéaire, on l’appelle
transposée de u et on le note t u. Autrement dit:
t
u : F ∗ −→ E ∗

f 7−→ t u(f ) = f ◦ u
est caractérisée par le fait que ∀ x ∈ E et ∀ f ∈ F ∗ , on a:

< x; t u(f ) >=< x; f ◦ u >= f (u(x)) =< u(x); f > .

42
Chapitre 2. Applications linéaires et matrices

Propriétés 2.5.11. a) L’application;

φ : L(E, F ) −→ L(F ∗ , E ∗ )

u 7−→ t u
est linéaire.
b) Soient E, F et G trois espaces vectoriels sur K et u ∈ L(E, F ), v ∈ L(F, G)
on a:
t
(v ◦ u) = t u ◦ t v.
c) Soit l’application identique de E; idE : E −→ E. On a t idE = idE ∗ .
d) Soit u appartient à L(E, F ), si u est inversible, alors t u est aussi inversible
et on a ( t u)−1 = t (u−1 ).

Preuve. a) Soient u et v ∈ L(E, F ); on a φ(u + v) = t (u + v), or ∀ f ∈ F ∗ ;


t
(u + v)(f ) = f ◦ (u + v)
= f ◦u+f ◦v
= t u(f ) + t v(f )
= ( t u + t v)(f )

donc t (u + v) = t u + t v. Ceci montre que φ(u + v) = φ(u) + φ(v). D’autre


part; φ(λ.u) = t (λ.u) et or ∀ f ∈ F ∗ : t (λ.u)(f ) = f ◦ λ.u = λ.f ◦ u =
λ. t u(f ). Alors t (λ.u) = λ. t u, ce qui dit que φ(λ.u) = λ.φ(u). Donc φ est
une application linéaire.
b) t (v ◦ u) = t u ◦ t v?. En effet;

∀ f ∈ G∗ : t
(v ◦ u)(f ) = f ◦ (v ◦ u)
= (f ◦ v) ◦ u
= t u(f ◦ v)
= t u( t v(f ))
= t u ◦ t v(f )

d’où le résultat.
c) On a ∀ f ∈ E ∗ : t idE (f ) = f ◦ idE = f = idE ∗ (f ), donc t idE = idE ∗ .
d) Si u est inversible, alors u−1 ◦ u = idE =⇒ t (u−1 ◦ u) = t idE =⇒ t u◦ t u−1 =
idE ∗ , d’où t u−1 = ( t u)−1 .

Théorème 2.5.12. Soit E et F deux espaces vectoriels sur K, et u ∈ L(E, F ),


alors le noyau de t u est égal à l’orthogonal de l’image de u ie;

Ker( t u) = (Im(u))⊥ .

43
Chapitre 2. Applications linéaires et matrices

Preuve. Attention: si u ∈ L(E, F ), alors t u ∈ L(F ∗ , E ∗ ).

f ∈ Ker( t u) ⇐⇒ t u(f ) = 0
⇐⇒ ∀ x ∈ E : t u(f )(x) =< x; t u(f ) >=< u(x); f >= 0
⇐⇒ ∀ y ∈ Im(u) : < y; f >= 0
⇐⇒ f ∈ (Im(u))⊥

d’où Ker( t u) = (Im(u))⊥ .


Dans le cas de dimension finie on a les propriétés suivantes:
Propriétés 2.5.13. Soit E et F deux espaces vectoriels sur K, de dimensions
finies on a:
a) L’application:
φ : L(E, F ) −→ L(F ∗ , E ∗ )
u 7−→ t u
est un isomorphisme.
b) Les espaces E et F sont identifies à leurs biduales; c’est à dire: E '
E ∗∗ et F ' F ∗∗ , de plus t ( t u) ∈ L(E; F ) et t ( t u) = u.
c) Im( t u) = (Ker(u))⊥ .
d) rang(u) = rang( t u).
Preuve. Soient (e1 , e2 , . . . , en ) la base de E, (f1 , f2 , . . . , fp ) la base de F et ainsi
(e∗1 , e∗2 , . . . , e∗n ) et (f1∗ , f2∗ , . . . , fp∗ ) sont respectivement les bases de E ∗ et F ∗ .
a) On a déjà montrer que φ est linéaire. D’autre part;
Ker(φ) = {u ∈ L(E, F ) | φ(u) = 0} = {u ∈ L(E, F ) | t u = 0}; en effet:
t
u = 0 ⇐⇒ ∀ f ∈ F ∗ ; t u(f ) = f ◦ u = 0
⇐⇒ ∀ f ∈ F ∗ ; ∀ x ∈ E; f ◦ u(x) = 0
⇐⇒ ∀ f ∈ F ∗ ; ∀ x ∈ E; f (u(x)) = 0
⇐⇒ ∀ f ∈ F ∗ ; f ∈ (Im(u))⊥
⇐⇒ F ∗ ⊂ (Im(u))⊥
⇐⇒ Im(u) ⊂ ⊥ (F ∗ )

⇐⇒ Im(u) ⊂ {0F }; car dans le cas de dimension f inie (F ∗ ) = {0F }
⇐⇒ Im(u) = {0F }
⇐⇒ ∀ x ∈ E : u(x) = 0F
⇐⇒ u=0

Donc Ker(φ) = 0 ce qui montre que φ est injective, or dim(L(E, F )) =


dim(L(F ∗ , E ∗ )) = n × p, alors φ est bijective, d’où φ est un isomorphisme.
b) D’abord on montre que si E est de dimension finie on aura E ' E ∗∗ . Soit
X fixé dans E, l’application:

X̃ : E ∗ −→ K

44
Chapitre 2. Applications linéaires et matrices

f 7−→ f (X)
est une forme linéaire sur E ∗ , et l’application:

ϕ : E −→ E ∗∗

X 7−→ X̃
est un isomorphisme; en effet:

X̃(λf + µg) = (λf + µg)(X)


= λf (X) + µg(X)
= λX̃(f ) + µX̃(g)

donc X̃ est une forme linéaire ce qui dit que ϕ est bien définie. D’autre
part;

^
(λX + µY )(f ) = f (λX + µY )
= λf (X) + µf (Y )
= λX̃(f ) + µỸ (f ); valable ∀ f ∈ E ∗

donc (λX ^ + µY ) = λX̃ + µỸ , d’où ϕ(λX + µY ) = λϕ(X) + µϕ(Y ). Donc


ϕ est linéaire. De plus Ker(ϕ) = {X ∈ E | X̃ = 0} = {0E }; en effet:

X̃ = 0 ⇐⇒ ∀ f ∈ E ∗ : X̃(f ) = 0
⇐⇒ ∀ f ∈ E ∗ : f (X) = 0
⇐⇒ ∀ f ∈ E ∗ : f ∈ {X}⊥
⇐⇒ E ∗ ⊂ {X}⊥
⇐⇒ X ∈ ⊥ (E ∗ ) = {0E }
⇐⇒ X = 0E

Ce qui montre que φ est injective. Or dim(E) = dim(E ∗∗ ), alors ϕ est un


isomorphisme, donc E ' E ∗∗ .
• Pour F ' F ∗∗ , se fait de la même manière. Les isomorphismes E '
E ∗∗ , et F ' F ∗∗ permettent d’identifier E avec E ∗∗ , et F avec F ∗∗ de
plus
φ−1 : L(F ∗ , E ∗ ) −→ L(E ∗∗ , F ∗∗ )
t
u 7−→ t ( t u)
est un isomorphisme; c’est l’inverse de φ. Alors on peut identifier L(E ∗∗ , F ∗∗ )
avec L(E, F ) car L(E ∗∗ , F ∗∗ ) ' L(E, F ); ce qui ne permet d’identifier
t t
( u) à u, et on écrit
t t
( u) = u.

45
Chapitre 2. Applications linéaires et matrices

c) D’après le théorème précédent;


⊥ ⊥
Ker( t ( t u)) = (Im( t u)) =⇒ Ker(u) = (Im( t u)) =⇒ Im( t u) ⊂ (Ker(u))⊥ .

Or dim(Im( t u)) + dim ⊥ (Im( t u)) = dimE ∗ = n et dim(Ker(u)) +


dim(Ker(u))⊥ = dim(E) = n, alors

dim(Im( t u)) = dim(Ker(u))⊥ .

d) On a d’après ce qui précédent rang( t u) = dim(Im( t u)) = dim(Ker(u))⊥ =


n−dim(Ker(u)). D’autre part; rang(u) = dim(Im(u)) = n − dim(Ker(u))
| {z }
th du rang
donc rang(u) = rang( t u).

2.5.3 Transposition d’une matrice


Soient E et F deux espaces vectoriels sur K de dimensions finies respectivement
n, et p, B = (e1 , e2 , . . . , en ) la base de E, B 0 = (f1 , f2 , . . . , fp ) la base de F et
ainsi B ∗ = (e∗1 , e∗2 , . . . , e∗n ) et B 0∗ = (f1∗ , f2∗ , . . . , fp∗ ) sont respectivement les bases
de E ∗ et F ∗ . On sait que l’application;

ϕ1 : L(E, F ) −→ Mp,n (K)

u −→ M atBB 0 (u) = (u(e1 ), u(e2 ), . . . , u(en ))


(c’est à dire on associe à chaque application linéaire son matrice associée), est un
isomorphisme. De même l’application;

ϕ2 : L(F ∗ , E ∗ ) −→ Mn,p (K)

v −→ M atB 0∗ B ∗ (v) = (v(f1∗ ), v(f2∗ ), . . . , v(fn∗ ));


est aussi un isomorphisme. Or

φ : L(E, F ) −→ L(F ∗ , E ∗ )

u 7−→ t u
est un isomorphisme. Ceci nous permet de définir un isomorphisme entre deux
espaces Mp,n (K) et Mn,p (K).

Définition 2.5.14. Soit A = (aij ) une matrice de type (p, n) associée


1≤i≤p
1≤j≤n
à l’application u ∈ L(E, F ). On appelle transposée de la matrice A une autre
matrice noté t A = (bji ) de type (n, p) qui est associée à t u de
1≤j≤n
1≤i≤p
L(F ∗ , E ∗ ).

46
Chapitre 2. Applications linéaires et matrices

Proposition 2.5.15. L’application;

ψ : Mp,n (K) −→ Mn,p (K)

A 7−→ t A
est un isomorphisme, et on a bien t A = (bji ) avec bji = aij .
1≤j≤n
1≤i≤p

ϕ−1
1 φ ∗ ∗ ϕ2
Preuve. On a; ψ : Mp,n (K) −→ L(E, F ) −→ L(F , E ) −→ Mn,p (K)
t t
A 7−→ u 7−→ u 7−→ A
−1 −1
c’est à dire ψ = ϕ2 ◦ φ ◦ ϕ1 , puisque ϕ2 , φ, et ϕ1 sont des isomorphismes, alors
ψ est un isomorphisme.
h=n
X
t
De plus nous avons; u(fi ) =∗
bhi .e∗h , donc bji = t u(fi∗ )(ej ). Ceci nous donne;
h=1

bji = t u(fi∗ )(ej ) = < ej ; t u(f ∗ ) >


= < u(ej ); fi∗ >
p
X
= < akj .fk ; fi∗ >
k=1
p
X
= akj .fi∗ (fk )
k=1
= aij

Corollaire 2.5.16. rang(A) = rang( t A).

Preuve. Cela revient au fait que rang(u) = rang( t u) où u, et t u sont respec-
tivement les endomorphismes associées à A et t A.

47
Chapitre 3

Déterminant d’une matrice


carrée et systèmes de Cramer

3.1 Déterminant d’un système de vecteurs


L’idée du déterminant vient de la volonté d’associé à un système de vecteurs,
un nombre de sorte que le système est lié si et seulement si ce nombre est nul.
• Rappelons que géométriquement on a.
1. La surface du triangle ABC c’est: SABC = 1 |det(AB, ~ AC)|.
~
2

2. La surface du parallélogramme ABCD c’est: SABCD = |det(AB, ~ AC)|


~ =
~ ~ ~ ~
|det(AB, AD)| = |det(AC, AD)|, en prenant comme unité d’aire dans R2
l’aire du carré unité dont les côtés sont les vecteurs de la base canonique
e1 = (1, 0); e2 = (0, 1).

Figure 3.1 – Le parallélogramme ABCD.

~ AC)|
Mais Algébriquement comment passer de |det(AB, ~ ~ AD)|
à |det(AB, ~ et à
~ ~
|det(AC, AD)|?.

48
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer

~ AC)
On a det(AB, ~ = det(AB, ~ AB ~ + BC).
~ Alors si l’application ”det” vérifie
~ ~ ~ ~ ~ ~
det(AB, AB + BC) = det(AB, AB) + det(AB, BC) ~ (ie; bilinéaire) , et
~ AB)
det(AB, ~ = 0 (ie; Alternée) . On obtient le résultat:

~ AC)
det(AB, ~ = det(AB,
~ BC)
~ = det(AB,
~ AD)
~ car AD
~ = BC.
~

• De même; pour les trois vecteurs non coplanaires AB, ~ AD ~ et AE,


~ on défi-
~ ~ ~
nit |det(AB, AD, AE)| comme étant le volume du parallélépipède engendré par
ces vecteurs, en prenant comme unité de volume dans R3 , le volume du cube
unité dont les côtés sont les vecteurs de la base canonique e1 = (1, 0, 0), e2 =
(0, 1, 0), e3 = (0, 0, 1).

Figure 3.2 – Parallélépipède ABCDEFGH.

Voir qu’on peut écrire;


~ AD,
|det(AB, ~ AE)|
~ ~ AC,
= |det(AB, ~ AE)|
~ ~ AD,
= |det(AB, ~ AF
~ )| = . . . ,

en tenant compte du fait que ”det” est une application trilinéaire alternée.
• En général: la valeur absolue du déterminant de n vecteurs dans l’espace
vectoriel E est donné par le volume du parallélotope engendré par ce système de
n vecteurs. La définition algébrique du déterminant nécessite d’abord la définition
d’ une application multilinéaire alternée.

3.1.1 Applications multilinéaires alternées


Définition 3.1.1. Soit E un espace vectoriel de dimension n sur K. L’application;

f : E n −→ K

49
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer

(u1 , u2 , . . . , un ) −→ f (u1 , u2 , . . . , un )
est dite n-linéaire si elle vérifié:
f (u1 , u2 , . . . , α.ui +β.u0i , . . . , un ) = α.f (u1 , u2 , . . . , ui , . . . , un )+β.f (u1 , u2 , . . . , u0i , . . . , un ), ∀ ui , u0i ∈
E avec i = 1, 2 . . . , n et ∀α, β ∈ K; c’est à dire qu’elle est linéaire par rapport à chacune
des variables
• Elle est dite alternée si:
f (u1 , u2 , . . . , ui . . . , uj , . . . , un ) = −f (u1 , u2 , . . . , uj . . . , ui , . . . , un ), ∀ i 6= j; c’est à dire
que l’échange de 2 variables la transforme en son opposé.

Exemples 3.1.2. • L’application;

f : R × R −→ R

(x, y) −→ 3xy
est une forme bilinéaire mais n’est pas alternée.
• L’application;
f : R2 × R2 −→ R
(X, Y ) −→ x1 y2 − x2 y1
   
x1 y1
où X = ,Y = ; est une forme bilinéaire alternée.
x2 y2
Remarque 3.1.3. Quand on aura 2 fois même vecteur, la forme est égale à
son opposé et donc nulle; c’est à dire f (u1 , u2 , . . . , ui . . . , ui , . . . , un ) = 0, ∀ i =
1, 2, . . . , n.

Théorème 3.1.4. Soit E un espace de dimension fini n et B une base de E.


Si f est n-linéaire alternée et si f (e1 , e2 , . . . , en ) = 1, alors l’application f est
complètement définie (ie; elle est définie d’une façon unique);

f : E n −→ K

(v1 , v2 , . . . , vn ) −→ f (v1 , v2 , . . . , vn )
Preuve. Pour la simplicité, on montre ce théorème dans le cas de n = 2. Notons
v1 = α1 e1 + β1 e2 ; v2 = α2 e1 + β2 e2 . On a

f (v1 , v2 ) = f (α1 e1 + β1 e2 , α2 e1 + β2 e2 )
= α1 α2 f (e1 , e1 ) + α2 β1 f (e2 , e1 ) + β2 α1 f (e1 , e2 ) + β1 β2 f (e2 , e2 )
= (β2 α1 − α2 β1 ) ×f (e1 , e2 ).
| {z }
detB (v1 ,v2 )

Donc f est bien définie par f (e1 , e2 ), et par les composantes de v1 , et v2 . Pour une
valeur donnée de f (e1 , e2 ), par exemple f (e1 , e2 ) = 1, il existe une unique application
définie par l’expression (β2 α1 − α2 β1 ).

50
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer

Définition 3.1.5. Soit E un espace vectoriel de base B = (e1 , e2 , . . . , en ). on appelle


determinant dans la base B, l’unique application n-linéaire alternée qu’on note detB .

detB : E n −→ K

(v1 , v2 , . . . , vn ) −→ detB (v1 , v2 , . . . , vn )


et vérifiant detB (e1 , e2 , . . . , en ) = 1.

Remarque 3.1.6. Le calcul de detB (v1 , v2 , . . . , vn ) se fait via les composantes des
vecteurs vi , où i = 1, 2, . . . , n ( voir la démonstration du théorème précédent).

Proposition 3.1.7. Soit E un espace vectoriel de base B = (e1 , e2 , . . . , en ), et soit


f : E n −→ K une application n-linéaire alternée, alors ∀ (v1 , v2 , . . . , vn ) ∈ E n ;

f (v1 , v2 , . . . , vn ) = f (e1 , e2 , . . . , en ) × detB (v1 , v2 , . . . , vn ).

Preuve. On montre le résultat pour n = 2 et pour n > 2 se fait de la même manière.


Question: Comment change detB (v1 , v2 , . . . , vn ) si on change la base B ?.

Proposition 3.1.8. Soient E un espace vectoriel de dimension n, B = (e1 , e2 , . . . , en ) et B 0 =


(e01 , e02 , . . . , e0n ) des bases de E, on a:

detB 0 (v1 , v2 , . . . , vn ) = detB 0 (e1 , e2 , . . . , en ) × detB (v1 , v2 , . . . , vn ).

Preuve. Prendre f (v1 , v2 , . . . , vn ) = detB 0 (v1 , v2 , . . . , vn ), et on applique la proposition


précédente 3.1.7, on obtient: f (v1 , v2 , . . . , vn ) = f (e1 , e2 , . . . , en ) ×detB (v1 , v2 , . . . , vn ).
| {z }
detB 0 (B)
D’où le résultat.

Corollaire 3.1.9. detB (B 0 ) × detB 0 (B) = 1.

Preuve. Il suffit d’appliquer la proposition précédente, on remplace (v1 , v2 , . . . , vn ) par


B 0 = (e01 , e02 , . . . , e0n ).

Propriétés 3.1.10. 1. Si un vecteur est combinaison linéaire des autres vecteurs,


le déterminant est nul.
2. Si on ajoute à un vecteur une combinaison linéaire des autres vecteurs ne change
pas le déterminant.
3. detB (λv1 , λv2 , . . . , λvn ) = λn × detB (v1 , v2 , . . . , vn ).
4. (v1 , v2 , . . . , vn ) libre ⇐⇒ detB (v1 , v2 , . . . , vn ) 6= 0.

Preuve. 1) 2) et 3) se déduisent directement de la définition de l’application det.


Pour 4) on a;
. ⇐=) S’obtient à partir de la propriété 1)
. =⇒) Si (v1 , v2 , . . . , vn ) est libre, alors c’est une base, donc d’après le corollaire
précédent detB (v1 , v2 , . . . , vn ) 6= 0.

51
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer

3.2 Déterminant d’un endomorphisme


L’idée du determinant d’un endomorphisme peut venir de la question suivante:
”comment change le volume d’un objet quand on transforme cet objet par un endomor-
phisme”?. On est d’abord en face de la proposition suivante:
Proposition 3.2.1. Soit E un e. v de base B = (e1 , e2 , . . . , en ) et f : E −→ E un
endomorphisme de E, on a:
i) ∀ (v1 , v2 , . . . , vn ) ∈ E n ; detB (f (v1 ), f (v2 ), . . . , f (vn )) = detB (f (e1 ), f (e2 ), . . . , f (en ))×
detB (v1 , v2 , . . . , vn ).

ii) Si B 0 = (e01 , e02 , . . . , e0n ) une autre base de E, alors


detB 0 (f (e01 ), f (e02 ), . . . , f (e0n )) = detB (f (e1 ), f (e2 ), . . . , f (en )),
cela veut dire que detB (f (e1 ), f (e2 ), . . . , f (en )) ne dépend que de f et non de la
base B de E.
Preuve. i) posons g(v1 , v2 , . . . , vn ) = detB (f (v1 ), f (v2 ), . . . , f (vn )). On vérifie que
g est une application multilinéaire alternée, et d’après la proposition 3.1.7;
g(v1 , v2 , . . . , vn ) = g(e1 , e2 , . . . , en ) × detB (v1 , v2 , . . . , vn ). D’où le résultat.
ii) On utilise la proposition de changement de base 3.1.8 et la propriété i) puis le
corollaire précédent.
Définition 3.2.2. Soit E un espace vectoriel de dimension finie n. Soit B = (e1 , e2 , . . . , en )
une base de E et f : E −→ E un endomorphisme de E. le scalaire;
detB (f (e1 ), f (e2 ), . . . , f (en ))
s’appelle déterminant de l’endomorphisme f et se note simplement par det(f ), car il
ne dépend pas de la base B = (e1 , e2 , . . . , en ).
Proposition 3.2.3. Soit E un espace vectoriel de dimension finie n. Soit B = (e1 , e2 , . . . , en )
une base de E et f : E −→ E un endomorphisme de E; (f ∈ L(E)). On a;
f bijéctif ⇐⇒ det(f ) 6= 0.
Preuve. En effet: f est bijectif si et seulement si (f (e1 ); f (e2 ); . . . f (en )) est libre.
Proposition 3.2.4. Soit E un espace vectoriel de dimension finie n, soient f ; g ∈ L(E)
des endomorphismes de E, on a :
det(f ◦ g) = det(f ) × det(g).
Par conséquent si f est un automorphisme de E, alors det(f −1 ) = 1
det(f ) .
Preuve. On a;
 
detB (f ◦ g) = detB f (g(e1 )), f (g(e2 )), . . . , f (g(en ))
   
= detB f (e1 ), f (e2 ), . . . , f (en ) × detB g(e1 ), g(e2 ), . . . , g(en ) .

D’où le résultat. Si f est un automorphisme de E alors f ◦ f −1 = IdE , donc detB (f ◦


f −1 ) = detB (IdE ) = detB (e1 , e2 , . . . , en ) ce qui implique det(f ) × det(f −1 ) = 1, d’où
det(f −1 ) = det(f
1
).

52
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer

3.3 Déterminant d’une matrice carrée


Définition 3.3.1. Soit A ∈ Mn (K). La matrice A s’interprète comme étant la matrice
associé à un endomorphisme f d’un espace vectoriel E de dimension n relativement à
une base B donnée. On définit donc le déterminant de A comme étant le déterminant
de f, ie; detB (A) = detB (f ). Autrement dit; le déterminant de A c’est le déterminant
du système de vecteurs formé par les colonnes de A relativement à la base B. On le
note detB (A).
Propriétés 3.3.2. 1. ∀ A, D ∈ Mn (K) : detB (A × D) = detB (A) × detB (D).
2. Si A est inversible, alors detB (A−1 ) = detB1(A) .
3. Si A et D sont semblables, c.a.d; D = P −1 AP alors detB (D) = detB (A).
4. ∀ A ∈ Mn (K) : A est inversible ⇐⇒ detB (A) 6= 0.
Preuve. Comme exercice.
Théorème 3.3.3. Le déterminant d’une matrice A ne dépend pas de la base choisie;
c.a.d si B et B 0 sont deux bases de E, alors detB (A) = detB 0 (A). Donc il suffit de le
noter dans ce qui suit par det(A).
Preuve. Soit A = MB (f ) = MB 0 (g). Notons A0 = MB 0 (f ) et P la matrice de pas-
sage de B à B 0 . On a alors A0 = P −1 AP, donc d’après la propriété 3) précédente:
detB 0 (A0 ) = detB 0 (A) et detB (A0 ) = detB (A). Or detB 0 (A0 ) = detB 0 (f ) = detB 0 (A) =
detB 0 (g) et detB (A) = detB (f ), en autre detB 0 (f ) = detB (f ), alors detB 0 (A) = detB (A).
Exercice. Soit E un espace vectoriel sur K, B = (e1 , e2 , . . . , en ) une base de E. Notons
f une application définie par; f : E n −→ K, tel que
X
f (V1 , V2 , . . . , Vn ) = ε(σ)aσ(1)1 × aσ(2)2 × · · · × aσ(n)n
σ∈Sn
 
a1j
 a2j  n
X
où Vj =  .  , ie; Vj = akj j ekj et Sn s’appelle le groupe des permutations
 
 .. 
kj =1
anj
Y σ(j) − σ(i)
(dit aussi groupe symétrique) et ε(σ) = où ε s’appelle la signature
j−i
1≤i<j≤n
de σ.
1. Montrer que f est une application n-linéaire alternée.
2. Vérifier que f (e1 , e2 , . . . , en ) = 1.
X
3. En déduire que detB (V1 , . . . , Vn ) = ε(σ)aσ(1)1 × aσ(2)2 × · · · × aσ(n)n .
σ∈Sn
4. Soit A = (aij )1≤i,j≤n une matrice carrée d’ordre n. Montrer que
X
det(A) = ε(σ)aσ(1)1 × aσ(2)2 × · · · × aσ(n)n .
σ∈Sn

En déduire que det( t A) = det(A).


D’où le théorème suivant:
Théorème 3.3.4. ∀ A ∈ Mn (K) : det( t A) = det(A).

53
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer

3.4 Calcul du déterminant d’une matrice carrée


Les propositions précédentes montrent que les calculs de déterminant se ramènent
tous a celui d’une matrice, la proposition suivante donne une formule de récurrence très
pratique pour calculer le déterminant d’une matrice carrée:

Proposition 3.4.1. Soit A = (aij ) une matrice carré d’ordre n, et soit Aij
1≤i≤n
1≤j≤n
la matrice déduite de A en supprimant la ligne i et la colonne j, on a:
Xn
i) ∀ j; det(A) = (−1)i+j aij det(Aij ). Développement par rapport à la j iéme
i=1
colonne.
n
X
ii) ∀ i; det(A) = (−1)i+j aij det(Aij ). Développement par rapport à la i iéme
j=1
ligne.

Ainsi ces formules ramènent le calcul du determinant d’une matrice A d’ordre n au


calcul des déterminants des matrices Aij d’ordre n − 1.

Preuve. Par récurrence sur l’ordre n de la matrice A.

Exemples 3.4.2. Calculer le déterminant de certaines matrices particulières.


   
a11 0 ··· 0 a11 a12 · · · a1n
 0 a22 ··· 0   0 a22 · · · a2n 
A= . ; A =
   
.. .. ..  .. .. .. .. 
 ..

. . .   . . . . 
0 0 · · · ann 0 0 · · · ann

Propriétés 3.4.3. 1. Le determinant d’une matrice est inchangé si on ajoute à


une ligne (resp colonne) une combinaison linéaires des autres lignes (resp des
autres colonnes).
2. Si on multiplie une ligne ou une colonne d’une matrice par un scalaire, le det(A)
est multiplié par ce scalaire.
3. Si λ est un scalaire et A une matrice carrée d’ordre n, alors det(λA) = λn det(A).
4. Si on permute deux lignes (resp deux colonnes) le déterminant est multiplié par
-1.

Preuve. Laissé aux étudiants.

Proposition 3.4.4. Soient A ∈ Mn (K), B ∈ Mn,p (K), et C ∈ Mp (K). On a;


 
A B
det = det(A) × det(C).
0Mp,n C

Avec 0Mp,n ici est une matrice nulle de Mp,n .

54
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer

     
A B In 0Mn,p A
B
Preuve. Remarquez que = ×, donc
0Mp,n C 0Mp,n C 0Mp,n Ip
     
A B In 0Mn,p A B
det = det × det .
0Mp,n C 0Mp,n C 0Mp,n Ip
 
In 0Mn,p
Pour det , en développant par rapport à la première ligne, on trouve
0Mp,n C
   
In 0Mn,p A B
que det = det(C), et pour det , en développant par
0Mp,n C 0Mp,n Ip
 
A B
rapport à la deuxième ligne, det = det(A). D’où le résultat.
0Mp,n Ip
Proposition 3.4.5. Soit A une matrice carrée inversible. On a: A−1 = det(A)
1 t com(A),

où com(A) = (Lij ) , avec Lij = (−1)i+j det(Aij ), et qui s’appelle la coma-
1≤i≤n
1≤j≤n
trice de A.
Preuve. Le calcul de t com(A) × A donne le det(A) pour les termes de la diago-
nale et 0 pour les autres, ( cela revient à développer undéterminant qui a 2 co-

L11 L12 · · · L1n
 L21 L22 · · · L2n 
lonnes identiques), en effet: D’abord posons, com(A) =  . .. ,
 
.. ..
 .. . . . 
Ln1 Ln2 · · · Lnn
 
L11 L21 ··· Ln1
 L12 L22 ··· Ln2 
donc t com(A) =  .  et montrons que t com(A) × A =
 
.. .. ..
 .. . . . 
L1n L2n · · · Lnn
     
L11 L21 · · · Ln1 a11 a12 ··· a1n det(A) 0 ··· 0
 L12 L22 · · · Ln2   a21 a22 ··· a2n   0 det(A) · · · 0 
.. × = .
     
 .. .. . . .. .. .. .. .. .. .. ..
 . . . .   . . . .   . . . . 
L1n L2n · · · Lnn an1 an2 ··· ann 0 0 ··· det(A)
X n
Il est claire que ∀ j; aij Lij = det(A) donc les coefficients diagonaux sont égaux à
i=1
n
X
det(A). Il nous reste à montrer que aij Lik = 0, pour tout couple (j, k) tq j 6= k,
i=1
notons B = (bir )ir la matrice obtenue en remplaçant dans A la k-iéme colonne par
la j-iéme colonne de A, alors d’une part det(B) = 0 car la matrice B contient deux
colonnes identiques. D’autre part; on calcule det(B) en développant par rapport à la
Xn X n n
X
i+k
k-iéme colonne on a det(B) = (−1) bik det(Bik ) = bik Lik = aij Lik , d’où
i=1 i=1 i=1
n
X
aij Lik = 0; ∀ (j, k) tq j 6= k.
i=1
Remarque 3.4.6. Toutefois cette formule n’a qu’un intérêt théorique puisqu’elle exige
le calcul de n2 déterminants ce qui est trop même si n = 3.

55
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer

3.5 Application aux systèmes linéaires


Reprenons le système linéaire général:


 a11 x1 + a12 + · · · + a1n xn = b1
 a21 x1 + a22 + · · · + a2n xn = b2

..


 .
am1 x1 + am2 + · · · + amn xn = bm

Ce système s’écrit sous forme matricielle comme suivante:


     
a11 a12 . . . a1n x1 b1
 a21 a22 . . . a2n   x2   b2 
..  ×  ..  = 
     
 .. .. .. .. 
 . . . .   .   . 
am1 am2 . . . amn xm bm

3.5.1 Méthode de Cramer.


Définition 3.5.1. Un système linéaire est dit de Cramer si sa matrice est carrée et
inversible; c’est à dire son déterminant est non nul.

Si A ∈ Mn (K) est
 inversible,
 le système
 A.X = b admet une solution unique, c’est
x1 b1
 x2   b2 
X = A−1 b, où X =  .  et b =  .  . On a la proposition suivante:
   
.
 .   . .
xn bm

Proposition 3.5.2. La formule de Cramer est: xi = det(A i)


det(A) où 1 ≤ i ≤ n et Ai c’est
la matrice A telle que la i ème colonne est remplacée par le vecteur b.
 
x1
 x2 
Remarque 3.5.3. Pour obtenir X =  .  il faut effectuer (n + 1) déterminant et
 
 .. 
xn
n divisions, de plus dans chaque det(Ai ) ou det(A), il y a (n − 1) × n! multiplications et
n!−1 additions. La somme des opérations est: (n+1)×(n−1)×n!+(n+1)×(n!−1)+n =
(n2 + n) × n! − 1.

Exercice. Résoudre les systèmes linéaires suivantes:


 
 x1 + 2x2 − x3 = 1  3x1 − 5x2 + x3 = 1
2x1 − 3x2 + 2x3 = −2 ; x1 + 2x2 − 3x3 = 2
3x1 + x2 − x3 = 3 5x1 − 12x2 + 5x3 = −3
 

56
Chapitre 4

Réduction des endomorphismes


et des matrices carrées

4.1 Valeurs propres- Vecteurs propres d’un en-


domorphisme
Définition 4.1.1. Soit E un espace vectoriel sur K et f ∈ L(E, E) un endomorphisme.
1. Soit λ ∈ K; on dit que λ est une valeur propre (vp) de f si et seulement si
∃ u ∈ E − {0} tq f (u) = λ.u.
2. Soit u ∈ E; on dit que u est un vecteur propre (~v p) de f si et seulement si
u 6= 0 et ∃λ ∈ K tel que f (u) = λ.u.
3. On appelle spectre de f qu’on note Sp(f ) l’ensemble des valeurs
λ ∈ K tq f − λIdE n’est pas bijective. Dans le cas de dim(E) < +∞ le spectre
de f est exactement l’ensemble des valeurs propres de f.

• Dans tout ce qui suit on s’intéresse au cas de dimension finie.

57
Chapitre 4. Réduction des endomorphismes et des matrices carrées

Remarque 4.1.2. i) Dans le cas de dimension finie (dim(E) < +∞), on a:


f (u) = λu ⇐⇒ (f − λ.IdE )(u) = 0, avec u 6= 0
⇐⇒ Ker(f − λ.IdE ) 6= {0}
⇐⇒ (f − λ.IdE ) n’est pas injective
⇐⇒ (f − λ.IdE ) n’est pas bijective ( cela d’après le ch 2).
donc le Sp(f ) dans ce cas est exactement l’ensemble des valeurs propres de f.
ii) Dans le cas de dimension finie (dim(E) = n), et A une matrice associée à
f ; (A ∈ Mn (K)). λ est une valeur propre de f équivalent λ est une valeur propre
de A c’est à dire: ∃ u ∈ E − {0} tq A.u = λ.u, dans ce cas Sp(f ) = Sp(A), et u
s’appelle aussi vecteur propre de A associé à la valeur propre λ.
iii) Par définition un vecteur propre n’est jamais nul.
Exemples 4.1.3. Soit  
2 1 1
A= 1 2 1 
1 1 2
     
1 1 1
On a; A.  1  = 4.  1  . Donc 4 ∈ Sp(A), et le vecteur  1  c’est le vecteur
1 1 1
propre associé à la valeur propre 4.
• Pour un exemple dans le cas de dimension infinie, on prend par exemple:
f : R[X] −→ R[X]
P −→ (X + 1).P 0
voir par exemple f ((X + 1)3 ) = (X + 1) × 3(X + 1)2 = 3(X + 1)3 . Donc (X + 1)3 est
un vecteur propre associé à la valeur propre 3. Alors cherchez d’autres?.
Proposition 4.1.4. Soient E un espace vectoriel de dimension finie sur K, λ ∈ K, f ∈
L(E, E) et A sa matrice associée. On a;
1.
λ ∈ Sp(f ) ⇐⇒ ∃ u 6= 0; tq f (u) = λ.u
⇐⇒ ∃ u 6= 0; tq (f − λ.IdE )(u) = 0
⇐⇒ ker(f − λ.IdE ) 6= {0}
⇐⇒ f − λIdE n’est pas bijective
⇐⇒ det(f − λIdE ) = 0
2.
λ ∈ Sp(A) ⇐⇒ ∃ u 6= 0; tq A.u = λ.u
⇐⇒ ∃ u 6= 0; tq (A − λ.In ).u = 0
⇐⇒ ker(A − λ.In ) 6= {0}
⇐⇒ A − λIn n’est pas inversible
⇐⇒ det(A − λIn ) = 0
⇐⇒ rg(A − λ.In ) < n.

58
Chapitre 4. Réduction des endomorphismes et des matrices carrées

Exercice. 1. On note GLn (K) l’ensemble des matrices carrées inversibles. Montrer
que A ∈ GLn (K) ⇐⇒ 0 6∈ Sp(A).
2. Soit A une matrice carrée d’ordre n. Supposons que les sommes de toutes ses
lignes (ou de toutes ses colonnes) sont égales à la même valeur α. Montrer que
α est une valeur propre de A.

Définition 4.1.5. Pour toute valeur propre λ de f, le sous espace vectoriel noté Eλ =
Ker(f − λIdE ) de E est formé par des vecteurs propres associés à λ plus le vecteur nul.
Il est appelé sous-espace propre pour f associé à λ. Autrement dit;

Eλ = {u ∈ E − {0} | f (u) = λ.u} ∪ {0}.

Dans le cas de dimension finie; si A une matrice carrée d’ordre n et λ une valeur propre
de A, alors Eλ = Ker(A − λIn ) est appelé sous-espace propre pour A associé à λ.

4.2 Diagonalisation d’un endomorphisme ou d’une


matrice carrée
Soit f un endomorphisme de E tel que dim(E) est finie. L’objectif c’est de chercher
une base de E de vecteurs propres dans la quelle la matrice associée à f est diagonale.

Définition 4.2.1. 1. Un endomorphisme f ∈ L(E) est diagonalisable s’il existe


une base de E dans la quelle la matrice de f est diagonale, c’est-à-dire s’il existe
une base de E formée de vecteurs propres de f, comme suivante:
 f (u )=λ .u f (u )=λ .u f (un )=λn .un

1 1 1 2 2 2
z}|{ z}|{ z}|{

 λ1 0 ··· 0 


 0 λ2 ··· 0 

 .
. .
. . . .
.

 . . . . 
0 0 ··· λn (u1 ,u2 ,...,un )

2. Une matrice carrée A est diagonalisable si elle est semblable à une matrice
diagonale D, c’est-à-dire si elle s’écrit sous la forme; A = P DP −1 où P est la
matrice de passage de la première base à une base de vecteurs propres de A et
D une matrice diagonale.

Remarque 4.2.2. i) Si A = M atB (f ); alors f est diagonalisable ssi A est dia-


gonalisable. En effet; si f est diagonalisable, alors il existe une base B 0 des
vecteurs propres de f, et D = M atB 0 (f ) est une matrice diagonale ce qui donne
−1
A = PBB 0 DPBB 0 , donc A est diagonalisable. Pour l’inverse; supposons que A est

diagonalisable, alors elle est semblable à une matrice diagonale noté D qui n’est
autre qu’une matrice associée à l’endomorphisme f dans une base des vecteurs
propres et donc f est diagonalisable.
ii) Tout matrice diagonale est diagonalisable.
iii) Pour diagonaliser un endomorphisme ou sa matrice associée, il faut trouver
d’abord les valeurs propres, puis les espaces propres associées.

59
Chapitre 4. Réduction des endomorphismes et des matrices carrées

4.2.1 Polynôme caractéristique


Définition 4.2.3. 1. Soit A ∈ Mn (K). L’application

PA : K −→ K

λ −→ PA (λ) = det(A − λIn )


est un polynôme, appelé polynôme caractéristique associé à la matrice A.
2. Soit f ∈ L(E); Pf (λ) = det(f − λIdE ) est un polynôme appelé polynôme carac-
téristique de f.

Remarque 4.2.4. i) Deux matrices semblables ont même polynôme caractéris-


tique.
ii) λ ∈ Sp(A) ⇐⇒ PA (λ) = 0.

Proposition 4.2.5. Soient n ≥ 2, A ∈ Mn (K). On a ∀λ ∈ K;

PA (λ) = (−1)n λn + (−1)n−1 tr(A).λn−1 + βn−2 λn−2 · · · + β1 λ + β0 ,


n
X
où β0 = det(A) et tr(A) = aii ; c’est à dire c’est la somme des coefficients diagonaux,
i=1
il s’appelle la trace de la matrice A. En particulier PA est de degré n.

Preuve. On utilise l’expression de calcul du ”det”, puis le fait que β0 = PA (0) = det(A).

Définition 4.2.6. Soient f ∈ L(E), (resp, A ∈ Mn (K)), et λ une valeur propre de f,


( resp de A). On appelle ordre de multiplicité de λ qu’on note mλ son ordre en tant que
racine du polynôme caractéristique Pf (X), (resp PA (X)); c’est à dire est le plus grand
entier positif mλ tel que (X − λ)mλ divise Pf (X), (resp (X − λ)mλ /PA (X)). Autrement
(m −1) (m )
dit; Pf (λ) = Pf0 (λ) = · · · = Pf λ (λ) = 0, mais Pf λ (λ) 6= 0.

Exemples 4.2.7. Soit  


2 1 1
A= 1 2 1 
1 1 2
1. Déterminer les valeurs propres de A et donner leurs multiplicités.
2. Déterminer les vecteurs propres associes à chaque valeur propre.

Exercice. Soit  
8 12 10
A =  −9 −22 −22 
9 18 17
1. Déterminer les valeurs propres de A et donner leurs multiplicités.
2. Déterminer les vecteurs propres associes à chaque valeur propre.

60
Chapitre 4. Réduction des endomorphismes et des matrices carrées

4.2.2 Étude pratique de diagonalisation


En vertu du problème de la diagonalisation des matrices, les deux lemmes suivants
vont jouer un rôle très important:

Lemme 4.2.8. Soient f ∈ L(E), et λ1 , λ2 , . . . , λk , des valeurs propres de f distinctes


deux à deux et Eλ1 , Eλ2 , . . . , Eλk les sous espace propres associée respectivement à
λ1 , λ2 , . . . , λk . On a la somme Eλ1 + Eλ2 + · · · + Eλk est directe; c’est à dire Eλ1 +
Eλ2 + · · · + Eλk = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλk .

Preuve. (Indication: Par récurrence sur k).

Lemme 4.2.9. Soient E un espace vectoriel de dimension n , f ∈ L(E) un endo-


morphisme dont sa matrice associée dans la base canonique est noté par A , λ ∈
Sp(f ), et mλ son ordre de multiplicité. On a 1 ≤ dim(Eλ ) ≤ mλ .

Preuve. On pose dim(Eλ ) = d. Puisque Eλ = Ker(f − λ.IdE ) 6= {0}, on a dim(Eλ ) ≥


1. D’autre part Eλ admet au moins une base qu’on note Bλ = (e1 , e2 , . . . , ed ), et d’après
le théorème de la base incomplète il existent ed+1 , ed+2 , . . . , en dans E tel que B =
(e1 , e2 , . . . , ed , ed+1 , . . . , en ) soit une base de E. Il existe, alors C ∈ Md,n−d (K) et B ∈
Mn−d (K) telles que  
λ.Id C
M atB (f ) = ,
0 B
 
(λ − X).Id C
d’où Pf (X) = det = (λ − X)d × det(B − X.In−d ) =
0 B − X.In−d
(λ − X)d .PB (X). Donc (λ − X)d /Pf (X), ceci implique que (X − λ)d /Pf (X); c’est à
dire (X − λ)d divise Pf (X), alors d ≤ mλ .

Corollaire 4.2.10. Si λ une valeur propre simple ( ie; de multiplicité 1), alors dim(Eλ ) =
1.

Proposition 4.2.11. Soient E un e.v de dimension n, f ∈ L(E) et λ1 , λ2 , . . . , λk des


valeurs propres de f. Les propriétés suivantes sont équivalentes.
1. f est diagonalisable.
2. Il existe une base de E formée de vecteurs propres dans la quelle la matrice
associée à f est diagonale.
3. Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλk = E.
Xn
4. dim(Eλi ) = dim(E).
i=1

Preuve. Voir le livre ” Algèbre et Géométrie” (Jean- Marie Monier).

Théorème 4.2.12. (C.N.S de diagonalisation).


1. Soient E un e.v de dimension n, f ∈ L(E) un endomorphisme. f est diagonali-
sable si et seulement si;
a) Pf est scindé sur K; c’est à dire Pf est produit de polynômes de degrés 1
dans K[X], en comptant les multiplicités.

61
Chapitre 4. Réduction des endomorphismes et des matrices carrées

b) Pour chaque valeur propre λ de f dim(Eλ ) est égale à l’ordre de la multipli-


cité de λ .
2. Soit A ∈ Mn (K). A est diagonalisable ssi;
a) PA est scindé sur K; c’est à dire PA est produit de polynômes de degrés 1
dans K[X], en comptant les multiplicités.
b) Pour chaque valeur propre λ de A dim(Eλ ) est égale à l’ordre de la multi-
plicité de λ.

Preuve. On utilise les lemmes et proposition précédente. Notons dλ = dim(Eλ ) et mλ


l’ordre de multiplicité de λ.
=⇒) Supposons f est diagonalisable; donc d’après
X le deuxième lemme et la pro-
position précédente on a dλ ≤ mλ et n = dλ . D’autre part il existe une
λ∈Sp(f )
base B 0 de E formée des vecteurs propres associées respectivement à les valeurs
propres λ1 , λ2 , . . . , λk tels que
 
λ1 0 ... 0
 0 λ2 . . . 0 
M atB 0 (f ) =  .
 
.. . . ..
 ..

. . . 
0 0 ... λk

Yk
On a donc ∀ λ ∈ K : Pf (X) = det(M atB 0 (f ) − X.In ) = (λi − X). Ainsi Pf
X X i=1
est scindé est donc mλ = n = dλ , et or 1 ≤ dλ ≤ mλ , alors
λ∈Sp(f ) λ∈Sp(f )
nécessairement pour chaque λ, on aura dλ = mλ .
⇐=) Réciproquement; supposons Pf est scindé et ∀ λ ∈ Sp(f ); dλ = mX λ . Puisque
Pf est scindé et que les racines de Pf sont des valeurs propres, alors mλ =
λ∈Sp(f )
X
n. D’où dλ = n, et donc f est diagonalisable.
λ∈Sp(f )

Exemples 4.2.13. Montrer que


 
2 0 1
A =  1 1 1  ∈ M3 (R)
−2 0 −1

est diagonalisable puis diagonaliser A.

Corollaire 4.2.14. 1. Soient E un e.v de dimension n, et f ∈ L(E), un endo-


morphisme. Si f admet n valeurs propres deux à deux distinctes, alors f est
diagonalisable.
2. Soit A ∈ Mn (K). Si A admet n valeurs propres deux à deux distinctes, alors A
est diagonalisable.

62
Chapitre 4. Réduction des endomorphismes et des matrices carrées

Preuve. Or Pf (X) = det(f − X.IdE ) de degré n, et admet n racines distincts deux


n
Y
à deux, λ1 , λ2 , . . . , λn alors Pf (X) = (−1)n (X − λi ), donc il est scindé. De plus
i=1
on sait que 1 ≤ dim(Eλi ) ∀ λi , donc dim(Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλn ) ≥ n et puisque
Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλn est un sous groupe de E, alors dim(Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλn ) = n,
donc nécessairement dim(Eλi ) = 1 ∀ i, d’où d’après le théorème 4.2.12 précédent f est
diagonalisable.

4.3 Trigonalisation d’un endomorphisme


Définition 4.3.1. 1. Soient E un e.v de dimension n, f ∈ L(E) un endomor-
phisme. On dit que f est Trigonalisable si et seulement s’il existe une base B de
E telle que M atB (f ) soit triangulaire.
2. Soit A ∈ Mn (K). On dit que A est trigonalisable si et seulement s’il existe une
matrice triangulaire T de Mn (K) semblable à A; c’est à dire la donnée de deux
matrices P inversible et T triangulaire telles que A = P T P −1 .
Remarque 4.3.2. i) Toute matrice diagonanlisable est trigonalisable.
ii) Toute matrice triangulaire est trigonalisable.
iii) Toute matrice triangulaire inférieure est semblable à une matrice triangulaire
supérieure, et réciproquement.
 En effet si T est
 une matrice triangulaire in-
0 0 ··· 0 1
 0 0 ··· 1 0 
 
 .. .. 
férieure, en notant P =   . . 1 0  , on a P est inversible, P =

 .. .. 
 . . ··· 0 0 
1 0 0 ··· 0
P −1 et P T P −1 est triangulaire supérieure.
iv) Si un endomorphisme f ∈ L(E) est trigonalisable, alors les éléments diagonaux
d’une matrice triangulaire représentant f sont les valeurs propres de f.
Théorème 4.3.3. 1. Soit f ∈ L(E) un endomorphisme. Les deux propriétés sui-
vantes sont équivalentes:
i) f est trigonalisable.
ii) Pf est scindé sur K.
2. Soit A ∈ Mn (K) une matrice. Les deux propriétés suivantes sont équivalentes:
i) A est trigonalisable.
ii) PA est scindé sur K.
Preuve. D’abord il faut savoir que f est trigonalisable ssi sa matrice associée est tri-
gonalisable. Donc notons par exemple A la matrice associée à f dans la base canonique
B.
i) =⇒ ii) Supposons que f est trigonalisable, alors
 A est trigonalisable;c’est à dire il
T11 ∗ · · · ∗
 0 T22 · · · ∗ 
existe une matrice triangulaire supérieure T =  . ..  telle que A
 
.. ..
 .. . . . 
0 0 ··· Tnn

63
Chapitre 4. Réduction des endomorphismes et des matrices carrées

est semblable à T. Or det(A − X.In ) = det(T − X.In ), car A − X.In est T − X.In sont
Yn
aussi semblables, donc Pf (X) = PA (X) = (Tii − X) qu’est scindé.
i=1
Inversement: ii) =⇒ i); on suppose que PA (X) est scindé, par récurrence sur n; (dim(E) =
n), et on montre que A est trigonalisable.
• Pour n=1 la propriété est triviale.
• Hypothèse de récurrence: supposons que la propriété est vraie pour n ≥ 2, et soit
A ∈ Mn+1 (K) telle que PA (X) soit scindé, alors
 A admet
 au moins une valeur propre λ1
x1
 x2 
et un vecteur propre qui lui est associée U1 =  .  . D’après le théorème de la base
 
.
 . 
xn+1
vecteurs deE tel que B 0 = {U1 , U2 , U3 , . . . , Un+1 }
incomplète; il existe U2 , U3 , . . . , Un+1 
λ1 L
est une base de E et M atB 0 (f ) = , avec L ∈ M1,n (K) est un vecteur
Oc D
 
0
 0 
ligne de n colonnes et Oc ∈ Mn,1 (K) est un vecteur colonnes nul; ie: Oc =  .  ,
 
 .. 
0
et D est une matrice carrée; ici D ∈ Mn,n (K). Or A est semblable
 à M at B 0 (f ), alors

λ1 − X L
PA (X) = det(A − X.In+1 ) = det(M atB 0 (f ) − X.In+1 ) = det =
Oc D − X.In
(λ − X) × det(D − X.In ) = (λ1 − X) × PD (X). Or PA (X) est scindé, il en résulte que
PD (X) est aussi scindé sur K, donc d’après l’hypothèse de récurrence il existe Q matrice
−1
d’ordre n et 
inversible, et T ∈ Mn (K) une matrice triangulaire telle que  D = QT Q  .
1 OL 1 OL
Notons R = ∈ Mn+1 qu’est inversible et d’inverse R−1 = ,
Oc Q Oc Q−1
avec OL = (0, 0, ..., 0) ∈ M1,n est un vecteur ligne de n composantes nuls. Il reste
à montrer
 qu’il existe X∈ M1,n (K  vecteur ligne de n composantes tel que pour
λ1 X λ1 L
T1 = , on ait = RT1 R−1 . Il suffit de choisir X = L.Q, en effet:
Oc T Oc D
λ1 X.Q−1
       
−1 1 OL λ1 X 1 OL
RT1 R = . . = = M atB 0 (f ).
Oc Q Oc T Oc Q−1 Oc D
−1 −1 P −1 et cela montre que A est sem-
Donc on a A = PBB 0 M atB 0 (f )PBB 0 = PBB 0 RT1 R BB 0
 
λ1 X
blable à T1 = qu’est triangulaire supérieure, puisque T l’est. Donc A est
Oc T
diagonalisable.

Corollaire 4.3.4. 1. Soit E un espace vectoriel de dimension finie sur C. On a


tout endomorphisme sur E est trigonalisable.
2. Toute matrice carrée A ∈ Mn (C), est trigonalisable.

Preuve. D’après le théorème d’Alembert qui dit que tout polynôme dans C[X] est
scindé, alors d’après le théorème précédent, f (ou A) est trigonalisable.

64
Chapitre 4. Réduction des endomorphismes et des matrices carrées

4.3.1 Exemples de trigonalisation de matrices carrées.


Exemple 1. Trigonaliser la matrice
 
5 −17 25
A =  2 −9 16  ∈ M3 (R).
1 −5 6

Exemple 2. Trigonaliser la matrice


 
−2 2 −1
A =  −1 1 −1  ∈ M3 (R).
−1 2 −2

4.4 Polynômes d’endomorphismes-Polynômes


de Matrices
Définition 4.4.1. Soit P ∈ K[X] avec K = R ou K = C, comme suivant:

P = ar X r + ar−1 X r−1 + · · · + a0 .

1. Pour un endomorphisme f ∈ L(E), on note

P (f ) = ar f r + ar−1 f r−1 + · · · + a0 .IdE , avec f i = f ◦ f i−1 = f ◦ f ◦ · · · ◦ f


| {z }
i f ois

Il s’appelle polynôme d’endomorphisme f.


2. De même si A est une matrice carrée d’ordre n, on note

P (A) = ar Ar + ar−1 Ar−1 + · · · + a0 .In , avec Ai = A × Ai−1 = |A × A ×


{z· · · × A}
i f ois

Il s’appelle le polynôme de matrice A.

Remarque 4.4.2. i) P (f ) est aussi un endomorphismes de E dans E. En effet;


i
∀ i; f est aussi un endomorphisme de E, et la somme de deux endomorphismes
de E est un endomorphisme de E. Par contre P (A) est une matrice carrée.
ii) Soient E un espace vectoriel de dimension n et B une base de E. Si f ∈
L(E) et A = M atB (f ), alors M atB (P (f )) = P (A). (Vérifiez ça).
iii) On a 1(f ) = IdE et 1(A) = In .

Exemples 4.4.3. Soit E un espace de dimension n et f ∈ L(E), A ∈ Mn (K). Si


P (X) = 3X + 2, alors P (f ) = 3f + 2.IdE et P (A) = 3A + 2.In .

Proposition 4.4.4. L’application;

ϕ : K[X] −→ L(E)

P (X) = ar X r + ar−1 X r−1 + · · · + a0 7−→ P (f ) = ar f r + ar−1 f r−1 + · · · + a0 .IdE

65
Chapitre 4. Réduction des endomorphismes et des matrices carrées

est une application linéaire de (K[X], +, .) dans (L(E), +, .) car;

∀ α, β ∈ K : ϕ(α.P + β.Q) = αϕ(P ) + βϕ(Q);

c’est à dire ∀ α, β ∈ K; (α.P +β.Q)(f ) = α.P (f )+β.Q(f ). De plus il vérifie la propriété


suivante:
∀ P, Q ∈ K[X] : (P × Q)(f ) = P (f ) ◦ Q(f ).

Preuve. Comme exercice.

Proposition 4.4.5. 1. Soient f et g deux endomorphismes de E. Si f et g sont


commutent pour la loi ” ◦ ”(ie; f ◦ g = g ◦ f ), alors pour tous polynômes

P, Q ∈ K[X] : on a P (f ) ◦ Q(g) = Q(g) ◦ P (f ).

En particulier, pour tout f ∈ L(E) et tous P, Q ∈ K[X] : on a P (f ) ◦ Q(f ) =


Q(f ) ◦ P (f ).
2. Si A, B ∈ Mn (K) commutent (ie; A × B = B × A), alors pour tous polynômes

P, Q ∈ K[X] : on a P (A) × Q(B) = Q(B) × P (A).

En particulier, pour tout A ∈ Mn (K) et tous

P, Q ∈ K[X] : on a P (A) × Q(A) = Q(A) × P (A).

Preuve. 1. Soient f, g ∈ L(E), tels que g ◦ f = f ◦ g. On montre par récurrence


que: ∀ k ∈ N; g k ◦ f = f ◦ g k . Il résulte par la linéarité que:

∀ Q ∈ K[X]; Q(g) ◦ f = f ◦ Q(g).

De même on montre aussi ∀ k ∈ N; f k ◦ Q(g) = Q(g) ◦ f k , ce qui nous permet


d’écrire d’après la linéarité: ∀ P ∈ K[X]; Q(g) ◦ P (f ) = P (f ) ◦ Q(g). Enfin nous
aurons le résultat

∀ P, Q ∈ K[X] : on a P (f ) ◦ Q(f ) = Q(f ) ◦ P (f ).

2. Même méthode.

Définition 4.4.6. 1. Soient f ∈ L(E), P ∈ K[X]. On dit que P annule f ( ou P


est un polynôme annulateur de f ) si P (f ) = 0, (ie; P (f ) est l’endomorphisme
nul).
2. Soient A ∈ Mn (K), P ∈ K[X]. On dit que P annule A ( ou P est un polynôme
annulateur de A) si P (A) = 0, ( attention ici 0 signifie la matrice nulle).

Exemples 4.4.7. 1. Considérons f ∈ L(E) un projecteur,(ie; f ◦ f = f ), alors le


polynôme P = X 2 − X est un polynôme annulateur de f.
 
0 1
2. Soit A = ∈ M2 (R), on vérifie que le polynôme P = X 2 − 1 annule
1 0
A, (ie; A2 − I2 = 0).

66
Chapitre 4. Réduction des endomorphismes et des matrices carrées

Proposition 4.4.8. 1. Soient f ∈ LE, λ ∈ Sp(f ). Si x est un vecteur propre de


f associé à λ, on a alors:

∀ P ∈ K[X]; (P (f ))(x) = P (λ).x

2. A ∈ Mn(K), λ ∈ Sp(f ). Si x est un vecteur propre de A associé à λ, on a alors:

∀ P ∈ K[X]; P (A).x = P (λ).x

Preuve. 1. D’abord il faut montrer par récurrence; ∀ k ∈ N : f k (x) = λk .x, en-


Xr Xr Xr
k k
suite on a pour tout P = ak .X ; (P (f ))(x) = ( ak .f )(x) = ak .f k (x) =
k=0 k=0 k=0
r
X
ak .λk x = P (λ).x
k=0
2. Même méthode.

Remarque 4.4.9. 1. Dans le cas de dimension finie, si par exemple dim(E) = n


2
et puisque L(E) est de dimension n2 , alors le système (IdE , f, . . . , f n ) qui
comporte n2 + 1 éléments est lié. Il existe donc a0 , a1 , . . . , an2 non tous nuls,
n2
2
X
n
tel que a0 .IdE + a1 .f + · · · + an2 .f = 0. En notant P = ak X k , on a donc
k=0
P 6= 0 et P (f ) = 0. Ainsi f admet au moins un polynôme annulateur autre que
0.
2. De même une matrice A ∈ Mn (K) admet au moins un polynôme annulateur
autre que 0.
3. Attention: si E est de dimension infinie, il se peut qu’un endomorphisme f de
E n’admet que 0 comme polynôme annulateur. Par exemple l’endomorphisme
suivant:
f : K[X] −→ K[X]
X r 7−→ X r+1
n’admet pas de polynôme annulateur qu’est non nul. En effet; Soit P (X) =
Xn
ai xi tq P (f ) = 0 tel que P 6= 0, alors ceci équivalent ∀ Q ∈ E : P (f )(Q) = 0,
i=0
en particulier pour Q=1 on aura a0 .IdE (1) + a1 f (1) + · · · + an f n (1) = 0. Or
f (1) = f (X 0 ) = X et f i (1) = X i , on obtient a0 + a1 X · · · + an X n = 0 = 0 =
P (X), absurde.

Proposition 4.4.10. Soient E un espace v de dimension finie et f 6= 0 un endomor-


phisme de E. Il existe un polynôme Qf (X) non constant unitaire de degré minimal
unique annulant f, (ie; Qf (f ) = 0), appelé polynôme minimal associé à f. De plus
tout autre polynôme annulant f est divisible par Qf (X). De même si A ∈ Mn (K), il
existe un polynôme QA (X) non constant unitaire de degré minimal unique annulant
A, (ie; QA (A) = 0), appelé polynôme minimal associé à A. De plus tout autre polynôme
annulant A est divisible par QA (X).

67
Chapitre 4. Réduction des endomorphismes et des matrices carrées

Preuve. Pour l’existence se déduit de la remarque 1) précédente. Pour l’unicité et la


deuxième propriété seront admises; car elles nécessitent d’autres concepts.
Théorème 4.4.11. 1. Soient E un espace v de dimension finie et f 6= 0 un en-
domorphisme de E. Pour que f soit diagonalisable, il faut et il suffit que son
polynôme minimal associé est scindé et a des racines simples.
2. soient n ∈ N∗ , A ∈ Mn (K). Pour que A soit diagonalisables, il faut et il suffit
que son polynôme minimal associé est scindé et a des racines simples.
Preuve. Voir Jean Marie Monier-Algèbre et géométrie MP.
Théorème 4.4.12. Théorème de Cayley - Hamilton: Le polynôme caractéristique
d’un tel endomorphisme f (resp A) annule f (resp A). Autrement dit:
1. ∀ f ∈ L(E) : Pf (f ) = 0.
2. ∀ A ∈ Mn (K) : PA (A) = 0.
Preuve. Soit x ∈ E − {0}, et supposons que E est de dimension n, alors la famille
(x, f (x), . . . , f n (x)), ayant n + 1 éléments est liée. Notons rx ∈ N∗ le plus grand entier
tel que (x, f (x), . . . , f rx −1 (x)) soit libre, mais (x, f (x), . . . , f rx (x)) est liée, cela dit qu’il
existe (a0 , a1 , . . . , ar−1 ) ∈ Krx tel que:
X
f rx (x) = ai .f i (x).
i=1

Notons Ef (x) = vect(x, f (x), . . . , f rx −1 (x). Puisque f rx (x) se décompose linéairement


sur x, f (x), . . . , f rx −1 (x) donc Ef (x) est stable par f ; ie : z ∈ Ef (x) =⇒ f (z) ∈ Ef (x).
Notons gx l’endomorphisme induit de f sur Ef (x). La matrice de gx dans la base
Bx = (x, f (x), . . . , f rx −1 (x)) de Ef (x) est
 
0 0 ··· 0 a0
 1 0 ··· 0 a1 
 
 .
. 
A = M atBx (gx ) =  0 1 0 . a2  
 .. . . . . .. 
 . . . 0 . 
0 · · · · · · 1 arx −1
Puis on montre que le polynôme caractéristique

0 0 ··· 0 a0

1 0 ··· 0 a1

.
0 .. a2 = (−1)rx (λrx − arx −1 λrx −1 − · · · − a1 λ − a0 ).

Pgx (λ) = 0 1
.. . . .. ..
.
. . 0 .
0 · · · · · · 1 arx −1

D’où (Pgx (f ))(x) = (−1)rx (f rx (x) − arx −1 f rx −1 (x) − · · · − a1 f (x) − a0 .x). D’autre
part Pgx /Pf , en effet: par le théorème de base incomplète on peut compléter la base
Bx de Ef (x) en une base de E qu’on note B, alors il existe deux matrices D ∈ Mrx ,n−rx (K) et C ∈
Mn−rx (K) telles que  
A D
M atB (f ) =
0 C

68
Chapitre 4. Réduction des endomorphismes et des matrices carrées

 
A − λ.Irx D
Alors Pf (λ) = det = det(A − λ.Irx ) × det(C − λ.In−rx ) =
0 C − λ.In−rx
Pgx (λ)×PC (λ), et comme PC ∈ K[X], on conclut que Pgx /Pf . Donc il existe Qx ∈ K[X]
tel que Pf = Qx × Pgx ce qui implique Pf (f ) = Qx (f ) ◦ Pgx (f ), puis Pf (f )(x) =
Qx (f )(Pgx (f )(x)) = Qx (f )(0) = 0, et ceci est vrai pour tout le choix de x ∈ E, d’où
Pf (f ) = 0 c’est à dire Pf est un polynôme annulateur de f.

Exercice. (Devoir libre):


1. Soient f et g deux endomorphismes de E. Montrer que si f et g commutent,
alors Im(f ) et Ker(f ) sont stables par g.
2. En déduire que si P (X) et Q(X) sont deux polynômes de K[X], alors
Im(P (f )) et Ker(P (f )) sont stables par Q(f ).
3. Maintenant Soient Q1 , Q2 deux polynômes et D leur PGCD et f un endomor-
phisme de E.
a) Montrer que Ker(D(f )) = Ker(Q1 (f )) ∩ Ker(Q2 (f )).
b) Montrer que si Q1 et Q2 sont premiers entre eux et Q = Q1 × Q2 , alors
Ker(Q(f )) = Ker(Q1 (f )) ⊕ Ker(Q2 (f )). De plus si Q(f ) = 0, alors E =
Ker(Q1 (f )) ⊕ Ker(Q2 (f )).
c) Généraliser le résultat de b) pour r polynômes Q1 , Q2 , . . . , Qr premiers entre
eux deux à deux et Q = Q1 × Q2 × · · · × Qr .
D’après le résultat de l’exercice précédent on déduit le théorème suivant:

Théorème 4.4.13. (Théorème des Noyaux): Soient f ∈ L(E), r ∈ N∗ , et Q1 , Q2 , . . . , Qr ∈


K[X] des polynômes premiers entre eux deux à deux. Alors les sous espaces Ker(Qi (f )), avec 1 ≤
i ≤ r sont en somme directe, et
 
Ker(Q1 (f )) ⊕ Ker(Q2 (f )) ⊕ · · · ⊕ Ker(Qr (f )) = Ker (Q1 × Q2 × · · · × Qr )(f ) .

De plus si (Q1 × Q2 × · · · × Qr )(f ) = 0, alors

E = Ker(Q1 (f )) ⊕ Ker(Q2 (f )) ⊕ · · · ⊕ Ker(Qr (f )).

Corollaire 4.4.14. Soient E un espace vectoriel de dimension finie n (n ≥ 1), f ∈


L(E), r ∈ N∗ , et Q1 , Q2 , . . . , Qr ∈ K[X] des polynômes premiers entre eux deux à
r
Y
deux, tels que le polynôme caractéristique de f vérifie; Pf = Qi . Notons pour i ∈
i=1
{1, 2, . . . r}, ni = dim(Ker(Qi (f ))). Il existe
 une base B de E
 et des matrices carrées
A1 0 · · · 0
 0 A2 · · · 0 
Ai ∈ Mni (K) telles que M atB (f ) =  .  . Autrement dit; f est
 
.. . . ..
 .. . . . 
0 0 ··· Ar
diagonale en blocs.

Preuve. D’après le théorème de Cayley- Hamilton Pf (f ) = 0, d’où en appliquant le


théorème des noyaux on obtient;

E = Ker(Pf (f )) = Ker(Q1 (f )) ⊕ Ker(Q2 (f )) ⊕ · · · ⊕ Ker(Qr (f )).

69
Chapitre 4. Réduction des endomorphismes et des matrices carrées

Chaque Ker(Qi (f )) admet une base Bi ayant ni éléments; notons B = ∪ri=1 Bi . Comme
pour tout i ∈ {1, 2, . . . , r}, Ker(Qi (f )) est stable par f, la matrice de f dans B est
bien diagonale par blocs.
Exemples 4.4.15. Diagonaliser par blocs la matrice suivante:
 
3 −5 3 −5
 2 −3 −2 −2 
A= 
 0 0 1 −1 
0 0 5 −1
Indication: Il faut calculer et factoriser le polynôme caractéristique associée à A et
de chercher les Bi et puis B dans la quelle A est diagonale en blocs,

4.5 Sous espaces caractéristiques


Définition 4.5.1. Soient f ∈ L(E), λi ∈ Sp(f ) et m(λi ) l’ordre de sa multiplicité
dans son polynôme caractéristique Pf (X). On appelle sous espace caractéristique ( ou
sous espace spectral) de f associé à la valeur propre λi et on note SEC(f, λi ), (ou Ni )
le sous espace vectoriel défini par SEC(f, λi ) = Ker(f − λi IE )m(λi ) .
Remarque 4.5.2. 1. Il est claire que; SEP (f, λi ) ⊂ SEC(f, λi ).
2. Si f ∈ L(E), tel que Pf (X) soit scindé on a: E = ⊕ SEC(f, λi ).
λ∈Sp(f )

Théorème 4.5.3. Soient f ∈ L(E), dont leurs polynômes caractéristique et minimal


Yr Yr
sont respectivement Pf (X) = (−1)n (X − λ)αi et Qf (X) = (X − λ)βi , βi ≤ αi .
i=1 i=1
On a pour tout i;
Ker(f − λi IdE )βi = Ker(f − λi IdE )αi .
Preuve. D’abord puisque βi ≤ αi , alors Hi = Ker(f −λi IdE )βi ⊂ Ker(f −λi IdE )αi =
Ni . Or E = ⊕ri=1 Ni = ⊕ri=1 Hi , alors Ni = Hi car si non; si il est existe par exemple i tel
que dim(Hi ) < dim(Ni ), et comme ∀ j dim(Hj ) ≤ dim(Ni ), on aurait n = dim(H1 ) +
· · · + dim(Hr ) < dim(Ni ) + · · · + dim(Nr ) = n, ce qu’est absurde.
Théorème 4.5.4. Notons Ni = Ker(f − λi .IdE )αi et αi , βi sont respectivement les
multiplicités de λi dans le polynôme caractéristique et dans le polynôme minimal. L’en-
domorphisme induit par f sur Ni qu’on note fi = f /Ni : Ni −→ Ni , admet (X − λi )βi
comme polynôme minimal.
Preuve. On a d’après le théorème précédent Ni = Ker(f −λi .IdE )βi , alors le polynôme
minimal Qfi (X) de fi divise (X−λi .IdE )βi . Posons donc Qfi (X) vi
Y= (X−λi ) avec vi ≤
βi . Si l’on avait vi < βi , alors le polynôme R(X) = (X −λi )vi × (X −λj )βj , annulerait
j6=i
f en étant de degré strictement au degré du Qf . Ce qu’est absurde, d’où vi = βi .
Théorème 4.5.5. Soient f ∈ L(E), λi ∈ Sp(f ) et βi la multiplicité de λi dans le
polynôme minimal. On a pour tout i la propriété suivante:
{0} ( Ker(f − λi IdE ) ( · · · ( Ker(f − λi IdE )βi = Ker(f − λi IdE )βi +1 = . . .

70
Chapitre 4. Réduction des endomorphismes et des matrices carrées

Preuve. On sait que


M 
E = Ker(f − λi IdE )βi ⊕ Ker(f − λj IdE )βj (4.1)
j6=i
Y
Soient γ ∈ N et R(X) = (X − λi )γ × (X − λj )βj , le théorème de décomposition des
j6=i
noyaux entraine
M 
Ker(R(f )) = Ker(f − λi IdE )γ ⊕ Ker(f − λj IdE )βj (4.2)
j6=i

Alors;
i) Si γ < βi , l’endomorphisme R(f ) n’est pas nul d’après la définition du polynôme
minimal, et donc Ker(R(f )) 6= E.
Comme Ker(f −λi IdE )γ ⊂ Ker(f −λj IdE )βi , alors les décompositions de (4.1)
et (4.2) entrainent Ker(f − λi IdE )γ ( Ker(f − λj IdE )βi .
ii) Si γ ≥ βi , dans ce cas on a: Qf (X)/R(X) =⇒ R(f ) = 0 =⇒ Ker(R(f )) = E et
d’après (4.1) et (4.2), on obtient Ker(f − λi IdE )γ = Ker(f − λi IdE )βi .

4.6 Réduction sous la forme de Jordan


On appelle bloc de Jordan de taille p (ie; p lignes et p colonnes), toute matrice
carrée de la forme:  
λ 1 0 ··· 0
.. . 
. .. 

 0 λ 1
 
 .. . . . . .. 
 . . . . 0 
 ..
 
.. .. 
 . . . 1 
0 0 ··· 0 λ
L’avantage d’un bloc de Jordan est de se prêter simplement aux calculs, car si
 
λk 1 0 ··· 0
 0 λk 1 . . . ... 
 
 
Mk =  ... . . . . . . . . . 0 
 
 ..
 
.. .. 
 . . . 1 
0 0 · · · 0 λk

de taille nk , alors on vérifie par récurrence sur n que

λk Cn1 λkn−1 Cn2 λn−2 Cnnk −1 λn−n k +1


 n 
k ··· k
 0
 λ n
k C 1 λn−1 · · ·
n k Cnnk −2 λn−nk
k +2 

n
 .. .. 
∀ n ≥ nk − 1; Mk =  0  0 λnk . . 

 . . .
 .. .. .. Cn1 λkn−1

0 
0 0 ··· 0 λnk

71
Chapitre 4. Réduction des endomorphismes et des matrices carrées

Plus général: on vérifie que si P ∈ K[X] est un polynôme on aura;


 
α0 α1 α2 → · · ·
 .. 
 0
 α0 α1 . ↑ 
P (Mk ) =  ... .. .. ..
 
. . . α2 
 ..
 
.. .. 
 . . . α1 
0 0 · · · 0 α0

P (i) (λk )
où αi = i! . (vérifions ça).

4.6.1 Endomorphismes nilpotents


Définition 4.6.1. Soit f ∈ L(E). Un endomorphisme f est dit nilpotent si il existe
q ∈ N tel que f q = 0. Le plus petit exposant q vérifiant f q = 0, appelé l’indice de f. Il
vérifie aussi les deux propriétés:
i) Ker(f ) ( Ker(f 2 ) ( · · · ( Ker(f q ) = E = Ker(f q+1 ) = . . .
ii) ∀ k : f (Ker(f k )) ⊂ Ker(f k−1 ).

Lemme 4.6.2. Si F désigne un sous espace vectoriel tel que Ker(f k ) ∩ F = {0}, alors
Ker(f k−1 ) ∩ f (F ) = {0}, et f : F −→ f (F ), est un isomorphisme.

Preuve. y ∈ Ker(f k−1 ) ∩ f (F ) =⇒ ∃ x ∈ F tq y = f (x) et f k (x) = f k−1 (f (x)) = 0,


d’où x ∈ Ker(f k ) ∩ F = {0}, donc y = f (0) = 0. L’application f : F −→ f (F ),
est injective car; x ∈ F et f (x) = 0 entrainent x ∈ Ker(f k ) ∩ F = {0}, donc x = 0.
Puisque f : F −→ f (F ) est surjective, alors est un isomorphisme.

Lemme 4.6.3. Soit f nilpotent d’indice q. Il existe une suite F1 , F2 , . . . , Fq de sous


espace vectoriels de E tels que
i) Ker(f k ) = Ker(f k−1 ) ⊕ Fk .
ii) fk = f /Fk : Fk −→ Fk−1 est injective pour tout k ∈ {2, . . . , q}.

Preuve. Notons Fq un supplémentaire de Ker(f q−1 ) dans E = Ker(f q ); c. a.d E =


Ker(f q−1 ) ⊕ Fq . D’après le lemme 4.6.2 on a; Ker(f q−2 ) ∩ f (Fq ) = {0}, et on
montre que f (Fq ) ⊂ Ker(f q−1 ). Ceci nous permet de construire un supplémentaire
Fq−1 de Ker(f q−2 ) dans Ker(f q−1 ) qui contient f (Fq ). On continue ainsi la construc-
tion de Fq , Fq−1 , . . . par récurrence de façon a toujours avoir;

Ker(f k ) = Ker(f k−1 ) ⊕ Fk


∪ ∪ ↓
k−1 k−2
Ker(f ) = Ker(f ) ⊕ Fk−1

Théorème 4.6.4. Réduction d’un endomorphisme nilpotent: Soit f ∈ L(E) un


endomorphisme nilpotent. Il existe une base de E (dim(E)=n) dans la quelle la matrice

72
Chapitre 4. Réduction des endomorphismes et des matrices carrées

de f est de la forme suivante:


 
0 1 0 ··· 0
 .. .. 

 0 0 2 . . 

.. . . . . .. ,
 
 . . . . 0
..
 
 .. 
 . . 0 n−1 
0 0 ··· 0 0
avec i ∈ {0, 1}.
Preuve. f est nilpotent, alors il existe q tel que f q−1 6= 0 et f q = 0. Le lemme
4.6.3 nous permet d’écrire E = Ker(f q−1 ) ⊕ Fq = Ker(f q−2 ) ⊕ Fq−1 ⊕ Fq . . . en ren-
versant la formule on obtient E = Ker(f ) ⊕ F2 ⊕ · · · ⊕ Fq , avec Ker(f ) = {0} ⊕
F1 = F1 . Choisissons une base eq,1 , . . . , eq,rq de Fq , d’après le lemme 4.6.3 le sys-
tème f (eq,1 ), f (eq,2 , . . . , f (eq,rq ) est un système libre de Fq−1 qui peut être complété en
une base de Fq−1 , disons f (eq,1 ), f (eq,2 , . . . , f (eq,rq ), eq−1,rq +1 , . . . , eq−1 , rq−1 et ainsi de
suite, chaque Fk étant muni de la base ek,1 , . . . , ek,rk avec ek,i = f (ek+1,i ) si 1 ≤ i ≤
rk+1 , (avec rk+1 < rk ) on obtient une base (b1 , b2 , . . . , bn ) de E comme suivante:
eq,1 , ..., eq,rq
f (eq,1 ), ..., f (eq,rq ), eq−1,rq +1 , ..., eq−1,rq−1
.. .. .. ..
. . . .
f q−1 (eq,1 ), ..., f q−1 (eq,rq ), f q−2 (eq−1,rq +1 ), ..., f q−2 (eq−1,rq−1 ), ..., e1,r1
que l’on ordonne en lisant les vecteurs de bas en haut et de gauche à droite, c’est à dire
b1 = f q−1 (eq,1 ), b2 = f q−2 (eq,1 ), . . . , bq−1 = f (eq,1 ), bq = eq,1 , bq+1 = f q−1 (eq,2 ), . . .
Elle vérifie bien; 
f (bi ) = 0 ou bi−1 si i ≥ 2
f (b1 ) = 0
Théorème 4.6.5. Décomposition de Dunford: Soient f ∈ L(E) et A sa matrice
associée tel que Pf (X), PA (X) sont respectivement leurs polynômes caractéristiques qui
sont scindés.
1. Il existe un couple unique (d, v) de (L(E))2 tel que:


 f =d+v
d est diagonalisable


 v est nilpotent
d◦v =v◦d

De plus d et v sont des polynômes en f, et Pd = Pf .


2. Il existe un couple de matrices unique ( D, N) tel que:


 A=D+N
D est diagonalisable


 N est nilpotent
DN = N D

De plus D et N sont des polynômes en A, et PD = PA .

73
Chapitre 4. Réduction des endomorphismes et des matrices carrées

r
Y
Preuve. L’existence: Soit Pf (X) = (−1)n (X − λ)αk . Rappelons les notations de
k=1
r
M
la définition 4.5.1 et les théorèmes 4.5.3, 4.5.4 on a E = Nk , et notons pour
k=1
tout k ∈ {1, 2, . . . , r}, ek = IdNk , fk l’endomorphisme induit par f sur Nk et vk =
fk − λk ek . Considérons les endomorphismes d et v définis par recollement respectif des
λk ek et des vk , et on a pour tout x ∈ E; ∃ (x1 , x2 , . . . xr ) unique tel que x = x1 + x2 +
Xr Xr
· · · + xr , avec xi ∈ Ni . On pose alors d(x) = λk xk , et v(x) = vk (xk ). Dans une
k=1 k=1
base réunion de bases des Ni , la matrice associée à l’endomorphisme d est
 
λ1 .Iα1 0 ··· 0

 0 λ2 .Iα2 · · · 0 

 .. .. .. .. 
 . . . . 
0 0 · · · λr .Iαr

Donc d est diagonalisable et Pd = Pf .


En notant α = M ax (αk ), et avec les notations précédentes on montre que
1≤k≤r

r
X
α
v (x) = vkα (xk ) = 0,
k=1

puisque: ∀ k ∈ {1, 2, . . . , r}; vkαk = 0, alors v est nilpotent. De plus


r
X r
X r
X r
X
f (x) = fk (xk ) = (λk ek + vk )(xk ) = λ k xk + vk (xk ) = d(x) + v(x),
k=1 k=1 k=1 k=1

r
X
d’où f = d+v. Nous vérifions facilement que pour tout x ∈ E; (d◦v)(x) = λk vk (xk ) =
k=1
(v ◦ d)(x), d’où d ◦ v = v ◦ d.
Notons Qk le polynôme défini par (X − λk )αk × Qk (X) = Pf (X), avec (X − λk ) ne
divise pas Qk (X). D’après l’identité de Bezout il existe deux polynômes Uk (X), Vk (X)
tels que Uk (X).Qk (X) + Vk (X).(X − λk )αk = 1 ce qui implique

Uk (f ) ◦ Qk (f ) + Vk (f ) ◦ (f − λk )αk = IdE .
M 
Or E = Nk ⊕ Ni = Nk ⊕ Ker(Qk (f )), alors x ∈ E s’écrit d’une façon unique
i6=k
comme x = xk + x0 , avec xk ∈ Nk , x0 ∈ Ker(Qk (f )); ceci nous permet d’écrire
   
Uk (f ) ◦ Qk (f ) (x) + Vk (f ) ◦ (f − λk )αk (x) = x
| {z } | {z }
xk x0
M
cela dit que le projecteur sur Nk parallèlement à Ni est Uk (f ) ◦ Qk (f ) qu’est un
i6=k

74
Chapitre 4. Réduction des endomorphismes et des matrices carrées

r
X r
X  
polynôme en f. Or d(x) = λk xk , = λk Uk (f ) ◦ Qk (f ) (x) alors
k=1 k=1
r
X  
d= λk Uk (f ) ◦ Qk (f ) ,
k=1

est un polynôme en f, puis v = f − d aussi.


• L’unicité: Soient (d0 , v 0 ) autre couple vérifiant la propriété ci dessus; c’est à dire
f = d0 + v 0 , avec d0 ◦ v 0 = v 0 ◦ d0 , tel que d0 est diagonalisable et v 0 nilpotent. On a
d0 ◦ f = d0 ◦ (d0 + v 0 ) = d02 + d0 ◦ v 0 = d02 + v 0 ◦ d0 = f ◦ d0 , donc d0 commute avec tout
polynôme en f, en particulier avec d.
Puis v 0 = f − d0 commute avec tout polynôme en f, en particulier v 0 commute avec
v. De plus comme v, v 0 sont nilpotents, alors d’après la formule de binôme de Newton
v − v 0 est aussi nilpotent. D’autre part on montre que d0 − d est diagonalisable, on a
pour tout xk ∈ Nk : d ◦ d0 (xk ) = d0 ◦ d(xk ) = d0 (λk .xk ) = λk .d0 (xk ), et par la définition
de d on déduit bien que d0 (x) ∈ Nk . Ceci montre que Nk est stable par d0 . Puisque
d0 est diagonalisable, chaque endomorphisme d0k induit par d0 sur Nk , (1 ≤ k ≤ r)
est diagonalisable, finalement d et d0 sont diagonalisables dans une même base. Ainsi
d0 − d est diagonalisable. Comme d0 − d = v − v 0 est diagonalisable et nilpotent, alors
d0 − d = v − v 0 = 0 d’où (d, v) = (d0 , v 0 ).
• La deuxième propriété c’est la traduction matricielle de la propriété 1.
Remarque 4.6.6. 1. Un endomorphisme nilpotent v non nul, n’est pas diagona-
lisable; en effet: son polynôme minimal est de la forme Qv = v p , donc v ne
possède que la valeur propre nul (λ = 0), qui n’est pas simple. Autrement; sup-
posons qu’il existe une base dans la quelle sa matrice est diagonale, elle sera
une matrice nulle qui nous donne alors un endomorphisme nul (absurde).
2. Dans la décomposition de Dunford f = d+v, f est diagonalisable si et seulement
si v = 0.
Théorème 4.6.7. Théorème de Jordan: Soit f un endomorphisme dont le polynôme
caractéristique est scindé. Il est existe une base de E dans la quelle la matrice de f est
de la forme:  
M1 0 · · · 0
 0 M2 · · · 0 
J = .
 
. .
. . . .. 
 . . . . 
0 0 ··· Mr
où chaque sous matrice carrée Mi est un bloc de Jordan de la forme;
 
λi 1 0 ··· 0
.. . 
. .. 

 0 λi 1
 
Mi =  ... .. .. .. ,
 
. . . 0 
 ..
 
.. .. 
 . . . 1 
0 0 · · · 0 λi
Ainsi toute matrice A dont le polynôme caractéristique est scindé sur K sera semblable
à une telle matrice J. La matrice J précédente est appelée la matrice réduite de Jordan.

75
Chapitre 4. Réduction des endomorphismes et des matrices carrées

r
Y r
Y
αi
Preuve. Notons Pf (X) = (−1)n (X − λi ) , Qf (X) = (X − λi )βi respectivement
i=1 i=1
polynôme caractéristique et minimal de f. Alors E est somme directe des sous espaces
caractéristiques Nk = Ker(f − λk IdE )αk . Chaque fk = f /Nk : Nk −→ Nk , s’écrit fk =
vk +λk .IdNk avec vk = fk −λk .IdNk nilpotent d’indice βk . D’après le théorème 4.6.4 de
la réduction d’un endomorphisme nilpotent, il existe une base Bk de Nk dans la quelle
la matrice de vk est de la forme;
 
0 1 0 ··· 0
 0 0 2 . . .
 .. 
 . 
 .. . . . . .. ,

 . . . . 0
 ..
 
.. 
 . . 0 αk −1 
0 0 ··· 0 0

avec i ∈ {0, 1}, et la matrice de fk dans cette base aura comme suivante:
 
λk 1 0 ··· 0
 0 λk 2 . . .
 .. 
 . 
 .. . . . . .. ,

 . . . . 0
 ..
 
.. 
 . . λ k αk −1
0 0 ··· 0 λk

avec i ∈ {0, 1}, et cette matrice est bien formée de blocs de Jordan sur la diagonale
principale et de zéros partout ailleurs. Prenons alors B = ∪rk=1 Bk , et dans la base B la
matrice de f sera de la forme J du théorème.

Exemples 4.6.8. Déterminons


 une réduite de Jordan et le polynôme minimal de la
3 2 −3
matrice M = 4 10 −12 .
3 6 −7
Notons f l’endomorphisme de R3 . Après les calcules, nous trouverons que le polynôme
caractéristique de M est PM (X) = −(X − 2)3 , donc on a une seule valeur propre
c’est 2. Notons f1 = f − 2.IdR3 , on vérifie facilement que (M − 2I3 )2 = 0R3 , d’où
l’endomorphisme f1 est nilpotent d’indice q = 2, et le polynôme minimal est QM = (X −
2)2 . Ceci montre que E = Ker(f − 2IdR3 )2 , notons maintenant F2 le supplémentaire
de Ker(f − 2IdR3 ) dans Ker(f − 2IdR3 )2 , ie; R3 = Ker(f − 2IdR3 ) ⊕ F2 . Alors comme
dans la démonstration des théorèmes 4.6.4 et 4.6.7, on va construire une base de R3
qui nous ramène à écrire la matrice de f sous forme matrice réduite de Jordan. D’abord
déterminons Ker(f − 2IdR3 ), on a
    
x 0  x = −2y + 3z
(M − 2I3 ). y = 0 ⇐⇒ x + 2y − 3z = 0 ⇐⇒
    y=y
z 0 z=z

76
Chapitre 4. Réduction des endomorphismes et des matrices carrées

   
−2 3
alors E2 = y 1   + z 0 , d’où dim(E2 ) = dim(Ker(f − 2IdR3 )) = 2, alors

0 1
dim(F2 ) = 1. Choisissons alors une base de F2 , or e3 6∈ E2 , car (M − 2I3).e3 6= 0, alors
−3
e3 ∈ F2 et est constitue une base de F2 . On a f1 (e3 ) = (M − 2I3 ).e3 = −12 = e01 ,
−9
 
0
et on vérifie que (M − 2I3 ).e01 = 0 , donc e01 ∈ E2 . Nous complétons e01 par un
0
vecteur dans Ker(f −
 R2I 3 ) pour construire une base deKer(f − 2IR3 ), enchoisissant

−2 −3 0
par exemple; e03 =  1  , donc on pose b1 = f1 (e3 ) = −12 , b2 = e3 = 0 , b3 =
0 −9 1
 
−2
 1  . Dans la base B = {b1 , b2 , b3 } la matrice de f1 est
0
 
0 1 0
M atB (f1 ) = 0 0 0
0 0 0
D’où la matrice de f dans cette base est
 
2 1 0
M atB (f ) = 0 2 0
0 0 2
 
−3 0 −2
et la matrice M = P.M atB (f ).P −1 , avec P = −12 0 1 
−9 1 0
• On peut suivre d’autre technique comme le montre l’exemple  suivant: 
−1 0 −2 −2
 2 1 2 2 
Soit l’endomorphisme f : R4 −→ R4 dont la matrice associée est A =   3
.
1 3 2 
−1 −1 0 1
Le polynôme caractéristique est: PA = (1 − X)4 , il est scindé sur R et il y a une seule
valeur propre λ = 1 de multiplicité 4. On pose A1 = A − λ.I4 , et f1 = f − λ.IR4 l’en-
domorphisme associé à A1 . Cherchons alors une base de l’endomorphisme nilpotent f1
d’indice q ≤ 4, qu’il faut déterminer. On sait que E = Ker(f −λ.IR4 )⊕F2 ⊕· · ·⊕Fq , avec
Fk est le supplémentaire de Ker(f − λ.IR4 )k−1 dans Ker(f− λ.I k . Notons B =
 R4 )   1
−2 0
2 0
{e1 , e2 , e3 , e4 }, la base canonique de R4 , on a A21 .e1 = A1 . 
 3  = 0 , A1 .e2 =
   2

−1 0
           
0 0 −2 0 −2 0
 0  0 2 0   0
2
2
    2
   
A1 . 
 1  = 0 , A1 .e3 = A1 .  2  = 0 , A1 .e4 = A1 .  2  = 0 . Alors
      

−1 0 0 0 0 0

77
Chapitre 4. Réduction des endomorphismes et des matrices carrées

A1 est nilpotent d’indice 2, prenons donc X1 = e1 ,( il faut choisir le vecteur X1 parmi


n(X )
e1 , e2 , e3 , e4 tel que A1 1 .X1 = 0 avec n(X1 ) = max(n(e1 ), n(e2 ), n(e3 ), n(e4 )) ) c’est
le plus petit entier vérifiant cette propriété. On pose S1 = {A1 X1 , X1 }, on a S1 est
libre, en la complétant pour obtenir une base B2 de l’espace E = R4 , ( on utilisera sou-
vent les vecteurs de la base canoniques B1 ); B2 = {A1 X1 , X1 , e3 , e4 , } qu’on note B2 =
{e01 , e02 , e03 , e04 }. On a: f1 (e01 ) = A1 e01 = 0, f1 (e02 ) = A1 .e02 = e01 , f1 (e03 ) = A1 .e03 =
e01 − e03 + e04 , f1 (e04 ) = A1 .e04 = e01 − e03 + e04 . Donc
 
0 1 1 1
0 0 0 0
M atB2 (f1 ) = 0 0 −1 −1

0 0 1 1
 
−1 −1
• Maintenant; on note f2 l’endomorphisme de vect(e03 , e04 ) représenté par A2 =
1 1
dans la base {e 0 , e0 }, f est nilpotent d’indice 2 ( facile à vérifier); en effet:
3 4 2      
0 1 −1 0 1
2
A2 e 3 = A2 . 2 = A2 . = de même A22 e03 = A22 . =
0 (e0 ,e0 ) 1 (e0 ,e0 ) 0 0 (e0 ,e0 )
  3 4  3 4 3 4
−1 0 0
A2 . = . Choisissons X2 = e3 , ( il faut choisir le vecteur X2 parmi
1 (e0 ,e0 ) 0
3 4
n(X2 )
e03 , e04 tel que A2 .X2 = 0 avec n(X2 ) = max(n(e03 ), n(e04 )) ).
     
0 1 0
 0
 0  0
   
On a bien f12 (X2 ) = A21 . 
1 = A1 . −1 = 0 et S2 = {f1 (X2 ), X2 } = {A1 .X2 , X2 }
0 1 0
est libre et est constitue avec S1 une base de E = R4 . Dans la base
       
−2 1 −2 0
n  2  0  2  0 o
B = {f1 (X1 ), X1 , f1 (X2 ), X2 } =   3  , 0 ,  2  , 1 ,
      

−1 0 0 0
la matrice de f1 est un bloc de Jordan,
 
0 1 0 0
0 0 0 0
M atB (f1 ) = 
0

0 0 1
0 0 0 0
d’où la matrice de f dans cette base est de la forme:
 
1 1 0 0
0 1 0 0
M atB (f ) = 
0 0 1

1
0 0 0 1
 
−2 1 −2 0
2 0 2 0
et donc A = P M atB (f )P −1 , avec P = 


3 0 2 1
−1 0 0 0

78
Chapitre 5

Formes bilinéaires-Formes
quadratiques

• Dans tout ce qui suit, K = R, où K = C.

5.1 Formes bilinéaires


Définition 5.1.1. Soit E et F deux espaces vectoriels sur un corps K. Rappelons qu’une
forme bilinéaire sur E × F c’est tout application
ψ : E × F −→ K
(x, y) 7−→ ψ(x, y)
vérifiant les propriétés suivantes:
1. ∀x1 , x2 ∈ E; ∀ y ∈ F et λ1 , λ2 ∈ K, on a:
ψ(λ1 x1 + λ2 x2 , y) = λ1 ψ(x1 , y) + λ2 ψ(x2 , y).
2. ∀ y1 , y2 ∈ F ; ∀ x ∈ E, et λ1 , λ2 ∈ K, on a:
ψ(x, λ1 y1 + λ2 y2 ) = λ1 ψ(x, y1 ) + λ2 ψ(x, y2 ).
Autrement dit; ψ est linéaire par rapport à les deux variables. Voir que si B =
(e1 , e2 , . . . , en ), une base de E et B 0 = (f1 , f2 , . . . , fp ) une base de F, nous aurons:
n
X p
X p
n X
X
ψ( αi e i , βj fj ) = αi βj ψ(ei , fj ).
i=1 j=1 i=1 j=1

L’ensemble des formes bilinéaires sur E × F se note par L(E × F, K).


Remarque 5.1.2. L’ensemble (L(E × F, K), +, .) est un espace vectoriel sur K.
Exemples 5.1.3.
ψ : R2 × R2 −→ R
((x, y), (x0 , y 0 )) 7−→ xy 0 + x0 y
ψ : R × R −→ R
(x, y) 7−→ xy

79
Chapitre 5. Formes bilinéaires-Formes quadratiques

5.1.1 Matrice d’une forme bilinéaire


Définition 5.1.4. Soient ψ une forme bilinéaire sur E ×F et B = (e1 , e2 , . . . , en ), B 0 =
(f1 , f2 , . . . , fp ) sont respectivement les bases de E et F. On appelle matrice de ψ relati-
vement aux bases B et B 0 , et on la note M atBB 0 (ψ), la matrice de type (n, p) suivante:
M atBB 0 = (ψ(ei , fj ))ij où 1 ≤ i ≤ n et 1 ≤ j ≤ p.

Exemples 5.1.5. Considérons E = F = R2 et B = B 0 = (e1 , e2 ) où e1 = (1, 0); e2 =


(0, 1). Soit la forme bilinéaire

ψ : R2 × R2 −→ R

((x, y), (x0 , y 0 )) 7−→ 3xy 0 + 3x0 y


on a ψ(e1 , e1 ) =0, ψ(e1 ,e2 ) = 3, ψ(e2 , e1 ) = 3, ψ(e2 , e2 ) = 0. D’où sa matrice associée
0 3
est M atB (ψ) = .
3 0

5.1.2 Expression analytique de la forme bilinéaire


Proposition 5.1.6. Soient ψ une forme bilinéaire sur E × F et A sa matrice associée
relativement aux bases B = (e1 , e2 , . . . , en ) et B 0 = (f1 , f2 , . . . , fp ) ie; A = M atBB 0 (ψ),
et X ∈ E, Y ∈ F. Alors ψ(X, Y ) = t XAY.
   
x1 y1
 x2   y2 
Preuve. Notons A = (aij ) et X =  .  et Y =  .  . On a
   
1≤i≤n  .  . .
 . 
1≤j≤p x y
n p
Xn p
X X n
X p
X
ψ(X, Y ) = ψ( xi ei ; yj fj ) = xi yj ψ(ei , fj ) = xi aij yj . D’autre
i=1 j=1 i=1 j=1
1≤i≤n
1≤j≤p
 p 
X
 a1j yj 
 j=1 
 p 
 X 
 a2j yj  n
X p
X
t
  t XAY
part; X = (x1 , x2 , . . . , xn ) et AY = 
 j=1
 d’où
 = xi aij yj =
 ..  i=1 j=1
 p .
 

 X 
anj yj
 
j=1
ψ(X, Y ).
• La réciproque est donnée par la proposition suivante:

Proposition 5.1.7. Considérons une matrice A = (aij ) . L’application


1≤i≤n
1≤j≤p

ψ : E × F −→ K

80
Chapitre 5. Formes bilinéaires-Formes quadratiques

(X, Y ) 7−→ t XAY


est une forme bilinéaire dont sa matrice associée relativement aux bases B et B 0 res-
pectivement de E et F c’est A.
Preuve. Comme exercice.
Théorème 5.1.8. Soient E et F deux espaces vectoriels sur K, B = (e1 , e2 , . . . , en ) et B 0 =
(f1 , f2 , . . . , fp ) sont respectivement les bases de E et F. L’application
Φ : (L(E × F ; K), +, .) −→ (Mn,p (K), +, .)
ψ 7−→ M atBB 0 (ψ) = (ψ(ei , fj ))i,j
est un isomorphisme.
Preuve. On montre d’abord que φ est linéaire et d’après ce qui précède φ est bijective.
D’où le résultat.
Corollaire 5.1.9. L’espace (L(E × F ; K), +, .) est un espace vectoriel de dimension
n × p.
En effet; la dimension de (Mn,p (K), +,.) est égale à n × p, car il admet comme base
αlk = 1 si l = i; j = k
le système des matrices Aij = (αlk )lk tq
0 si non

5.1.3 Formule de changement de bases des formes bili-


néaires
Proposition 5.1.10. Soient E un espace vectoriel de dimension finie n,
B = (e1 , e2 , . . . , en ) et B 0 = (e01 , e02 , . . . , e0n )
sont deux bases de E. Soit P la matrice de passage de B à B 0 . Si ψ une forme bilinéaire
sur E × E, (ie; ψ ∈ L(E × E; K), +, .)) dont sa matrice relativement à la base B est
A = M atB (ψ) et celle par rapport à B 0 est A0 = M atB 0 (ψ), alors A0 = t P AP.
n
X n
X
Preuve. Soient X et Y deux vecteurs de E, Dans la base B X = xi e i ; Y = yj e j
i=1 j=1
n
X n
X
et dans la base B 0 les mêmes vecteurs sont notés par; X 0 = x0i e0i ; Y = yj0 ej . Or
i=1 j=1
P est la matrice de passage de B à B 0 c’est à dire la matrice associée à l’application
Id : (E, B 0 ) −→ (E, B)
alors X = P X 0 et Y = P Y 0 . On a d’une part ψ(X, Y ) = t X 0 A0 Y 0 , d’autre part
ψ(X, Y ) = t XAY = t(P X 0 )A(P Y 0 ) = t X 0 t P AP Y 0 . Par unicité de la matrice de ψ
dans B’ on aura A0 = t P AP.
Définition 5.1.11. Le rang d’une forme bilinéaire ψ : E × E −→ K c’est le rang de sa
matrice associée relativement à une base B donnée rg(ψ) = rg(M atB (ψ)).
Remarque 5.1.12. Le rang d’une forme bilinéaire ne dépend pas de la base choisie.
Cela revient à la proposition précédente.

81
Chapitre 5. Formes bilinéaires-Formes quadratiques

5.2 Formes bilinéaires symétriques


Définition 5.2.1. Soit E un espace vectoriel. Une forme bilinéaire

ψ : E × E −→ K

(X, Y ) 7−→ ψ(X, Y )


est dite symétrique si;

∀ (X, Y ) ∈ E 2 : ψ(X, Y ) = ψ(Y, X).

Elle est dite antisymétrique si;

∀ (X, Y ) ∈ E 2 : ψ(X, Y ) = −ψ(Y, X).

Exemples 5.2.2.
ψ : R2 × R2 −→ R
((x, y), (x0 , y 0 )) 7−→ xy 0 + x0 y
est une forme bilinéaire symétrique.

ψ : R2 × R2 −→ R

((x, y), (x0 , y 0 )) 7−→ xy 0 − x0 y


est une forme bilinéaire antisymétrique.

Remarque 5.2.3. On note l’ensemble des formes bilinéaires symétriques par S(E ×
E, K). Il est un sous espace vectoriel de l’espace (L(E × E; K), +, .)

Proposition 5.2.4. Considérons E un espace vectoriel de dimension finie n et B =


(e1 , e2 , . . . , en ) une base de E. Soit ψ une forme bilinéaire sur E × E dont sa matrice
relativement à la base B est A. Alors la forme bilinéaire ψ est symétrique ssi A est une
matrice symétrique.
ψ : E × E −→ K
(X, Y ) 7−→ t XAY

Preuve. Comme exercice.

Dans ce cadre on peut définir l’orthogonalité dans l’espace vectoriel E et non


dans E ∗ en cherchant à garder les mêmes propriétés sous des conditions bien précises.

5.2.1 L’orthogonalité
Définition 5.2.5. Soient E un espace vectoriel sur K et ψ une forme bilinéaire symé-
trique sur E × E, alors on dit que deux vecteurs X et Y de E sont orthogonaux par
rapport à ψ (ou simplement ψ orthogonaux) si; ψ(X, Y ) = 0. Ainsi si A est une partie
de E, on appelle orthogonale de A qu’on note aussi A⊥ l’ensemble des éléments Y de
E tels que ψ(X, Y ) = 0, ∀ X ∈ A. On écrit;

A⊥ = {Y ∈ E | ψ(X, Y ) = 0; ∀ X ∈ A}

82
Chapitre 5. Formes bilinéaires-Formes quadratiques

Propriétés 5.2.6. 1. Pour tout partie A de E, A⊥ est un sous espace vectoriel de


E.
2. ∀ A, B ∈ P(E) : A ⊂ B =⇒ B ⊥ ⊂ A⊥ .
3. (A ∪ B)⊥ = A⊥ ∩ B ⊥ .
4. A⊥ + B ⊥ ⊂ (A ∩ B)⊥ .
5. A⊥ ∩ B ⊥ ⊂ (A + B)⊥ .
6. ∀ A ∈ P(E) : A⊥ = (vect(A))⊥ .
7. ∀ A ∈ P(E) : A ⊂ (A⊥ )⊥ ; en général: A 6= (A⊥ )⊥ .
8. {0E }⊥ = E.
Preuve. 1. Soient Y1 , Y2 deux éléments de A⊥ et α1 , α2 ∈ K.
Or ∀ X ∈ A : ψ(X; α1 .Y1 + α2 .Y2 ) = α1 ψ(X; Y1 ) + α2 ψ(X; Y2 ) = 0 + 0 = 0.
Donc α1 .Y1 + α2 .Y2 ∈ A⊥ , d’où A⊥ est un sous espace vectoriel de E.
2. Y ∈ B ⊥ =⇒ ∀ X ∈ B; ψ(X; Y ) = 0, en particulière ∀ X ∈ A; ψ(X; Y ) = 0. D’où
Y ∈ A⊥ =⇒ B ⊥ ⊂ A⊥ .
3. D’abord on a;

A ⊂ A ∪ B =⇒ (A ∪ B)⊥ ⊂ A⊥
B ⊂ A ∪ B =⇒ (A ∪ B)⊥ ⊂ B ⊥

donc (A ∪ B)⊥ ⊂ A⊥ ∩ B ⊥ .
Réciproquement; soit x ∈ A⊥ ∩ B ⊥ . Alors x est orthogonal à tout Y de A et à
tout Y de B, donc à tout Y de A ∪ B et par suite x ∈ (A ∪ B)⊥ .
4. Soit X ∈ A⊥ + B ⊥ . Il existe Y ∈ A⊥ et Z ∈ B ⊥ tels que X = Y + Z. Comme Y
est orthogonal à tout vecteur de A, il est orthogonal à tout vecteur de A ∩ B.
Donc Y ∈ (A ∩ B)⊥ , de même Z ∈ (A ∩ B)⊥ . Alors X = Y + Z ∈ (A ∩ B)⊥ .
5. De même manière.
6. D’abord
A ⊂ V ect(A) =⇒ (V ect(A))⊥ ⊂ A⊥ .
Ensuite, soit X ∈ A⊥ . Alors X est orthogonal à tout vecteur de A et en particu-
lière à tout combinaison linéaire d’élément de A, il est donc orthogonal à tout
vecteur de Vect(A), d’où X ∈ (V ect(A))⊥ .
7. Soit X ∈ A, alors ∀ Y ∈ A⊥ : ψ(X; Y ) = 0. Comme ψ est symétrique, donc
ψ(X, Y ) = ψ(Y, X) = 0. D’où X ∈ (A⊥ )⊥ , ce qui montre A ⊂ (A⊥ )⊥ .
8. D’abord {0E }⊥ ⊂ E. Soit Y ∈ E, or ψ(0E , Y ) = 0, alors Y ∈ {0E }⊥ . Donc
E ⊂ {0E }⊥ , d’où l’égalité.
Exercice. Soit B = {e1 , e2 , e3 } une base canonique de R3 , et

ψ : R3 × R3 =⇒ R

(X, Y ) 7−→ x1 .y1 − x2 .y2


   
x1 y1
où X = x2 et Y = y2  Posons A = V ect(e1 + e3 ).
  
x3 y3

83
Chapitre 5. Formes bilinéaires-Formes quadratiques

1. Montrer que A⊥ = V ect(e2 , e3 ).


2. Montrer que (A⊥ )⊥ = V ect(e1 , e3 ). Que peut on conclure?

Remarque 5.2.7. On vient de voir que lorsque l’espace E est muni d’une forme bili-
néaire symétrique spécifique, on aura d’autre propriétés de l’orthogonalité liée à cette
forme bilinéaire.

5.2.2 Formes bilinéaires non dégénérées


Définition 5.2.8. Soient E un espace vectoriel sur R et ψ une forme bilinéaire symé-
trique, soit;
ψ̄ : E −→ E ∗
X 7−→ ψ̄(X) = ψ̄X
tel que
ψ̄X : E −→ K
Y 7−→ ψ(X; Y )
On dit que ψ est non dégénérée si ψ̄ est une application linéaire injective; c’est à dire

(ψ̄X = 0 =⇒ X = 0E ) ⇐⇒ (∀ Y ∈ E : ψ(X, Y ) = 0 =⇒ X = 0E ).

• Cas où E est e.v de dimension finie:

ψ est non dégénérée ⇐⇒ ψ̄ est un isomorphisme.

En effet: dim(E) = dim(E ∗ ) et puisque ψ̄ est linéaire injective, alors il est un isomor-
phisme, et inversement.

Définition 5.2.9. 1. Soit ψ une forme bilinéaire. On dit que ψ est définie si

ψ(X, X) = 0 =⇒ X = 0E

2. On dit qu’un vecteur X ∈ E est isotrope relativement à une forme bilinéaire


symétrique ψ, si ψ(X, X) = 0. Le vecteur 0E est toujours isotrope; puisque
ψ(0E , 0E ) = 0.
3. On dit qu’un sous espace F de E est isotrope, s’il existe un vecteur X non nul
appartenant à F et orthogonal à tout vecteur de F. Autrement dit; F est isotrope
ssi F ∩ F ⊥ 6= {0E }. Dans le cas contraire F est dit non isotrope.
4. On dit qu’un sous espace F de E est totalement isotrope ssi F ⊂ F ⊥ .

Remarque 5.2.10. 1. Si ψ est une forme bilinéaire symétrique et elle est définie,
¯ = {X ∈ E | ψ̄(X) = 0} = {X ∈
alors ψ est non dégénérée. En effet: Ker(ψ))
E | ∀ Y ∈ E; ψ(Y, X) = 0} = E . Donc X ∈ Ker(ψ̄) =⇒ X ∈ E ⊥ =⇒

ψ(X, X) = 0, et comme ψ est définie, alors X = 0E , d’où Ker(ψ̄) = {0E }. Ce


qui montre que ψ̄ est injective, donc ψ est non dégénérée.
2. L’espace E tout entier est isotrope relativement à ψ ssi E ⊥ 6= {0E }; c’est à dire
ψ est une forme dégénérée.

84
Chapitre 5. Formes bilinéaires-Formes quadratiques

Théorème 5.2.11. Soit E un espace vectoriel de dimension finie (dim(E) = n), et ψ


une forme bilinéaire symétrique. Pour tout sous espace F de E, les propriétés suivantes
sont équivalentes:
1. F ∩ F ⊥ = {0E }, ( F est non isotrope);
2. La restriction de ψ à F est une forme bilinéaire non dégénérée sur F;
3. F ⊕ F ⊥ = E.

Preuve. 1) ⇐⇒ 2). Rappelons que

F ∩ F ⊥ = {X ∈ F | ∀ Y ∈ F ; ψ(X, Y ) = 0} = {X ∈ F | ψ̄X = 0},

où ψ̄X ∈ F ∗ , par suite F ∩F ⊥ est le noyau de la restriction à F de ψ̄. Les deux premières
conditions sont donc bien équivalentes. D’autre part, il est évident que 3) =⇒ 1). Mais
puisque 1) et 2) sont équivalents, il reste à prouver que 2) =⇒ 3), c’est à dire 2)
implique F + F ⊥ = E. Considérons la restriction ψ/F = f, alors f est une forme
bilinéaire symétrique, et puisque elle est non dégénérée par hypothèse, alors f¯ est une
bijection de L(F, F ∗ ). Pour tout X ∈ F, l’application u : Y =⇒ ψ(X, Y ) de F dans K
est évidemment un élément de F ∗ . Il existe par suite X 0 ∈ F tel que f¯(X 0 ) = u; c’est
à dire ∀ Y ∈ F : f¯(X 0 )(Y ) = f (X 0 , Y ) = ψ(X 0 , Y ) = u(Y ) = ψ(X, Y ), ceci implique
∀ Y ∈ F : ψ(X − X 0 , Y ) = 0, ce qui veut dire que (X − X 0 ) ∈ F ⊥ , par conséquent,
X ∈ F + F ⊥ . Or F ∩ F ⊥ = {0E }; car 1) ⇐⇒ 2), alors F + F ⊥ est directe donc
X ∈ F ⊕ F ⊥ d’où E = F ⊕ F ⊥ .

Corollaire 5.2.12. Soit ψ une forme bilinéaire symétrique sur un espace E de dimen-
sion finie. Les propositions suivantes sont équivalentes:
1. ψ est définie; ie: ψ(X, X) = 0 =⇒ X = 0E ;
2. Pour tout sous espace F de E, on a F ⊕ F ⊥ = E.

Preuve. 1) =⇒ 2). La condition 1) exprime que ψ ne possède pas de vecteur isotrope


non nul. Alors elle entraine évidemment que, pour tout sous espace F de E; F ∩ F ⊥ =
{0E }, et d’après le théorème précédent 5.2.11 on obtient F ⊕ F ⊥ = E.
2) =⇒ 1). Supposons qu’il existe un vecteur X ∈ E − {0E } et ψ(X, X) = 0. Notons
DX la droite vectorielle engendrée par le vecteur X, or X ∈ DX ⊥ ; car ∀ Y ∈ D ; ∃λ ∈
X
K : ψ(Y, X) = ψ(λ.X, X) = λ.ψ(X, X) = 0. Donc DX ∩ DX ⊥ 6= {0 }, absurde; puisque
E
d’après l’hypothèse il faut que DX ∩ DX ⊥ = {0 }.
E

Remarque 5.2.13. Soit ψ une forme bilinéaire symétrique sur un espace E de dimen-
sion finie. Si ψ est non dégénérée, alors pour tout sous espace F de E, on a:
1. dim(F ) + dim(F ⊥ ) = dim(E).
2. (F ⊥ )⊥ = F.
3. E ⊥ = {0E }.

Preuve. C’est l’application directe du théorème 5.2.11.

Exercice. Soient ψ une forme bilinéaire symétrique sur un espace E de dimension finie,
et A, B deux parties de E. On suppose que, ψ est non dégénérée. Montrer les propriétés
suivantes:

85
Chapitre 5. Formes bilinéaires-Formes quadratiques

a) A⊥ + B ⊥ = (A ∩ B)⊥
b) A⊥ ∩ B ⊥ = (A + B)⊥ .
Définition 5.2.14. Soient E un espace vectoriel de dimension finie, (dim(E) = n), et
{e1 , e2 , . . . , en } une base de E, et ψ une forme bilinéaire sur E, alors {e1 , e2 , . . . , en } est
dite base orthogonale relativement à ψ si;
∀ i 6= j; 1 ≤ i, j ≤ n : ψ(ei , ej ) = 0
Elle est dite orthonormale relativement à ψ si;
∀ i, j; 1 ≤ i, j ≤ n : ψ(ei , ej ) = δij .
Proposition 5.2.15. Soient E un espace vectoriel de dimension finie (dim(E) =
n), sur K avec K = R ou C et ψ une forme bilinéaire symétrique non nulle sur E,
alors E possède une base orthogonale relativement à ψ.
Preuve. D’abord on montre qu’il existe dans E des vecteurs non isotropes. Supposons
que ∀ X ∈ E : ψ(X, X) = 0, alors on a ∀ X, Y ∈ E : ψ(X + Y, X + Y ) = ψ(X, X) +
| {z }
=0
2ψ(X, Y ) + ψ(Y, Y ) = 0, d’où ∀ X, Y ∈ E : 2ψ(X, Y ) = 0. Puisque ψ 6= 0, alors il
| {z }
=0
existe un couple (X, Y ) tel que ψ(X, Y ) 6= 0, donc pour ce couple (X, Y) la relation
2ψ(X, Y ) = 0 exige que la caractéristique du corps K égalé à 2, ce que n’est pas notre
cas puisque K = R ou C. Donc il existe dans E des vecteurs non isotropes.
On raisonne par récurrence sur dim(E) = n :
— si dim(E) = 1, le problème ne se pose pas. Supposons dim(E) = n ≥ 2. Pour
n = 2; on sait qu’il existe dans E un vecteur v1 non isotrope, la droite Dv1
de vecteur directeur v1 est non isotrope, donc Dv1 ∩ Dv⊥1 = {0E } et d’après le
théorème 5.2.11 on a Dv1 ⊕ Dv⊥1 = E. Pour tout v2 ∈ Dv⊥1 , la base {v1 , v2 } est
orthogonale.
— hypothèse de récurrence: supposons que le résultat est vrai pour dim(E) = n et
le démontrer pour n + 1. Pour un vecteur v1 non isotrope de E, la droite Dv1 est
supplémentaire de l’hyperplan Dv⊥1 , ce dernière est un sous espace de dimension
n. On peut donc appliquer l’hypothèse de récurrence sur Dv⊥1 et à la restriction
de ψ à Dv⊥1 ; il existe une base orthogonale {v2 , . . . , vn+1 } de Dv⊥1 relative à la
restriction de ϕ. Alors {v1 , v2 , . . . , vn+1 } est orthogonale de E, d’où le résultat.
Remarque 5.2.16. 1. Si ψ est nul, alors ψ(X, Y ) = 0, ∀ (X, Y ) ∈ E 2 , et par suite
toute base de E est orthogonale par rapport à la forme bilinéaire nulle.
2. Si ψ est une forme bilinéaire symétrique et {v1 , v2 , . . . , vn } une base orthogo-
X n Xn
nale relativement à ψ de E, alors ψ(X, Y ) = aii xi .yi où X = xi vi , Y =
i=1 i=1
n
X
yi vi et aii = ψ(vi , vi ). En particulier la matrice de ψ dans cette base est
i=1
diagonale, dont les coefficients diagonaux sont les aii .
 
a11 0 · · · 0
 0 a22 · · · 0 
Mψ =  .
 
.. .. ..
 ..

. . . 
0 0 ··· ann

86
Chapitre 5. Formes bilinéaires-Formes quadratiques

Proposition 5.2.17. Soient E un espace vectoriel de dimension finie sur C, et ψ une


forme bilinéaire symétrique sur E. Alors il existe une base {e1 , e2 , . . . , en } de E dans la
n
X Xn
quelle; ψ(X, Y ) = x1 .y1 + x2 .y2 + · · · + xr .yr où X = xi ei , et Y = yi ei .
i=1 i=1

Preuve. On sait qu’il existe une base orthogonale pour ψ qu’on note par exemple;
{f1 , f2 , . . . , fn } et telle que la matrice de ψ dans cette base est diagonale
 
a11 0 · · · 0
 0 a22 · · · 0 
Mψ =  .
 
.. .. .. 
 .. . . . 
0 0 ··· ann

Le rang de ψ c’est le rang de la matrice Mψ qu’est égal au nombre d’éléments non nuls
sur la diagonale. On indexe de 1 à r les éléments fi tels que aii = ψ(fi , fi ) 6= 0, et on
pose ei = √1aii fi . On indexe de r+1 à n les fi tels que aii = ψ(fi , fi ) = 0, et on pose
ei = fi . Alors {e1 , e2 , . . . , en } est une base orthogonale de E qui répond au résultat; car
X n Xn n
X
on a ψ(X, Y ) = bii xi yi avec X = xi e i , Y = yi ei et bii = ψ(ei , ei ).
i=1 i=1 i=1
. pour 1 ≤ i ≤ r : ψ(ei , ei ) = ψ( √1aii fi , √1aii fi ) = ( √1aii )2 ψ(fi , fi ) = 1
aii × aii = 1.
. pour r + 1 ≤ i ≤ n : bii = ψ(ei , ei ) = ψ(fi , fi ) = aii = 0.
D’où ψ(X, Y ) = x1 .y1 + x2 .y2 + · · · + xr .yr .

Remarque 5.2.18. Dans le cas K = C, si r = n, alors {e1 , e2 , . . . , en } est une base


orthonormale; ce qu’est le cas si ψ est non dégénéré.

Proposition 5.2.19. Soient E un espace vectoriel de dimension finie sur R, et ψ une


forme bilinéaire symétrique sur E. Alors il existe une base {e1 , e2 , . . . , en } de E et un
entier p tels que; ψ(X, Y ) = x1 .y1 + x2 .y2 + · · · + xp .yp − xp+1 yp+1 − · · · − xr .yr où X =
Xn n
X
xi ei , et Y = yi ei , et r le rang de ψ.
i=1 i=1

Preuve. Soient {f1 , f2 , . . . , fn } une base orthogonale relativement à ψ;


. on indexe de 1 à p les fi tels que ψ(fi , fi ) = aii > 0;

. on indexe de p + 1 à r les fi tels que ψ(fi , fi ) = aii < 0;

. on indexe de r + 1 à n les fi tels que ψ(fi , fi ) = aii = 0;

. pour 1 ≤ i ≤ p on pose ei = √1 fi ;
aii

. pour p + 1 ≤ i ≤ r on pose ei = √ 1 fi ;
−aii

. pour r + 1 ≤ i ≤ n on pose ei = fi .
Alors dans la base {e1 , e2 , . . . , en } on aura bien

ψ(X, Y ) = x1 .y1 + x2 .y2 + · · · + xp .yp − xp+1 yp+1 − · · · − xr .yr .

87
Chapitre 5. Formes bilinéaires-Formes quadratiques

Définition 5.2.20. 1. Soient ψ une forme bilinéaire symétrique et p l’entier tel


que ψ(X, Y ) = x1 .y1 + x2 .y2 + · · · + xp .yp − xp+1 yp+1 − · · · − xr .yr . On appelle
signature de ψ le couple (p, r − p).
2. Une forme bilinéaire symétrique ψ est dite positive si

∀ X ∈ E : ψ(X, X) ≥ 0 ⇐⇒ la signature de ψ est (r, 0).

3. Une forme bilinéaire symétrique ψ est dite définie positive si

∀ X ∈ E − {0E } : ψ(X, X) > 0 ⇐⇒ la signature de ψ est (n, 0).

Remarque 5.2.21. Si K = R on a:
a) Si ψ une forme bilinéaire symétrique définie positive, alors ψ possède une base
orthonormale {e1 , e2 , . . . , en } et c’est la base dans la quelle;
n
X n
X
ψ(X, Y ) = x1 .y1 + x2 .y2 + · · · + xr .yr où X = xi ei , et Y = yi ei .
i=1 i=1

b) Si ψ une forme bilinéaire symétrique et non dégénérée, alors il existe une base
orthogonale dans la quelle;

ψ(X, Y ) = x1 .y1 + x2 .y2 + · · · + xp .yp − xp+1 yp+1 − · · · − xr .yr .

5.3 Formes quadratiques


Définition 5.3.1. Soit ψ une forme bilinéaire symétrique sur E × E. On appelle forme
quadratique associée à ψ l’application, souvent notée Φ, de E dans K définie par:

Φ : E −→ K

X −→ Φ(X) = ψ(X, X)
On définit aussi le rang d’ une forme quadratique Φ comme étant le rang de la fbs ψ
qui lui est associée (ie; rg(Φ) = rg(ψ)).

Exemples 5.3.2. Soit la fbs suivante

ψ : R2 × R2 −→ R

((x, y), (x0 , y 0 )) 7−→ xy 0 + x0 y


La forme quadratique qui lui est associée est;

Φ : R2 −→ R

(x, y) 7−→ 2xy


Pour la fbs suivante:
ψ : Rn × Rn −→ R

88
Chapitre 5. Formes bilinéaires-Formes quadratiques

n
X
((x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )) 7−→ xk yk
k=1
la forme quadratique qui lui est associée est;

Φ : Rn −→ R
n
X
(x1 , x2 , . . . , xn ) 7−→ x2k
k=1

Proposition 5.3.3. Soit ψ une forme bilinéaire symétrique et Φ la forme quadratique


associée à ψ. On a
1. ∀ n ∈ N∗ ; ∀ α1 , α2 , . . . , αn ∈ K; ∀ X1 , X2 , . . . , Xn ∈ E :
Xn n
X X
Φ( αi Xi ) = αi2 Φ(Xi ) + 2 αi αj ψ(Xi , Xj ).
i=1 i=1 1≤i<j≤n

2. ∀ (α, β) ∈ K2 , ∀ (X, Y ) ∈ E 2 :

Φ(αX + βY ) = α2 Φ(X) + 2αβψ(X, Y ) + β 2 Φ(Y ).

3. ∀ (X, Y ) ∈ E 2 : Φ(X + Y ) = Φ(X) + 2ψ(X, Y ) + Φ(Y ).


4. ∀ (X, Y ) ∈ E 2 :
1 1
ψ(X, Y ) = (Φ(X + Y ) − Φ(X − Y )) = (Φ(X + Y ) − Φ(X) − Φ(Y )).
4 2
5. ∀ (X, Y ) ∈ E 2 : Φ(X + Y ) + Φ(X − Y ) = 2(Φ(X) + Φ(Y )).

Preuve. Il suffit d’appliquer les définitions.

Remarque 5.3.4. Les propriétés 3) et 4)de la proposition précédente montrent bien


que la donnée d’une forme quadratique détermine entièrement la forme bilinéaire sy-
métrique qui lui est associée ψ; ψ est appelée souvent forme polaire de Φ.

• Notion de polynôme quadratique.


On appelle polynôme quadratique à n variables x1 , x2 , . . . , xn toute application de la
forme;
Φ : Kn −→ K
X n X
(x1 , x2 , . . . , xn ) −→ αii x2i + 2 αij xi xj
i=1 1≤i<j≤n

où αii , αij ∈ K.


La forme polaire de φ est;
  Xn X
ψ (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) = αii xi yi + 2 αij (xi yj + xj yi ).
i=1 1≤i<j≤n

Exemples 5.3.5. Φ(x1 , x2 ) = x21+ 3x22 + 2x1 x2  est un exemple de polynôme à deux
variables. Sa forme polaire est; ψ (x1 , x2 ), (y1 , y2 ) = x1 y1 + 3x2 y2 + 2(x1 y2 + x2 y1 ).

89
Chapitre 5. Formes bilinéaires-Formes quadratiques

Définition 5.3.6. Soit E un espace vectoriel de dimension n, ψ une forme bilinéaire


symétrique sur E et Φ la forme quadratique qui lui est associée. On dit aussi que Φ est
non dégénérée si ψ l’est. Autrement dit; Φ est non dégénérée si son rang vaut n. Dans
le cas du rg(Φ) = rg(ψ) < n elle est dite dégénérée.

Exemples 5.3.7.
ψ : R2 × R2 −→ R
((x, y), (x0 , y 0 )) 7−→ 3xy 0 + 3x0 y
 
0 3
est non dégénéré car sa matrice associée est M atB (ψ) = . Elle est de rang
3 0
égale à 2.

5.3.1 Réduction d’une forme quadratique - Réduction de


Gauss
Soient Φ une forme quadratique et ψ sa forme polaire associée.
• Cas, K = C. Dans ce cas, il existe une base orthogonale de E dans la quelle ψ s’écrit
r
X r
X
sous la forme: ψ(X, Y ) = xi .yi , d’où Φ(X, X) = x2i . Cette forme est dite réduite
i=1 i=1
de Φ.
• Cas, K = R. Dans ce cas, il existe une base orthogonale, dans la quelle ψ s’écrit sous
p
X X r
la forme: ψ(X, Y ) = xi .yi − xi .yi où (p, r − p) est la signature de ψ. Alors
i=1 i=p+1
p
X r
X
Φ(X) = ψ(X, X) = x2i − x2i , aussi appelée la réduite de Φ.
i=1 i=p+1
• Réduction de Gauss.
Soit E un espace vectoriel de dimension finie sur K = R ou K = C ( dans le cas général
il faut prendre le corps K avec car(K) 6= 2), et B = {e1 , e2 , . . . en } une base de E. Soit
Φ une forme quadratique et ψ sa forme bilinéaire associée de rang r.
On sait que, pour tout X ∈ E de coordonnées (x1 , x2 , . . . , xn ) dans B, on a:

X n
X X
Φ(X) = aij xi .xj = aii x2i + 2 aij xi .xj ,
i,j i=1 1≤i<j≤n

de plus il existe une base orthogonale B 0 = {f1 , f2 , . . . , fn } de E telle que pour tout
r
X
X = y1 f1 + y2 f2 + · · · + yn fn on a Φ(X) = bi yi2 . Notons P la matrice de passage de
i=1
B 0 à B, alors on aura
   
y1 x1
 y2   x2  n
X
 ..  = P  ..  ⇐⇒ yi = pij xj = li (X), 1 ≤ i ≤ n.
   
.  . 
j
yn xn

90
Chapitre 5. Formes bilinéaires-Formes quadratiques

li désignant une forme linéaire sur E (li ∈ E ∗ , 1 ≤ i ≤ n). Les n formes linéaires li sont
indépendantes, puisque la matrice P = (pij )ij est inversible. On a donc
r
X
Φ(X) = bi (li (X))2 .
i=1

On peut donc énoncer le théorème suivant:

Théorème 5.3.8. Soit E un espace vectoriel de dimension finie sur R, ou C. Pour


toute forme quadratique Φ de rang r, il existe r formes linéaires indépendantes li ∈ E ∗
et r scalaires bi tels que
Xr
Φ(X) = bi (li (X))2 .
i=1
On dit alors que Φ a été décomposée en carrés.

Cette méthode de décomposition en carrés exige la connaissance d’une base ortho-


gonale relativement à la forme bilinéaire associée à Φ. La méthode de Gauss, permet
de résoudre directement le problème et de déterminer cette base.
• Méthode de Gauss: Soit Φ une forme quadratique de rang r et A = (aij )ij la
matrice de Φ dans une base B = {e1 , e2 , . . . , en } de E:
n
X X
aii x2i + 2 aij xi .xj ,
i=1 1≤i<j≤n

on va montrer par récurrence sur n, que Φ est la somme de carrés de r formes linéaires
indépendantes.
1. Supposons d’abord n = 2.

Φ(X) = a11 x21 + 2a12 x1 .x2 + a22 x22 ;

nous distinguons deux cas;


1er cas: Φ possède au moins un terme carré, par exemple a11 6= 0. On écrit
alors:  a12 2  a2 
Φ(X) = a11 x1 + x2 + a22 − 12 x22 .
a11 a11
Les formes linéaires: l1 (X) = x1 + aa12
11
x2 et l2 (X) = x22 sont évidemment indé-
pendantes. La propriété est vraie donc pour n = 2, et

1 aa11
   12
  
y1 x
= . 1
y2 0 1 x2
| {z }
P

a2
Le coefficient a22 − a12
11
est nul ssi r = 1.
2ieme cas: Φ ne possède pas de terme carré, Φ(X) = 2a12 x1 .x2 . On utilise la
relation; 4x1 x2 = (x1 + x2 )2 − (x1 − x2 )2 , et on obtient,
a12 a12
Φ(X) = (x1 + x2 )2 − (x1 − x2 )2 .
2 2

91
Chapitre 5. Formes bilinéaires-Formes quadratiques

Les formes linéaires l1 (X) = x1 + x2 et l2 (X) = x1 − x2 ; sont évidemment


indépendantes. Dans ce cas, on a nécessairement r = 2. La propriété est donc
démontrée pour n = 2, et
     
y1 1 1 x
= . 1
y2 1 −1 x2
| {z }
P

• Hypothèse de récurrence. Supposons la propriété est vraie pour toute forme


quadratique sur tout espace de dimension n − 1, et démontrons-la pour toute forme
quadratique sur tout espace de dimension n. On distingue encore deux cas.
1er cas: Φ possède au moins un terme carré, par exemple a11 6= 0. On peut écrire donc
Φ(X) = a11 x21 + R(x2 , x3 , . . . , xn ).x1 + Φ0 (x2 , x3 , . . . , xn ). Comme le cas de n = 2, et
en vu de simplification; on écrit simplement R, et Φ0 au lieu de
R(x2 , x3 , . . . , xn ), et Φ0 (x2 , x3 , . . . , xn ), on obtient:
 R R 2  1 R2
Φ(X) = a11 x21 + x1 + ( ) − + Φ0
a11 2a11 4 a11
 R 2 1 R2
= a11 x1 + + Φ0 −
2a11 4 a11
2
On pose Φ1 = Φ0 − 4a R
11
. Or Φ1 est une forme quadratique à n − 1 variables, c’est une
forme quadratique sur un sous espace vectoriel F qu’est engendré par {e2 , e3 , . . . , en },
alors d’après l’hypothèse de récurrence il existe une matrice A telle que,
   
y2 x2
 y3   x3 
 ..  = A.  .. 
   
.  . 
yn xn
r
X r
X  2
et Φ1 = bi yi2 = bi li (x2 , x3 , . . . , xn ) . Posons donc; y1 = x1 + R
2a11 , on obtient:
i=2 i=2
   
y1   x1
 y2  1 ∗ ∗ ... ∗  
  0   x2 
 y3     x3 
  =  .. .  
 ..   . A   .. 
.  . 
0
yn | {z } xn
P

r
X r
X  2
et que Φ(X) = bi yi2 = bi li (x1 , x2 , x3 , . . . , xn ) .
i=1 i=1
2ieme cas: Φ ne possède aucun terme carré. Si la forme Φ n’est pas nulle, elle contient
des termes rectangles aij xi .xj , par exemple a12 6= 0. En vu de simplification posons

92
Chapitre 5. Formes bilinéaires-Formes quadratiques

2a12 = a1 , on peut écrire;

Φ(X) = a1 x1 x2 + R(x3 , x4 , . . . , xn ).x1 + S(x3 , x4 , . . . , xn ).x2 + Φ0 (x3 , x4 , . . . , xn )


 R S 
= a1 x1 x2 + x1 + x2 + Φ 0
a1 a1
 S R  S.R
= a1 x1 + . x2 + − + Φ0
a1 a1 a1
S R
et d’après la relation; 4u1 .u2 = (u1 + u2 )2 − (u1 − u2 )2 , on aura (x1 + a1 ).(x2 + a1 ) =
1 2 2 S R S R
4 (u1 − u2 ) où u1 = x1 + x2 + a1 + a1 , u2 = x1 − x2 + a1 − a1 . D’où

a1 2 S.R
Φ(X) = (u1 − u22 ) + Φ0 − .
4 a1

On pose Φ1 = Φ0 − S.Ra1 , on a Φ1 (x3 , x4 , . . . , xn ) dépend de n−2 variables, c’est une forme


quadratique sur un sous espace vectoriel F qu’est engendré par {e3 , e4 , . . . , en }, dim(F ) =
n − 2, alors d’après l’hypothèse de récurrence il existe une matrice A telle que,
   
y3 x3
 y4   x4 
 ..  = A.  .. 
   
.  . 
yn xn
r
X r
X  2
et Φ1 = bi yi2 = bi li (x3 , x4 , . . . , xn ) . On pose alors;
i=3 i=3

S R S R
y1 = x1 +x2 + + = l1 (x1 , x2 , x3 , x4 , . . . , xn ); y2 = x1 −x2 + − = l2 (x1 , x2 , x3 , x4 , . . . , xn ),
a1 a1 a1 a1
     
    y1 1 1 ∗ ... ∗ x1
y3 x3  y2  1 −1 ∗ . . . ∗   x2 
 y4   x4       
et on a  .  = A.  .  , d’où  y3  = 0 0
  x3 
.   et que Φ =
      
 ..   ..   ..   .. ..   .. 
 .  . . A   . 
yn xn
yn 0 0 xn
| {z }
P
r
X r
X  2
bi yi2 = bi li (X) , où r = rang(Φ).
i=1 i=1

Exemples 5.3.9. 1. Sur R2 , Φ(X) = x21 + 2x 1 .x


2 = (x + x )2 . Alors y =
2 + x
2 1  2  1
y 1 1 1 x1
l1 (X) = x1 + x2 , donc Φ(X) = l1 (X)2 , et = . . On choisit
y2 0 α x2
 
1 1
α de tel sorte que soit inversible; car c’est une matrice de passage, on
0 α
peut prendre α = 1.
 
2. Soit Φ(X) = x1 .x2 sur R2 . On a Φ(X) = 41 (x1 + x2 )2 − (x1 − x2 )2 , donc y1 =
     
y1 1 1 x
l1 (X) = x1 + x2 , y2 = l2 (X) = x1 − x2 , ce qui donne; = . 1
y2 1 −1 x2

93
Chapitre 5. Formes bilinéaires-Formes quadratiques

5.4 Groupe orthogonal


5.4.1 Endomorphisme orthogonal
Toujours K = R ou C.

Définition 5.4.1. Soit E un espace vectoriel sur K, ψ une forme bilinéaire symétrique
et u ∈ L(E). On dira que u est un endomorphisme orthogonal relativement à ψ ou bien
simplement ψ− orthogonal si;

∀ (X, Y ) ∈ E 2 : ψ(u(X), u(Y )) = ψ(X, Y )

Remarque 5.4.2. Soit Φ la forme quadratique associée à ψ. Alors u ∈ L(E), est un


endomorphisme ψ− orthogonal si et seulement si, Φ ◦ u = Φ, ie; ∀ X ∈ E : Φ(u(X)) =
Φ(X).

Proposition 5.4.3. Si E est de dimension finie et ψ une forme bilinéaire symétrique


sur E non dégénérée, alors tout endomorphisme ψ− orthogonal est un automorphisme.

Preuve. En effet; soit u un endomorphisme ψ− orthogonal de E. Soit X ∈ E tel que


u(X) = 0. Alors ∀ Y ∈ E : ψ(u(X), u(Y )) = ψ(0E , u(Y )) = 0 =⇒ ψ(X, Y ) = 0, d’où
X ∈ E ⊥ . Or ψ est non dégénérée, alors E ⊥ = {0E }, donc X = 0E , d’où u est injective
et comme E est de dimension finie, u est bijective.

Proposition 5.4.4. Soit E un espace vectoriel sur K et ψ une forme bilinéaire symé-
trique sur E. Alors u ∈ L(E) est un endomorphisme ψ− orthogonal si et seulement si
t u ◦ ψ̄ ◦ u = ψ̄, où t u ∈ L(E ∗ ) est la transposé de u.

Preuve. Posons g = t u ◦ ψ̄ ◦ u, montrons alors que g = ψ̄. Il est claire que

g(X) = t u ◦ ψ̄(u(X)); ie : gX = t u ◦ ψ̄u(X) = ψ̄u(X) ◦ u

et par conséquent, pour tout Y ∈ E : gX (Y ) = ψ̄u(X) ◦ u(Y ) = ψ(u(X), u(Y )). Puisque
u est ψ− orthogonal ssi ψ(u(X), u(Y )) = ψ(X, Y ), donc gX (Y ) = ψ̄X (Y ), d’où le
résultat.

Exercice. Soit Mψ l’ensemble des endomorphismes ψ− orthogonaux de L(E). En


appliquant la proposition précédente:
1. Montrer que IdE ∈ Mψ .
2. Montrer que (u ∈ Mψ et v ∈ Mψ ) =⇒ u ◦ v ∈ Mψ .
3. Montrer que si u et v sont des automorphismes ψ− orthogonaux de E, alors u◦v
est un automorphisme ψ− orthogonal de E et aussi u−1 est un ψ− orthogonal.
On peut énoncer alors le théorème suivant:

Théorème 5.4.5. Soit E un espace vectoriel sur K et ψ une forme bilinéaire symétrique
sur E. L’ensemble noté Oψ (E), des automorphismes ψ− orthogonaux de E, est un sous
groupe du groupe des automorphismes linéaires GL(E).

Définition 5.4.6. L’ensemble Oψ (E), s’appelle groupe orthogonal relatif à ψ, ou


groupe ψ− orthogonal de E.

94
Chapitre 5. Formes bilinéaires-Formes quadratiques

5.4.2 Matrices orthogonales


Soient E un espace vectoriel sur K de dimension finie n, et ψ une forme bilinéaire
symétrique sur E non dégénéré. Alors dans ce cas, tout endomorphisme ψ− orthogonal
est un automorphisme et appartient à Oψ (E), ie; Mψ = Oψ (E). On sait que si u ∈
Oψ (E); on a t u ◦ ψ̄ ◦ u = ψ̄. Pour toute base de E, si A est la matrice de ψ et M
celle de u dans cette base, on aura t M AM = A. L’ensemble des matrices M de
Mn (K) vérifiant cette relation est un sous groupe du groupe des matrices inversibles
GL(n, K), que l’on note OA (n, K), et qui ’est isomorphe au groupe orthogonal Oψ (E).
On a M ∈ OA (n, K) =⇒ det(M ) = ±1.
Supposons qu’il existe une base B, ψ− orthonormale de E. Alors la matrice de ψ dans
B est la matrice unité In (ici A = In ) et si M est la matrice d’un u ∈ Oψ (E) dans B,
on a t M M = In .

Définition 5.4.7. Une matrice M ∈ Mn (K) est dite orthogonale si t M M = In .


L’ensemble des matrices orthogonales d’ordre n se note par O(n, K), et se nomme
groupe orthogonal à n variables sur K.

Théorème 5.4.8. Soient E un espace vectoriel sur K de dimension finie n et ψ une


forme bilinéaire symétrique sur E non dégénéré. On suppose qu’il existe une base B,
ψ− orthonormale de E. Alors le groupe O(n, K), est isomorphe à Oψ (E).

Preuve. On montre d’après ce qui précède que l’application;

ϕ : Oψ (E) −→ O(n, K)

u 7−→ MBB (u)


est un isomorphisme.

Corollaire 5.4.9. Pour toute matrice P ∈ GL(n, K), le groupe OA (n, K) avec A = t P P
est isomorphe au groupe O(n, K).

Preuve. Pour toute P ∈ GL(n, K), considérons B 0 la base déduite de B par P,


ie; P (B) = B 0 et A la matrice de ψ dans B 0 . Alors A = t P In P = t P P, et on
montre que l’application suivante:

D : OA (n, K) −→ O(n, K)

M 7−→ P M P −1
est un isomorphisme.

5.4.3 Adjoint d’un endomorphisme


Soient E un espace vectoriel sur K de dimension finie n, et ψ une forme bilinéaire
symétrique sur E non dégénéré et u un endomorphisme de E. On sait que

ψ̄ : E −→ E ∗

Z 7−→ ψ̄Z

95
Chapitre 5. Formes bilinéaires-Formes quadratiques

tel que ∀ X ∈ E; ψ̄Z (X) = ψ(X, Z), est une bijection ( de plus est un isomorphisme),
et nous montrons que
fY : E −→ K
X 7−→ ψ(u(X), Y )
est une application linéaire. Comme ψ̄ est une bijection, alors il existe un unique Z ∈
E tq ψ̄(Z) = ψ̄Z = fY , par suite on a;

∀X ∈ E : ψ̄Z (X) = fY (X) ⇐⇒ ∀X ∈ E : ψ(X, Z) = ψ(u(X), Y )

On pose u∗ (Y ) = Z, et on obtient ∀X ∈ E : ψ(u(X), Y ) = ψ(X, u∗ (Y )). On vérifie


que u∗ est une application linéaire et unique (faites ça comme exercice). Nous énonçons
alors le théorème suivant:

Théorème 5.4.10. Soient E un espace vectoriel sur K de dimension finie n, et ψ


une forme bilinéaire symétrique sur E non dégénéré et u un endomorphisme de E. Il
existe un endomorphisme unique u∗ ∈ L(E) tel que, pour tous X et Y de E, on ait
ψ(u(X), Y ) = ψ(X, u∗ (Y )).

Définition 5.4.11. L’application u∗ cité précédemment appelée l’application adjointe


de l’application u. Lorsque u∗ = u, on dit que u est auto-adjoint ou symétrique, et si
u∗ = −u, il est dite antisymétrique.

Proposition 5.4.12. Soient E un espace vectoriel sur K de dimension finie n, et ψ


une forme bilinéaire symétrique sur E non dégénéré, u un endomorphisme de E et u∗
l’adjoint de u. Alors u est orthogonal si et seulement si u∗ ◦ u = IdE .

Preuve. u est orthogonal ssi;


 
∀ (X, Y ) ∈ E 2 : ψ(u(X), u(Y )) = ψ(X, Y ) ⇐⇒ ∀ (X, Y ) ∈ E 2 : ψ X, u∗ (u(Y )) = ψ(X, Y )
 
⇐⇒ ∀ (X, Y ) ∈ E 2 : ψ X, u∗ (u(Y )) − Y = 0
⇐⇒ ∀ Y ∈ E; u∗ (u(Y )) − Y ∈ E ⊥ = {0E }
⇐⇒ ∀ Y ∈ E; u∗ ◦ u(Y ) = Y
⇐⇒ u∗ ◦ u = IdE .

Proposition 5.4.13. Soient E un espace vectoriel sur K de dimension finie n, et ψ


une forme bilinéaire symétrique sur E non dégénéré, u et v deux endomorphismes de
E. On a:
1. (u ◦ v)∗ = v ∗ ◦ u∗ .
2. ∀ α, β ∈ K : (αu + βv)∗ = αu∗ + βv ∗ .
3. (u∗ )∗ = u.
4. Id∗E = IdE .
5. Si u est un automorphisme, (u−1 )∗ = (u∗ )−1 .

96
Chapitre 5. Formes bilinéaires-Formes quadratiques

   
Preuve. 1. On a d’une part; ∀ X, Y ∈ E; ψ (u ◦ v)(X), Y = ψ u(v(X)), Y =
   
ψ v(X), u∗ (Y ) = X, v ∗ (u∗ (Y )) , d’autre part;
   
∀ X, Y ∈ E; ψ (u ◦ v)(X), Y = ψ X, (u ◦ v)∗ (Y ) .

D’après l’unicité de l’adjoint, on aura (u ◦ v)∗ = v ∗ ◦ u∗ .


2. Se vérifie instantanément.
3. On a ∀ X, Y ∈ E; ψ(u∗ (X), Y ) = ψ(Y, u∗ (X)) = ψ(u(Y ), X), d’autre part;
∀ X, Y ∈ E; ψ(u∗ (X), Y ) = ψ(X, (u∗ )∗ (Y )) = ψ((u∗ )∗ (Y ), X). D’où l’égalité
(u∗ )∗ = u.
4. Or ∀ X, Y ∈ E; ψ(X, Y ) = ψ(IdE (X), Y ) = ψ(X, Id∗E (Y )), donc ∀ X, Y ∈
E; ψ(X, Id∗E (Y ) − Y ) = 0, d’où ∀ Y ∈ E; Id∗E (Y ) − Y ∈ E ⊥ = {0}, car ψ est
non dégénérée. Donc ∀ Y ∈ E; Id∗E (Y ) = IdE (Y ), ce qui dit que Id∗E = IdE .
5. Se déduit des propriétés 1 et 4 précédentes.

97
Chapitre 6

Espaces pré-hilbertiens réels -


Espaces pré-hilbertiens
complexes (Supplémentaire)

6.1 Espace pré-hilbertien réel


Dans cette section nous considérons E un espace vectoriel sur R.

6.1.1 Produit scalaire


Définition 6.1.1. On appelle produit scalaire toute forme bilinéaire symétrique définie
positive. Autrement dit; ψ est un produit scalaire si;
i) ∀ (X, Y ) ∈ E 2 : ψ(X, Y ) = ψ(Y, X).
ii) ∀ X ∈ E; ψ(X, X) ≥ 0.
iii) ∀ X ∈ E : (ψ(X, X) = 0 ⇐⇒ X = 0).

Exemples 6.1.2.
ψ : Rn × Rn −→ R
n
X
((x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )) 7−→ x k yk
k=1

est un produit scalaire.


ψ : R2 [X] × R2 [X] −→ R
(P, Q) −→ P (0)Q(0) + P (1)Q(1) + 2P (2)Q(2)
est aussi un produit scalaire.

Remarque 6.1.3. 1. Lorsque ψ est un produit scalaire, on note souvent (X|Y ) ou <
X, Y > à la place de ψ(X, Y ).
2. Il est claire qu’un produit scalaire est une forme bilinéaire symétrique, non
dégénéré.

98
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

6.1.2 Espace euclidien


Définition 6.1.4. On appelle espace euclidien tout couple (E, ψ) où E est ev sur R de
dimension finie et ψ un produit scalaire sur E. Dans le cas de dimension infinie il est
dit espace pré-hilbertien.

Nous avons maintenant tout mis en place pour pouvoir généraliser l’étude géomé-
trique des vecteurs du plan à tous les vecteurs d’un espace euclidien. Commençons
d’abord par mesurer la taille des vecteurs avec la notion de norme.

Définition 6.1.5. Soit E un ev euclidien ( ou bien pré-hilbertien). On appelle norme


associe au produit scalaire < X, Y > l’application définie par;

||.|| : E −→ R
p √
7 → ||X|| = < X, X > = t XX
X−

Théorème 6.1.6. Inégalité de Cauchy-Schwarz:


Soit E un espace euclidien (ou bien pré-hilbertien) on a,

∀ (X, Y ) ∈ E 2 : (< X, Y >)2 ≤ < X, X > . < Y, Y >

C’est a dire que si Φ est la forme quadratique associée au produit scalaire < .. > alors;

∀ (X, Y ) ∈ E 2 : (< X, Y >)2 ≤ Φ(X).Φ(Y ) = ||X||2 .||Y ||2

Preuve. Comme exercice

Théorème 6.1.7. Inégalité de Minkowski:


Soit E un espace euclidien (ou bien pré-hilbertien) et Φ la forme quadratique associée
au produit scalaire < .. > on a,
1 1 1
∀ (X, Y ) ∈ E 2 : (Φ(X + Y )) 2 ≤ (Φ(X)) 2 + (Φ(Y )) 2

c’est a dire
∀ (X, Y ) ∈ E 2 : ||X + Y || ≤ ||X|| + ||Y ||.

Preuve. Comme exercice.

Remarque 6.1.8. 1. De même; dans le cas de dimension finie, puisque le produit


scalaire est une forme bilinéaire symétrique non dégénéré, alors l’application;

ψ̄ : E −→ E ∗

X 7−→ ψ̄(X)
tel que ∀ Y ∈ E : ψ̄(X)(Y ) =< X; Y > est un isomorphisme; appelé isomor-
phisme canonique.
2. Si E est un espace pré-hilbertien réel l’application ψ̄ précédente est en général
isomorphe à ψ̄(E), qu’est un sous espace vectoriel de E ∗ . Ceci nous permet de
définir un prolongement naturel de E dans E ∗ .

99
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

6.1.3 L’orthogonalité - Projecteurs orthogonaux


Propriétés 6.1.9. Soit (E, < ., . >) un espace euclidien. Comme le produit scalaire
< ., . > est une forme bilinéaire symétrique définie positive, alors on a les propriétés
suivantes:
1. Pour tout partie A de E, A⊥ est un sous espace vectoriel de E.
2. ∀ A, B ∈ P(E) : A ⊂ B =⇒ B ⊥ ⊂ A⊥ .
3. ∀ A ∈ P(E) : A⊥ = (vect(A))⊥ .
4. Pour tout sous espace vectoriel F de E on a; F ⊕ F ⊥ = E et donc dim(E) −
dim(F ) = dim(F ⊥ ).
5. ∀ A ∈ P(E) : (A⊥ )⊥ = vect(A).
6. E ⊥ = {0E } et {0E }⊥ = E.
7. ∀ A ∈ P(E) : A ∩ A⊥ ⊂ {0E }.
8. Pour tous sous espaces vectoriels F et G de E;

(F + G)⊥ = F ⊥ ∩ G⊥ et (F ∩ G)⊥ = F ⊥ + G⊥ .

Preuve. Comme dans le chapitre précédent.

Définition 6.1.10. Soit (E, < ., . >) un espace euclidien et F un sous espace vectoriel
de E. On appelle projecteur orthogonal sur F, et l’on note pF , le projecteur sur F
parallèlement à F ⊥ .

Remarque 6.1.11. 1. Soit p un projecteur de E. p est un projecteur orthogonal


si et seulement si Im(p) ⊥ Ker(p).
2. Le projeté orthogonal pF (X) d’un vecteur X ∈ E sur F est caractérisé par:

pF (X) ∈ F
X − pF (X) ∈ F ⊥

Proposition 6.1.12. Soit (E, < ., . >) un espace euclidien (ou bien pré-hilbertien), et
(Xi )i∈I une famille d’éléments de E. Si (Xi )i∈I est orthogonale et ∀ i ∈ I; Xi 6= 0, alors
(Xi )i∈I est libre.

Théorème 6.1.13. Théorème de Pythagore: Soit (E, < ., . >) un espace euclidien
(ou bien pré-hilbertien) et (X, Y ) ∈ E 2 . On a

X ⊥ Y ⇐⇒ ||X + Y ||2 = ||X||2 + ||Y ||2

Remarque 6.1.14. Le cas général d’un espace pré-hilbertien en dimension infinie


diffère à bien des égards de la dimension finie. L’espace dual n’est plus nécessairement
isomorphe à l’espace, l’orthogonal d’un sous-espace vectoriel n’est plus nécessairement
un supplémentaire de ce sous-espace, l’orthogonal de l’orthogonal d’un sous-espace ne
redonne pas nécessairement ce sous-espace. Par ailleurs, les applications linéaires ne
sont plus nécessairement continues. Pour cela on va s’intéresser beaucoup plus au cas
d’espace euclidien.

100
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

6.1.4 Orthonormalisation de Gram-Schmidt


Théorème 6.1.15. Soit F ⊂ E un sous-espace vectoriel d’un espace euclidien (E; <
., . >). Toute base (e1 , e2 , . . . , ep ) de F induit une base orthonormée de F.

Preuve. On construit cette base par le procédé de récurrence; On commence par


f0
f1 = ||e11 || e1 , puis on note f20 = e2 − < e2 , f1 > .f1 , et donc f2 = ||f20 || . Ainsi de suite
2
k−1
X f0
pour le k iéme vecteur c’est: fk0 = ek − < ek , fi > .fi , et fk = k0 , jusqu’à fp0 =
||fk ||
i=1
p−1
X fp0
ep − < ep , fi > .fi , et fp = , de plus pour tout 1 ≤ k ≤ p; vect(e1 , e2 , . . . , ek ) =
||fp0 ||
i=1
vect(f1 , f2 , . . . , fk ). D’où
le système (f1 , f2 , . . . , fp ) est une base orthonormée de F car
∀ i 6= j; < fi , fj >= 0 et ||fi || = 1.

Corollaire 6.1.16. Tout espace vectoriel euclidien admet au moins une base orthonor-
male.

Preuve. En effet; d’après la proposition 5.2.15, il existe une base orthogonale dans
E, et d’après le théorème 6.1.15 précèdent on la ramène en une base orthonormale.

Proposition 6.1.17. Si B = (e1 , e2 . . . , en ) est une base orthonormée d’espace eucli-


dien E, alors:
X n
∀X ∈ E : X = < ei , X > ei
i=1

où < ei , X >= xi .

Exercice. Soit (E; < ., . >) un espace euclidien de dimension n et B une base de
E et soit A = M atB (< ., . >)
1. Montrer que B est orthogonale ssi la matrice A est diagonale.
2. Montrer que B est orthonormale ssi A = In .

Proposition 6.1.18. Soit E un espace euclidien. On a les propriétés suivantes:


1. Soient B une base orthonormale de E, u ∈ L(E) et A = M atB (u), alors M atB (u∗ ) = t A.
2. L’application u −→ u∗ est un automorphisme involutif linéaire de L(E). Autre-
ment dit; pour tous réels α, β et tous endomorphismes u et v de E:

(u∗ )∗ = u, et (αu + βv)∗ = αu∗ + βv ∗ .

3. Id∗E = IdE , (u ◦ v)∗ = v ∗ ◦ u∗ . En particulière si u est inversible, alors u∗ est


inversible et (u−1 )∗ = (u∗ )−1 .
4. ∀ u ∈ L(E); Ker(u∗ ) = Im(u)⊥ et Im(u∗ ) = Ker(u)⊥ . En particulière, rang(u∗ ) =
rang(u).
5. ∀ u ∈ L(E), u et u∗ ont le même polynôme caractéristique, donc même détermi-
nant et même trace.
6. Si F est un sous-espace vectoriel de E stable par u, alors F ⊥ est stable par u∗ .

101
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

n
X
Preuve. 1. Soit B = {e1 , e2 , . . . , en } une b.o.n de E, alors pour tout X = xi e i , Y =
i=1
n
X n
X
yi ei on a < X, Y >= xi yi = t XY, alors < u(X), Y >= t (AX)Y = t X t AY.
i=1 i=1
Or < u(X), Y >=< X, u∗ (Y ) >= t X t AY, donc u∗ (Y ) = t AY et ceci pour
tout Y ∈ E. D’où M atB (u∗ ) = t A.
2. Puisque le produit scalaire est une fbs non dégénérée, alors d’après la proposition
5.4.13, on aurait le résultat.
3. La même démonstration que dans 5.4.13.
4. On a;

X ∈ Ker(u∗ ) ⇐⇒ u∗ (X) = 0
⇐⇒ ∀ Y ∈ E; < Y, u∗ (X) >= 0
⇐⇒ ∀ Y ∈ E; < u(Y ), X >= 0
⇐⇒ X ∈ (Im(u))⊥

La seconde égalité se déduit de (u∗ )∗ = u et (F ⊥ )⊥ = F car F est de dimension


finie. D’où rang(u∗ ) = dim(Im(u∗ )) = dim(Ker(u))⊥ = n − dimKer(u) =
dim(Im(u)) = rang(u).
5. On a Pu∗ = Pu , car PA = P tA . De même aussi det(u∗ ) = det(u) et tr(u∗ ) =
tr(u).
6. Supposons u(F ) ⊂ F et soit X ∈ F ⊥ , alors pour tout Y ∈ F, < u∗ (X), Y >=<
X, u(Y ) >= 0 car u(Y ) ∈ F. On en déduit que u∗ (X) ∈ F ⊥ et donc F ⊥ est
stable par u∗ .

Remarque 6.1.19. Si E est de dimension infinie (espace pré-hilbertien), un endomor-


phisme u ∈ L(E) n’admet pas toujours un adjoint, car le morphisme associé ψ̄ au
produit scalaire ψ est seulement injectif. Mais s’il existe, il est unique et l’application
u −→ u∗ est involutive linéaire.

Théorème 6.1.20. Soit E un espace pré-hilbertien et u un automorphisme orthogonal


( ie:u ∈ O(E), et linéaire bijectif ). Alors u admet un adjoint u∗ et u∗ = u−1 .

Preuve. En effet; pour tous X, Y ∈ E, on a < u(X), u(Y ) >=< X, Y > et en


prenant Z = u(Y ) d’où Y = u−1 (Z), on obtient ∀ (X, Z) ∈ E 2 ; < u(X), Z >=<
X, u−1 (Z) >=< X, u∗ (Z) > .

Remarque 6.1.21. Lorsque un espace pré-hilbertien est complet pour la norme associe
au produit scalaire < ., . >, il se nomme en analyse, par espace de Hilbert réel.

6.2 Espace pré-hilbertien complexe


On développe dans cette section une théorie proche de celle vue dans la section
précédente, faisant intervenir le corps des nombres complexes au lien des nombres réels.
Les preuves analogues ne sont pas répétées.

102
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

6.2.1 Formes sesquilinéaires


Définition 6.2.1. On appelle forme sesquilinéaire sur E × E, ou sur E tout applica-
tion ψ : E × E −→ C telle que:
1. ψ est semi- linéaire par rapport à la 1er place, ie;

∀ α, β ∈ C, ∀ X, X 0 , Y ∈ E : ψ(αX + βX 0 , Y ) = ᾱψ(X, Y ) + β̄ψ(X 0 , Y ),

avec ᾱ, β̄ sont les conjugues respectivement de α et β. nous notons Sq(E) l’en-
semble des formes sesquilinéaires sur E.
2. ψ est linéaire par rapport à la 2eme place, ie;

∀ α, β ∈ C, ∀ X, Y, Y 0 ∈ E : ψ(X, αY + βY 0 ) = αψ(X, Y ) + βψ(X, Y 0 ).

3. Une forme sesquilinéaire ψ sur E est dite à symétrie hermitienne (ou simplement
hermitienne) si;
∀ (X, Y ) ∈ E 2 : ψ(Y, X) = ψ(X, Y ).
Nous notons SH(E)l’ensemble des fsh sur E.
4. On appelle forme quadratique hermitienne associe à ψ l’application souvent noté
Φ;
Φ : E −→ C
X 7−→ Φ(X) = ψ(X, X)
Puisque ψ(X, X) = ψ(X, X), alors ψ(X, X) ∈ R.

Exemples 6.2.2. 1. Soit E = C2 , à tout X = (x1 , x2 ) et Y = (y1 , y2 ) de C2 on


associe
ψ(X, Y ) = x¯1 y2 + ix¯2 y1 .
ψ est une forme sesquilinéaire sur C2 .
2. Soit E = C([0, 1], C). L’application;

ψ : E × E −→ C
Z 1
(f, g) 7−→ f¯g
0
est une forme hermitienne, sa forme quadratique associée est:

Φ : E −→ C
Z 1
f 7−→ |f |2
0

103
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

6.2.2 Représentation matricielle


Supposons que E soit de dimension finie n sur C, et soit B = {e1 , e2 , . . . , en } une
Xn Xn
base de E. Pour tous X et Y de E, on a: X = xi ei et Y = yj ej . Si ψ est une
i=1 j=1
Xn n
X
forme sesquilinéaire sur E, on aura ψ(X, Y ) = ψ( xi ei , Y ) = x̄i ψ(ei , Y ), on aura
i=1 i=1
n
X n X
X n
aussi ψ(ei , Y ) = yj ψ(ei , ej ) et, par conséquent, ψ(X, Y ) = x̄i yj ψ(ei , ej ).
j=1 i=1 j=1
Posons aij = ψ(ei , ej ), la matrice carrée (aij ) ∈ Mn (C) se nomme matrice de la forme
sesquilinéaire ψ par rapport à la base B. Donc
n X
X n
ψ(X, Y ) = aij x̄i yj (6.1)
i=1 j=1

Réciproquement, donnons nous une matrice (aij ) ∈ Mn (C), on vérifie facilement que
la forme définie par la relation (6,1) est une forme sesquilinéaire. On peut alors énoncer
le théorème suivant.

Théorème 6.2.3. Soit E un espace vectoriel de dimension n sur C, et B = {e1 , e2 , . . . , en }


une base de E. Il existe un isomorphisme

ϕ : Sq(E) −→ Mn (C)

ψ −→ (ψ(ei , ej )) = (aij )
La matrice (aij ) appelée la matrice de ψ par rapport à la base B.

Définition 6.2.4. Soit une matrice A = (aij ) ∈ Mp,n (C). On appelle matrice conjugue
de A qu’on note Ā, la matrice Ā = (a¯ij ) ∈ Mp,n .

Remarque 6.2.5. Soit ψ une forme sesquilinéaire et A sa matrice associée relativement


à la base B = {e1 , e2 , . . . , en }, alors ∀ (X, Y ) ∈ E 2 : ψ(X, Y ) = t Y AX̄.
 
2 1 i
Exercice. Dans la base canonique d’espace C sur C, considérons la matrice .
2i −1
Donner la forme sesquilinéaire associée à A.

6.2.3 Caractérisation des formes quadratiques hermitiennes


Théorème 6.2.6. Soit E un espace vectoriel sur C et Φ : E −→ R une application.
Alors Φ est une forme quadratique hermitienne si et seulement si;
1. Φ(0) = 0 et (∀ X ∈ E), Φ(iX) = Φ(−X) = Φ(X).
2. L’application ψ : E 2 −→ C définie pour tous X et Y de E par:
1
ψ(X, Y ) = [Φ(X + Y ) − Φ(X − Y ) + iΦ(X − iY ) − iΦ(X + iY )],
4
est une forme sesquilinéaire.

104
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

Preuve. Laissé aux lecteurs.


Corollaire 6.2.7. Soit E un espace vectoriel sur C et Φ : E −→ R une application.
Alors Φ est une forme quadratique hermitienne si et seulement si; Φ(0) = 0 et L’appli-
cation ψ : E 2 −→ C définie pour tous X et Y de E par
1
ψ(X, Y ) = [Φ(X + Y ) − Φ(X − Y ) + iΦ(X − iY ) − iΦ(X + iY )],
4
est une forme hermitienne.
Preuve. Il suffit d’appliquer le théorème précédent et de vérifier que
∀ (X, Y ) ∈ E 2 ; ψ(Y, X) = ψ(X, Y ).
La réciproque c’est évidente.

6.2.4 Matrices hermitiennes


Soit E un espace vectoriel de dimension finie n sur C et B = {e1 , e2 , . . . , en } une
base de E. Pour toute forme hermitienne ψ sur E, la matrice A = (aij ) de ψ dans la
base B, vérifie ∀ i, j ∈ {1, 2, . . . , n} : ψ(ei , ej ) = ψ(ej , ei ); ie : aij = a¯ji , en d’autre
terme t A = Ā.
Définition 6.2.8. Toute matrice carrée A ∈ Mn (C) telle que t A = Ā appelée matrice
hermitienne.
Théorème 6.2.9. Soit E un espace vectoriel de dimension finie n sur C. Une forme
sesquilinéaire sur E est hermitienne si et seulement si, sa matrice dans une base de E
est hermitienne.
Preuve. =⇒) Si ψ est une forme sesquilinéaire hermitienne, alors sa matrice est her-
mitienne (évident).
⇐=) Réciproquement; si une forme sesquilinéaire ψ à pour matrice hermitienne A dans
une base B, alors ψ est une forme hermitienne; en effet: on a ψ(X, Y ) = t Y AX̄ et
ψ(Y, X) = t XAȲ = t t
( XAȲ ) = t Ȳ t AX = t Ȳ ĀX = ψ(X, Y ), (car t A = Ā).
| {z }
car, est un scalair
Proposition 6.2.10. 1. Toute valeur propre d’une matrice hermitienne est réelle.
2. Toute matrice hermitienne à coefficients réels est une matrice symétrique.
3. Le polynôme caractéristique de toute matrice hermitienne (de Mn (C)) (resp
symétrique réelle de Mn (R)) appartient à R[X] et est scindé sur R.
Preuve. 1. Soit A la matrice hermitienne et, Φ(X) = t XAX̄ la forme quadra-
tique qui lui associée dans une base B de E. Si λ ∈ C est une valeur propre de
A, et X son vecteur propre associée, alors
AX = λX =⇒ ĀX̄ = λ̄X̄ =⇒ t AX̄ = λ̄X̄; car t
A = Ā.
On en déduit t X t AX̄ = λ̄ t X X̄, et en prenant les transposées, t X̄AX =
λ̄ t X̄X. On a aussi AX = λX =⇒ t X̄AX = λ t X̄X. Par conséquent X 6= 0
entraine t X̄X 6= 0, on a λ t X̄X = λ̄ t X̄X =⇒ λ = λ̄. Donc toute valeur propre
d’une matrice hermitienne est réelle.

105
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

2. Si A est une matrice hermitienne à coefficients réels, alors t A = Ā = A, ce qui


dit que A est symétrique. Inversement une matrice symétrique réelle peut être
considéré comme matrice hermitienne, puisque Mn (R) ⊂ Mn (C).
3. Se déduit de 1 et 2.

6.2.5 Orthogonalité
De nombreux résultat de l’étude des formes bilinéaires symétriques faites au chapitre
5 vont s’appliquer aux formes hermitiennes.

Définition 6.2.11. Soit E un espace vectoriel sur C et ψ une forme hermitienne sur E.
On dit que deux vecteurs X et Y sont orthogonaux par rapport à la forme hermitienne
ψ , si ψ(X, Y ) = 0.

Remarque 6.2.12. ψ(X, Y ) = 0 ⇐⇒ ψ(Y, X) = 0, puisque le conjugue de zéro est


zéro. La relation d’orthogonalité est donc symétrique, donc toutes les propriétés du
chapitre 5 correspondent aux formes bilinéaires symétriques restent vraies pour les
formes hermitiennes.

Définition 6.2.13. Soit E un espace vectoriel sur C et ψ une forme hermitienne sur
E.
1. On appelle noyau de ψ le sous espace E ⊥ = {X ∈ E | ∀ Y ∈ E; ψ(X, Y ) = 0}.
2. On dit que ψ est non dégénérée si (∀ Y ∈ E; ψ(X, Y ) = 0) =⇒ X = 0E .
Autrement dit le noyau de ψ est nul c’est à dire E ⊥ = {0E }. Dans le cas
contraire E ⊥ 6= {0E }, elle est dite dégénérée.

Exemples 6.2.14.
ψ : C2 −→ C
(X, Y ) 7−→ x¯1 y1 + x¯2 y2
où X = (x1 , x2 ), Y = (y1 , y2 ) est une forme hermitienne non dégénérée.

Théorème 6.2.15. Soit E un espace vectoriel sur C. Si, dans son groupe additif (E, +)
on définit une nouvelle loi externe, notée (α, X) 7−→ α ∗ X, par α ∗ X = ᾱX, alors
(E, +, ∗) est un espace vectoriel sur C, se nomme sous espace conjugue de E et on le
note Ē.

Preuve. Comme exercice.

Propriétés 6.2.16. 1. Une partie A de E et libre (resp. génératrice) si et seule-


ment si, A est libre (resp. génératrice) dans Ē.
2. F est sous espace de E ssi F̄ est sous espace de Ē.
3. Soit E et F deux espaces vectoriels sur C et u : E −→ F une application. Les
propriétés suivantes sont équivalentes.
a) u est une application semi linéaire de E dans F; c’est à dire: ∀ X1 , X2 ∈
E; u(X1 + X2 ) = u(X1 ) + u(X2 ) et ∀ α ∈ C, ∀ X ∈ E; u(αX) = ᾱu(X).
b) u est une application linéaire de Ē dans F.
c) u est une application linéaire de E dans F̄ .

106
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

Preuve. Voir TD.

Remarque 6.2.17. En particulier, quand F = C, une application u : E −→ C est une


forme semi linéaire si et seulement si, u : Ē −→ C est linéaire.
On a aussi u(αX) = ᾱu(X) ⇐⇒ u(αX) = αu(X), ce qui nous permet de dire que
u : E −→ C est une forme semi linéaire si et seulement si, X 7−→ u(X) est linéaire sur
E.

Exercice. Soit E un espace vectoriel sur C, et ψ une forme hermitienne sur E.


1. Montrer que
ψ̄ : E −→ E ∗
X 7−→ ψ̄(X) = ψX où ∀ Y ∈ E : ψX (Y ) = ψ(X, Y ).
est une application semi-linéaire de E dans E ∗ .
2. En déduire que ψ̄ est une application linéaire de E dans E ∗ ; ψ̄ appelée mor-
phisme associée à la forme hermitienne ψ.
3. Montrer que Ker(ψ̄) = E ⊥ .

Remarque 6.2.18. 1. Le noyau de ψ coı̈ncide avec le noyau du morphisme associé


ψ̄.
2. Une forme hermitienne ψ sur E est non dégénérée si et seulement si le morphisme
associé ψ̄ est injectif.
3. Si E est de dimension finie, alors ψ est non dégénérée ssi le morphisme associée
ψ̄ est bijectif.

Comme dans le chapitre précédent, on a les théorèmes suivants:

Théorème 6.2.19. Soit E un espace vectoriel de dimension finie sur C et ψ une forme
hermitienne non dégénérée sur E.
1. Pour tout sous espace vectoriel F de E on a; dim(F )+dim(F ⊥ ) = dim(E) et (F ⊥ )⊥ =
F.
2. Pour toutes parties A et B de E, on a; A⊥ + B ⊥ = (A ∩ B)⊥ et A⊥ ∩ B ⊥ =
(A + B)⊥ .

Théorème 6.2.20. Soit E un espace vectoriel de dimension finie sur C et ψ une forme
hermitienne non dégénérée sur E. Pour tout sous espace F de E, les propriétés suivantes
sont équivalentes:
1. F ∩ F ⊥ = {0E }, (F est non isotrope );
2. La restriction de ψ à F est une forme hermitienne non dégénérée sur F;
3. F ⊕ F ⊥ = E.

107
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

6.2.6 Espaces hermitiens


Certaines propriétés déjà connues des formes bilinéaire symétriques réelles positives,
comme l’inégalité de Schwartz ou celle de Minkowski, vont s’étendre aux formes her-
mitiennes positives. Si la forme hermitienne positive sur E et non dégénérée ( ou bien
simplement définie positive), on pourra munir E d’une structure dite d’espace hermi-
tien. Donc un espace hermitien est la donné d’un espace vectoriel E sur C, pmuni d’une
forme
√ hermitienne ψ définie positive; c’est à dire d’une norme ||X|| = ψ(X, X) =
< X, X >, appelée norme hermitienne, et le nombre complexe ψ(X, Y ) =< X, Y >
se norme produit scalaire hermitien de X et Y.

6.2.7 Bases orthogonales - Bases orthonormales


Comme dans le chapitre précédent, on a les théorèmes suivants:
Théorème 6.2.21. Soit E un espace vectoriel de dimension finie sur C. Alors, relati-
vement à toute forme hermitienne sur E il existe dans E une base orthogonale.
Théorème 6.2.22. Soit E un espace vectoriel de dimension finie sur C, et ψ une forme
hermitienne sur E. Les deux propriétés sont équivalentes:
1. Il existe une base ψ - orthonormale de E.
2. ψ est positive non dégénérée (ou bien définie positive).
Preuve. Comme dans le chapitre précédent.
Remarque 6.2.23. On verra en analyse qu’un espace hermitien complet se nomme
espace de Hilbert. Tout espace hermitien de dimension finie est un espace de Hilbert.
Un espace hermitien de dimension infinie se nomme aussi espace pré-hilbertien.
Exemples 6.2.24. Soit I = [a, b] un intervalle compact de R et E = F(I, C) l’es-
pace vectoriel des fonction intégrable de I dans C. La forme sesquilinéaire < f, g >=
Z b
f (t)g(t)dt est une forme hermitienne définie positive et donc est un produit scalaire
a Z b
hermitien, ce qui dit que E = F(I, C) muni de la norme < f, f >= |f (t)|2 dt. est
a
un espace pré-hilbertien.

6.2.8 Endomorphismes adjoints


Soit E un espace vectoriel de dimension finie sur C, et ψ une forme hermitienne
non dégénérée. Comme E est de dimension finie, alors

ψ̄ : E −→ E ∗

X 7−→ ψ̄(X) = ψX tel que ∀ Y ∈ E : ψX (Y ) = ψ(X, Y )


est semi-isomorphisme ( E est isomorphe à E ∗ ). On a donc le théorème suivant:
Théorème 6.2.25. Soit E un espace vectoriel de dimension finie sur C, et ψ une forme
hermitienne non dégénérée. Pour tout g ∈ E ∗ , il existe un Z et un seul de E tel que
∀ Y ∈ E : g(Y ) = ψ(Z, Y ).

108
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

En particulier pour l’application linéaire; g : E −→ C tq g(Y ) = ψ(X, u(Y )) avec


u un endomorphisme quelconque de E, il existe un Z et un seul de E tel que ∀ Y ∈
E : g(Y ) = ψ(Z, Y ). On définit ainsi une application; X −→ Z de E dans lui même
que l’on note u∗ . On a alors, pour tous X et Y de E, ψ(X, u(Y )) = ψ(u∗ (X), Y ). Nous
montrons facilement que u∗ est linéaire, et nous vérifions aussi les propriétés suivantes:

Propriétés 6.2.26. Pour tous endomorphismes u et v de E, et tous scalaires α, β ∈ C


on a;
1. (αu + βv)∗ = ᾱu∗ + β̄v ∗ .
2. (v ◦ u)∗ = u∗ ◦ v ∗ .
3. (u∗ )∗ = u.

Preuve. Comme exercice.

Remarque 6.2.27. Puisque (u∗ )∗ = u, on peut écrire aussi que

ψ(X, u∗ (Y )) = ψ((u∗ )∗ (X), Y ) = ψ(u(X), Y ).

D’où la relation vue précédemment.

Définition 6.2.28. L’application linéaire u∗ vérifiant la relation;

∀ X, Y ∈ E; ψ(X, u∗ (Y )) = ψ(u(X), Y ),

appelée l’endomorphisme adjoint de l’endomorphisme u.

6.2.9 Matrice adjointe


Définition 6.2.29. Soit A ∈ Mn (C). On appelle matrice adjointe de A la matrice de
Mn (C) notée A∗ , définie par; A∗ = t Ā.

Proposition 6.2.30. Soit E un espace hermitienne de dimension finie. Si, dans une
base orthonormale B de E, A est la matrice d’un endomorphisme u ∈ L(E), la matrice
dans cette base de son adjoint u∗ est la matrice adjointe A∗ .

Propriétés 6.2.31. Pour tout matrices A et B de Mn (C) et tout scalaire λ ∈ C.


1. (A + B)∗ = A∗ + B ∗ .
2. (AB)∗ = B ∗ A∗ .
3. (λA)∗ = λ̄A∗ .
4. (A∗ )∗ = A.

6.2.10 Diagonalisation des endomorphismes auto-adjoints


Définition 6.2.32. Soit E un espace hermitien de dimension finie. Un endomorphisme
u ∈ L(E) est dit hermitien ( ou auto-adjoint) si u∗ = u; ie : ∀ X, Y ∈ E : < u(X), Y >=
u(X).Y =< X, u(Y ) >= X.u(Y ). Il est dit antihermitien si u∗ = −u; ie : ∀ X, Y ∈ E :
< u(X), Y >= u(X).Y =< X, −u(Y ) >= −X.u(Y ).

109
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

Remarque 6.2.33. Soit E un espace hermitien de dimension finie, et u ∈ L(E) un


endomorphisme hermitien (ou auto-adjoint). Si A = M atB (u), est la matrice de u
associée à une base B de E, alors A est hermitienne; c’est à dire t A = Ā, et ceci
équivalent à dire A∗ = A. On dit aussi que A est auto-adjointe.

Proposition 6.2.34. Soit E un espace hermitien (resp. euclidien) de dimension finie.


Tout endomorphisme auto- adjoint de E a le polynôme caractéristique dans R[X] scindé
sur R.

Preuve. Soit u ∈ L(E) un endomorphisme auto-adjoint. Alors, si λ ∈ C est une valeur


propre de u, il existe X ∈ E − {0E } tel que u(X) = λX, d’où
λ||X||2 = λ < X, X >=< X, λX >=< X, u(X) >=< u(X), X >=< λX, X >=
λ̄ < X, X >= λ̄||X||2 Par suite, λ = λ̄. Il en résulte que toute matrice hermitienne a
ses valeurs propres réelles. Dans le cas d’une matrice symétrique réelle A ∈ Mn (R),
puisque elle peut être considéré comme une matrice hermitienne de Mn (C). Le résultat
précédent permet d’affirmer que A possède n valeurs propres réelles.

Proposition 6.2.35. Soit E un espace hermitien (resp. euclidien) de dimension finie.


Pour tout endomorphisme auto- adjoint u de E, les sous espaces propres sont deux à
deux orthogonaux.

Preuve. Notons λi et λj deux valeurs propres distinctes et Fi , Fj sont respectivement


leurs espaces propres. On a pour tout X ∈ Fi et pour tout Y ∈ Fj ;
λj < X, Y >=< X, λj Y >=< X, u(Y ) >=< u∗ (X), Y >=< u(X), Y >=< λi X, Y >=
λ̄i < X, Y >, et puisque u est auto-adjoint, alors ses valeurs propres sont réelles, donc
λ̄i = λi . Comme λi 6= λj , on a < X, Y >= 0.

Proposition 6.2.36. Soit E un espace hermitien (resp. euclidien) de dimension finie.


Pour tout endomorphisme auto- adjoint u de E, et tout sous espace F stable par u, le
sous espace orthogonal F ⊥ est aussi stable par u.

Preuve. Comme exercice. (Rappelons qu’un sous espace F de E est dit stable par u si
u(F ) ⊂ F ).

Théorème 6.2.37. Soit E un espace hermitien (resp. euclidien) de dimension finie, et


u un endomorphisme auto- adjoint de E. Il existe alors une famille de vecteurs propres
de u constituant une base orthonormale de E. Autrement dit tout endomorphisme auto-
adjoint est diagonalisable avec, de plus, une base orthonormale de diagonalisation.

Preuve. Se déduit directement des propositions 6.2.35 et 6.2.36. Voir A.DONEDDU


Algèbre et Géométrie.

110
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)

Fin

111

Vous aimerez peut-être aussi