Vous êtes sur la page 1sur 29

UNIVERSITE DE DOUALA

Faculté des Sciences

Département de Mathématiques et Informatique


Licence 2 Informatique
INF 244

ALGEBRE LINEAIRE

Année Académique 2019/2020

Dr MBAMA
Chapitre 1

Rappels et Notations

1.1 Espaces vectoriels


Tous les espaces vectoriels seront des espaces vectoriels (en abrégé e.v.) sur un
corps K qui sera soit le corps R des nombres réels, soit le corps C des nombres
complexes.
Si E est un e.v., un sous-espace vectoriel (en abrégé s.e.v.) est une partie non
vide F ⊂ E stable par les opérations de E, c’est-à-dire
(x, y) ∈ F × F ⇒ x + y ∈ F et (λ, x) ∈ K × F ⇒ λx ∈ F.
L’addition (resp. la multiplication par les scalaires) par restriction à F × F (resp.
K × F ) définissent une structure vectorielle sur F .
Si B est une partie de E, il existe un plus petit (pour l’inclusion) sous-espace
vectoriel contenant B, appelé sous-espace vectoriel engendré par B que nous no-
terons s.e.v.(B). Ce sous-espace vectoriel coïncide avec l’ensemble des combi-
naisons linéaires (finies) d’éléments de B.
Une partie B de E est dite libre si pour toute famille finie (xi )i∈I d’éléments
distincts de B et toute famille (λi )i∈I de scalaires
X
λi xi = 0 ⇒ λi = 0 pour tout i ∈ I.
i∈I
On dit qu’une famille (xi )i∈I d’éléments de E est libre si, pour toute partie finie
4 CHAPITRE 1 RAPPELS ET NOTATIONS

J de I et toute famille (λi )i∈J de scalaires


X
λi xi = 0 ⇒ λi = 0 pour tout i ∈ J.
i∈J
S
Ceci signifie que les xi sont distincts et que la partie i∈I {xi } est libre.
On dit qu’une partie B de E engendre E, ou que B est une partie génératrice,
si tout x ∈ E peut s’écrire comme une combinaison linéaire d’éléments de B, soit
X
x= λi xi où I est un ensemble fini, xi ∈ B, λi ∈ K.
i∈I
Une partie libre qui engendre l’espace E est appelée une base de E.
Si un e.v. admet une base finie admettant n éléments, toute autre base est fi-
nie et admet n éléments. Cet entier n est alors appelé la dimension de E, il sera
noté dim K E ou simplement dim E s’il n’y a pas d’ambiguïté sur le corps. Si
B = (e1 , . . . , en ) [on notera que nous avons ordonné les vecteurs de base, ceci est
essentiel pour l’écriture matricielle des applications linéaires] est une base d’un
espace de dimension n, tout x de E s’écrit d’une seule façon
Xn
x= xi ei où xi ∈ K.
i=1
Dans un e.v. de dimension n, toute partie libre admet au plus n éléments ; toute
partie libre admettant n éléments est une base et toute partie libre est contenue dans
une base (théorème de la base incomplète).
Si un e.v. E admet une partie génératrice finie M , alors E est de dimension fi-
nie et M contient une base de E. De plus, si E est de dimension finie n, toute partie
génératrice admet au moins n éléments et c’est une base si elle admet exactement
n éléments.
Tout sous-espace vectoriel F d’un e.v. E de dimension finie est de dimension
finie et dim F ≤ dim E ; de plus,
E = F ⇐⇒ dim E = dim F.

1.2 Application linéaire


Étant donné deux e.v. E et F , on note L(E; F ) l’espace vectoriel des applica-
tions linéaires de E dans F . Lorsque E = F , une aplication linéaire de E dans E
est appelée un endomorphisme de E et on pose L(E) = L(E; E).
Rappelons qu’une algèbre A est un e.v. muni d’une loi de composition interne
(x, y) 7→ xy associative et bilinéaire. Une algèbre est dite unitaire s’il existe un
élément e ∈ A tel que ex = xe = x pour tout x ∈ A. Par exemple, L(E)
est pour la composition des endomorphismes une algèbre unitaire (e = IE ) non
commutative si dim E ≥ 2.
Soit T ∈ L(E; F ), on définit le noyau et l’image de T par
Ker T = T −1 (0) = {x ∈ E ; T x = 0} et Im T = T (E).
1.3 REPRÉSENTATION MATRICIELLE 5

Ce sont des s.e.v. de E et F respectivement et l’application T est injective si, et


seulement si, son noyau est réduit à 0.
Si T ∈ L(E; F ) est une bijection linéaire, la bijection réciproque
T −1 : F → E est linéaire ; on dit que T est un isomorphisme et que les espaces
E et F sont isomorphes. Lorsque E = F , on parle d’automorphisme.
Si E et F sont isomorphes et si E est de dimension finie, alors F est de di-
mension finie et dim E = dim F . Tout e.v. de dimension finie n est isomorphe à
Kn .
Soit T ∈ L(E; F ) où E et F sont de dimension finie, alors
dim E = dim Ker T + dim Im T.
Si, de plus, E et F sont de même dimension, on a les équivalences
T est injective ⇔ T est surjective ⇔ T est un isomorphisme.

1.3 Représentation matricielle


Soient E et F deux e.v. de dimension finie, on pose
q = dim E et p = dim F.
Soient BE = (e1 , . . . , eq ) et BF = (f1 , . . . , fp ) des bases de E et F et soit
T ∈ L(E; F ). On pose
p
X
T ej = aij fi , aij ∈ K.
i=1
Pq
Si x = j=1 xj ej ∈ E, on a alors
p
X q
X
Tx = yi fi où yi = aij xj .
i=1 j=1
La matrice
AT = (aij ) 1≤i≤p
1≤j≤q
est une matrice de type (p, q), c’est-à-dire à p lignes et q colonnes, dite matrice
représentative de T dans les bases BE et BF . On notera Mp,q (K) l’espace vec-
toriel des matrices de type (p, q). L’application T 7→ AT est un isomorphisme de
L(E; F ) sur Mp,q (K). Si G est un troisième e.v. de dimension finie muni d’une
base BG et si S ∈ L(F ; G), on a alors
AS◦T = AS AT (produit des matrices représentatives).
Lorsque E est un espace de dimension finie n muni d’une base BE , la matrice
représentative d’un endomorphisme de E est une matrice carrée de type (n, n) ;
l’espace Mn,n (K) des matrices carrées est une algèbre unitaire, l’élément unité,
noté In , est la matrice diagonale dont les éléments diagonaux valent 1 et l’appli-
cation A ∈ L(E) 7→ AT ∈ Mn,n (K) est un isomorphisme d’algèbre. L’ensemble
6 CHAPITRE 1 RAPPELS ET NOTATIONS

GL(E) des automorphismes de E est un groupe pour la composition des applica-


tions qu’on appelle le groupe linéaire de E ; de même l’ensemble GL(n; K) des
matrices A ∈ Mn,n (K) inversibles est un groupe pour le produit des matrices et
l’application A ∈ GL(E) 7→ AT ∈ GL(n; K) est un homomorphisme de groupe.
Revenons à la situation envisagée au début de ce paragraphe et considérons
0
deux autres bases BE = (e01 , . . . , e0q ) et BF0 = (f10 , . . . , fp0 ) de E et F repective-
men. On appelle matrice de passage de la base BE (dite ancienne base)
0
à la base BE (dite nouvelle base) la matrice représentative de l’application
0
IE : (E, BE ) → (E, BE ). Si Q = (qij )1≤i,j≤q désigne cette matrice, on a par
définition
X q
e0j = qij ei .
i=1
On retiendra que les vecteurs colonnes de la matrice de passage sont les coordon-
nées dans l’ancienne base des vecteurs de la nouvelle base. Rappelons que cette
matrice Q est inversible, soit Q ∈ GL(q; K), la matrice inverse étant la matrice
0
de passage de la base BE à la base BE . On définit de même la matrice de passage
P ∈ GL(p; K) de la base BF à la base BF0 . Notons A et A0 les matrices représen-
tatives de T ∈ L(E; F ) dans les bases BE , BF et BE 0
, BF0 respectivement. On a
alors la relation
A0 = P −1 AQ.
Deux matrices A, A0 ∈ Mp,q (K) liées par une telle relation où P ∈ GL(p; K),
0
Q ∈ GL(q; K) sont dites équivalentes. Lorsque E = F (BE = BF , BE = BF0 )
la relation précédente s’écrit
A0 = P −1 AP
et on dit que les matrices A et A0 sont semblables. Ces relations sont des rela-
tions d’équivalence. La matrice repésentative d’un endomorphisme T ∈ L(E)
n’est donc définie qu’à une similitude près. Le problème étudié dans les chapitres
suivants est de déterminer une base de E telle que la matrice repésentative de
T ∈ L(E) soit aussi simple que possible.

1.4 Déterminants
Soit E un e.v. de dimension n muni d’une base B = (e1 , . . . , en ), alors il existe
une unique forme n-linéaire alternée (ou antisymétrique) notée détB : E n → K
Pn détB (e1 , . . . , en ) = 1. Elle est donnée par la formule suivante. Soient
telle que
xi = j=1 xij ej n vecteurs de E, alors
X
détB (x1 , . . . , xn ) = ε(σ)x1 σ(1) × . . . × xn σ(n)
σ∈Sn
où Sn désigne le groupe symétrique, groupe des permutations de l’ensemble
{1, . . . , n}, et ε(σ) est la signature de la permutation σ.
1.4 DÉTERMINANTS 7

On définit alors le déterminant d’un endomorphisme T ∈ L(E) par


dét T = détB (T e1 , . . . , T en ) ;
ce scalaire ne dépend pas du choix de la base B. Les propriétés du détermi-
nant sont supposées connues. Rappelons simplement qu’un endomorphisme T
est un automorphisme si, et seulement si, dét T 6= 0 et que l’application
dét : GL(E) → K∗ est un homomorphisme de groupe sur le groupe multipli-
catif K∗ .
Une matrice carrée A = (aij )1≤i,j≤n peut toujours être considérée comme
la matrice représentative d’un endomorphisme T ∈ L(E) ; on définit alors le
déterminant de A en posant dét A = dét T . On vérifie que
X
détA = ε(σ)aσ(1) 1 × . . . × aσ(n) n
σ∈Sn
et ceci prouve que le scalaire détA ne dépend pas du choix de l’espace E et de la
base de cet espace. Les règles usuelles de calcul des déterminants sont supposées
acquises.
8 CHAPITRE 1 RAPPELS ET NOTATIONS
Chapitre 2

Réduction des
endomorphismes

2.1 Valeur propre, vecteur propre


Soient E un e.v. de dimension n ≥ 1, T ∈ L(E) un endomorphisme et λ ∈ K
un scalaire, on pose
Tλ = T − λIE
et
Eλ = Ker Tλ = {x ∈ E ; T x = λx}.
Alors, ou bien Tλ est un automorphisme, ou bien Tλ n’est pas injectif, c’est-à-dire
Eλ 6= {0}. Ceci conduit à la définition suivante.
Définition 2.1.1 Un scalaire λ ∈ K est appelé une valeur propre de T si Tλ n’est
pas injectif. Un vecteur x ∈ Eλ , x 6= 0, est appelé un vecteur propre associé
à la valeur propre λ et Eλ le sous-espace propre associé à la valeur propre λ.
L’ensemble σ(T ) ⊂ K des valeurs propres est appelé le spectre de T .
Dire que λ est une valeur propre signifie donc que
P (λ) ≡ dét Tλ = dét (T − λIE ) = 0.
10 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

Si B = (e1 , . . . en ) est une base de E et A = (aij )1≤i,j≤n ∈ Mn,n (K) la


matrice représentative de T dans cette base, on a
X  
P (λ) = dét (A−λIn ) = ε(σ) aσ(1) 1 −λδσ(1) 1 ×. . .× aσ(n) n −λδσ(n) n
σ∈Sn
où δij désigne le symbole de Kronecker. Ceci montre que P est un polynôme de
degré n de la forme
n−1
X
P (λ) = (−1)n λn + αj λj , αj ∈ K.
j=0
Ce polynôme s’appelle le polynôme caractéristique de l’endomorphisme T ; les
scalaires αj ne dépendent que de l’endomorphisme T . On a par exemple
α0 = dét T et on définit la trace de T par
n
X
n−1
Tr T = (−1) αn−1 = ajj .
j=1
Un endomorphisme T admet au plus n valeurs propres. Lorsque K = C,
le théorème de D’Alembert permer d’affirmer qu’il existe exactement n valeurs
propres λ1 , . . . , λn , chaque valeur propre étant répétée un nombre de fois égal à
sa multiplicité. On a alors
Yn
P (λ) = (−1)n (λ − λj ),
j=1
d’où
n
Y n
X
dét T = λj , Tr T = λj .
j=1 j=1
Remarque 2.1.1 Une matrice A = (aij )1≤i,j≤n ∈ Mn,n (K) peut être considérée
comme la matrice représentative d’un unique endomorphisme T ∈ L(Kn ), Kn
étant muni de sa base canonique, à savoir
n
X 
T : x = (xj )1≤j≤n ∈ Kn 7→ aij xj ∈ Kn .
1≤i≤n
j=1
Les valeurs propres de A seront par définition les valeurs propres de T , etc. Dans
la pratique, on notera encore A l’endomorphisme associé à la matrice A et on
utilisera pour les matrices la même terminologie que pour les endomorphismes.
Une matrice à coefficients réels peut être considérée comme une matrice à
coefficients complexes et il faut éventuellement préciser le corps. Par exemple, si
on note σK (A) le spectre de A, on a
σR (A) = σC (A) ∩ R
et il faut bien distinguer le spectre réel et le spectre complexe.
Proposition 2.1.1 Soient λ1 . . . , λp p valeurs propres distintes de T ∈ L(E) et
x1 , . . . , xp des vecteurs propres associés à ces valeurs propres, alors la famille
(xi )1≤i≤p est libre.
2.2 ENDOMORPHISME DIAGONALISABLE 11

Ceci peut être précisé comme suit.


Définition 2.1.2 Soient E un e.v., E1 , . . .,Ep des s.e.v., on définit la somme de ces
sous-espaces vectoriels par
Xp
F ≡ E1 + . . . + Ep = Ei = {x1 + . . . + xp ; xi ∈ Ei pour tout 1 ≤ i ≤ p}.
i=1
Alors, F est un s.e.v. de E et on dit que F est la somme directe des sous-espaces
Ei si tout x ∈ F s’écrit d’une seule manière
x = x1 + . . . + xp où xi ∈ Ei .
On écrit alors
p
M
F = Ei .
i=1
Pp
Dire que la somme i=1 Ei est directe signifie donc que
∀xi ∈ Ei , x1 + . . . + xp = 0 =⇒ xi = 0 pour tout 1 ≤ i ≤ p.
On peut alors définir des projecteurs linéaires pi : F → Ei en posant
pi (x) = xi si x = x1 + . . . + xp , xj ∈ Ej .

PpSoient λ1 . . . , λp p valeurs propres distintes de T ∈ L(E),


Proposition 2.1.2
alors la somme i=1 Eλi est directe.
On utilisera ultérieurement la caractérisation suivante.
Proposition 2.1.3 On suppose E de dimension finie, avec les notations de la défi-
nition 2.1.2 on a l’équivalence
Pp des propriétés suivantes
1. la somme F = i=1 Ei est directe,
2. soit Bi = (eij )1≤j≤ni , ni = dim Ei , une base de Ei , alors B = (eij ) 1≤i≤p
1≤j≤ni
est une base de F
P, p
3. dim F = i=1 dim Ei .

2.2 Endomorphisme diagonalisable


Définition 2.2.1 Un endomorphisme T ∈ L(E) est dit diagonalisable s’il existe
une base de E telle que sa matrice représentative dans cette base soit diagonale.
Une matrice A ∈ Mn,n (K) est dite diagonalisable si elle est semblable à une
matrice diagonale.
Une matrice diagonale A = (aij )1≤i,j≤n sera notée A = diag (λ1 , . . . , λn )
où λi = aii . Son polynôme caractéristique s’écrit
Yn
(−1)n (λ − λi ).
i=1
Ceci conduit à la définition suivante.
12 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

Définition 2.2.2 Un polynôme P ∈ K[λ] de degré n est dit scindé si


n
Y
P (λ) = a (λ − λi ) où a ∈ K∗ et λi ∈ K.
i=1
Lorsque K = C, tout polynôme est scindé (D’Alembert) ; il n’en est rien sur R.
Le polynôme caractéristique d’un endomorphisme diagonalisable est néces-
sairement scindé ; sur R, on obtient ainsi une condition nécessaire pour qu’un
endomorphisme soit diagonalisable, mais cette condition n’est pas suffisante.
Théorème 2.2.1 (caractérisation des endomorphismes diagonalisables) Soient
λ1 , . . . , λp les valeurs propres distinctes d’un endomorphisme T ∈ L(E), alors
les propriétés suivantes sont équivalentes
1. T est diagonalisable,
Lpune base de E constituée de vecteurs propres,
2. il existe
3. E = i=1 PE λi ,
p
4. dim E = i=1 dim Eλi .
Corollaire 2.2.2 Un endomorphisme admettant n valeurs propres distinctes est
diagonalisable et ses sous-espaces propres sont de dimension 1.
Définition 2.2.3 Un endomorphisme T ∈ L(E) (resp. une matrice A ∈ Mn,n (K))
est dit nilpotent s’il existe un entier k ≥ 1 tel que T k = 0 (resp. Ak = 0). Le plus
petit entier k ≥ 1 tel que T k = 0 (resp. Ak = 0) est appelé l’indice de nilpotence
de T (resp. A).
On a alors la
Proposition 2.2.3 Un endomorphisme nilpotent diagonalisable est nécessairement
nul.
Considérons par exemple la matrice
 
0 1
A= .
0 0
On vérifie que A2 = 0 ; cette matrice est donc nilpotente, donc non diagonalisable,
alors que son polynôme caractéristique P (λ) = λ2 est scindé.
Voici enfin une propriété concernant la dimension des sous-espaces propres qui
permettra d’établir une autre caractérisation des endomorphismes diagonalisables.
Proposition 2.2.4 Soient λ une valeur propre de T de multiplicité m, c’est-à-dire
P (X) = (X − λ)m Q(X) où Q ∈ K[X], Q(λ) 6= 0,
alors
dim Eλ ≤ m.
En particulier, si λ est une valeur propre simple (m = 1), le sous-espace propre
est de dimension 1.
Corollaire 2.2.5 Un endomorphisme T ∈ L(E) est diagonalisable si, et seule-
ment si, son polynôme caractéristique est scindé et si, pour toute valeur propre λ,
la dimension du sous-espace propre est égale à la multiplicité de λ.
2.3 POLYNÔMES D’ENDOMORPHISME 13

Remarque 2.2.1 Pour calculer la dimension des sous-espaces propres, on peut


utiliser la formule
dim Eλ = n − r
où r est le rang de T −λIE ; rappelons que, par définition, ce rang est la dimension
de l’image de T − λIE .
Un endomorphisme dont le polynôme caractéristique est scindé n’est pas né-
cessairement diagonalisable, mais nous allons montrer qu’il est toujours trigonali-
sable.
Une matrice A = (aij )1≤i,j≤n ∈ Mn,n (K) est dite triangulaire supérieure
(resp. inférieure) si aij = 0 si i > j (resp. i < j). On vérifie qu’une matrice tri-
angulaire inférieure est toujours semblable à une matrice triangulaire supérieure ;
nous raisonnerons donc avec des matrices triangulaires supérieures.
Définition 2.2.4 Un endomorphisme T ∈ L(E) est dit trigonalisable s’il existe
une base de E pour laquelle la matrice représentative de T est triangulaire supé-
rieure.
On a alors la caratérisation suivante.
Proposition 2.2.6 Un endomorphisme T ∈ L(E) est trigonalisable si, et seule-
ment si, son polynôme caractéristique est scindé.

2.3 Polynômes d’endomorphisme


Soient T ∈ L(E) un endomorphisme et P ∈ K[X] un polynôme à une indé-
terminée, on pose
m
X m
X
P (T ) = aj T j si P (X) = aj X j , aj ∈ K
j=0 j=0
où T 0 = IE . On définit ainsi un endomorphisme P (T ) ∈ L(E). On définit de
même P (A) si A ∈ Mn,n (K) est une matrice. On notera que, pour tout
P, Q ∈ K[X],
(P + Q)(T ) = P (T ) + Q(T ) et (P Q)(T ) = P (T ) ◦ Q(T ) = Q(T ) ◦ P (T ).
Théorème 2.3.1 (Cayley-Hamilton) Soient T ∈ L(E), P son polynôme caracté-
ristique, alors P (T ) = 0.
Corollaire 2.3.2 Soit T ∈ L(E) un endomorphisme dont le polynôme caractéris-
tique est scindé, alors les propriétés suivantes sont équivalentes
1. T est nilpotent,
2. toutes les valeurs propres de T sont nulles,
3. le polynôme caractéristique de T est P (X) = (−1)n X n .
Le théorème de Cayley-Hamilton conduit à s’intéresser à l’ensemble des poly-
nômes annulateurs de T , soit
Z = {P ∈ K[X] ; P (T ) = 0}.
14 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

On a alors la
Proposition 2.3.3 Soit T ∈ L(E), il existe un unique polynôme unitaire m ∈ Z,
m 6= 0, dit polynôme minimal de T , tel que
1 ≤ degré m ≤ degré P pour tout P ∈ Z, P 6= 0.
De plus, un polynôme P ∈ K[X] appartient à Z si, et seulement si, il existe un
polynôme Q ∈ K[X] tel que P = mQ.
Proposition 2.3.4 L’ensemble des racines du polynôme minimal coïncide avec le
spectre de T . Plus précisément, si λ est une valeur propre de multiplicité q, soit
P (X) = (X − λ)q Q(X), Q(λ) 6= 0,
alors
m(X) = (X − λ)r R(X), R(λ) 6= 0 et 1 ≤ r ≤ q.
Corollaire 2.3.5 Si le polynôme caractéristique de T est scindé, il en est de même
du polynôme minimal.
Le polynôme minimal va nous permettre de donner une nouvelle caractérisa-
tion des endomorphismes diagonalisables. Nous utiliserons le résultat suivant.
Théorème 2.3.6 (lemme des noyaux) Soient T ∈ L(E) un endomorphisme,
P1 , . . . , Pk ∈ K[X] des polynômes deux à deux premiers entre eux et P = P1 ×
. . . × Pk , alors
k
M
Ker P (T ) = Ker Pj (T ).
j=1

Théorème 2.3.7 Un endomorphisme T ∈ L(E) est diagonalisable si, et seule-


ment si, son polynôme minimal est scindé et à racines simples.
Corollaire 2.3.8 Soient T ∈ L(E) un endomorphisme diagonalisable et F un
s.e.v. de E stable par T , alors T |F ∈ L(F ) est un endomorphisme diagonalisable.
Corollaire 2.3.9 Si T, T 0 ∈ L(E) sont des endomorphismes diagonalisables qui
commutent, alors T + T 0 est un endomorphisme diagonalisable. Plus précisément,
il existe une base de vecteurs propres communs.
Exemple 2.3.1 Soit T ∈ L(E) tel que T k = IE , k ≥ 1, on suppose K = C, alors
T est diagonalisable et ses valeurs propres sont des racines k ième de l’unité.

2.4 Sous-espaces caractéristiques


Soit T ∈ L(E) un endomorphisme, dans ce paragraphe on suppose son poly-
nôme caractéristique scindé, soit
Yp
n
P (X) = (−1) (X − λi )mi où λi 6= λj si i 6= j.
i=1
2.4 SOUS-ESPACES CARACTÉRISTIQUES 15

D’après le lemme des noyaux, on a


M p
E= Ci où Ci = Ker (T − λi IE )mi .
i=1
Le s.e.v. Ci s’appelle le sous-espace caractéristique associé à la valeur propre λi .
On vérifie que
Eλi ⊂ Ci et T (Ci ) ⊂ Ci .
On peut donc définir des endomorphismes Ti ∈ L(Ci ) en posant Ti = T |Ci ;
notons Pi le polynôme caractéristique de Ti .
Choisissons une base Bi de Ci et soit Ai la matrice représentative de Ti dans
cette base. Alors B = (B1 , . . . , Bp ) est une base de E et la matrice représentative
de T dans cette baseQest la matrice diagonale par blocs A = diag (A1 , . . . , Ap ). Il
p
en résulte que P = i=1 Pi .
Lemme 2.4.1 On a dim Ci = mi et Pi = (−1)mi (X − λi )mi .
Remarque 2.4.1 Les polynômes Pi étant scindés, on peut choisir les bases Bi
telles que les matrices Ai soient triangulaires supérieures, la matrice A est alors tri-
angulaire supérieure. De plus, on observera que la matrice Ai s’écrit alors
Ai = Di + Ni où Di = diag (λi , . . . , λi ) et Ni est une matrice triangulaire supé-
rieure dont la diagonale est nulle, donc nilpotente d’après le théorème de Cayley-
Hamilton.
Voici une application de ce qui précède à la résolution des relations de récur-
rence linéaires. On se donne un entier k ≥ 1, des nombres complexes α0 , . . . , αk−1
où α0 6= 0 et on cherche les suites (un )n≥0 telles que
(2.4.1) un+k = αk−1 un+k−1 + . . . + α0 un pour tout entier n ≥ 0.
Notons E l’espace de toutes les solutions de (2.4.1) ; E est un s.e.v. de CN . Dé-
finissons une application f : Ck → E : si v = (vj )0≤j≤k−1 ∈ Ck , on note
u = f (v) ∈ E la solution de (2.4.1) telle que uj = vj pour 0 ≤ j ≤ k − 1. Alors,
f : Ck → E est un isomorphisme et E est de dimension k.
Afin de déterminer une base de E, on considère l’application linéaire
Φ : (un )n≥0 ∈ CN 7→ (un+1 )n≥0 ∈ CN .
Vu que Φ(E) ⊂ E, on peut définir un endomorphisme Ψ = Φ|E ∈ L(E) et
l’application
g = f −1 ◦ Ψ ◦ f : (u0 , . . . , uk−1 ) ∈ Ck 7→ (u1 , . . . , uk ) ∈ Ck .
On a uk = αk−1 uk−1 + . . . + α0 u0 et la matrice représentative de g dans la base
canonique de Ck est
0 1 0 . . . 0
 
 . 0 1 0 . . 0 
 . . . . . . 0 
 
 . . . . . . 0 .
 
 . . . . . . 0 
 
. . . . . 0 1
 
α0 α1 . . . . αk−1
16 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

Le polynôme caractéristique de Ψ
 est égal à celui de la matrice A
 et on vérifie que
P (X) = (−1)k X k − αk−1 X k−1 − . . . − α0 .
On pose
p
Y
k
P (X) = (−1) (X − λi )mi , Ci = Ker (Ψ − λi IE )mi .
i=1
Lp
On a donc E = i=1 Ci et dim Ci = mi . On vérifie que Ci = Ker (Φ−λi ICN )mi
et on en déduit que u = (un )n≥0 appartient à Ci si, et seulement si, pour tout
n ≥ 0,
 m   m 
i i
un+mi − λi un+mi −1 + λ2i un+mi −2 − · · ·
1 2
mi
 
+(−1)mi λm
i un = 0.
i
mi
On montre que ces équations admettent pour solutions les mi suites linéaire-
ment indépendantes
un = λni nq , n ∈ N où 0 ≤ q ≤ mi − 1.
On obtient ainsi une base de Ci , d’où une base de E.

2.5 Décomposition de Dunford


Théorème 2.5.1 Soit T ∈ L(E) un endomorphisme dont le polynôme caractéris-
tique est scindé, alors T s’écrit d’une façon unique sous la forme
T = D + N (décomposition de Dunford)
où D est un endomorphisme diagonalisable, N un endomorphisme nilpotent et
les endomorphismes D et N commutent. De pus, on peut choisir une base Bi de
chaque sous-espace caractéristique telle que, dans cette base, la matrice repré-
sentative Ai de Ti soit de la forme Ai = Di + Ni où Di = diag (λi , . . . , λi ) et
Ni est une matrice triangulaire supérieure dont la diagonale est nulle.
Remarque 2.5.1 L’endomorphisme T = D + N est diagonalisable si, et seule-
ment si, N = 0.
L’existence d’une telle décomposition résulte de la remarque 2.4.1. Notons
T = D + N cette décomposition qui vérifie la propriété suivante
Xp Xp
si x = xi , xi ∈ Ci , alors Dx = λi xi .
i=1 i=1
Pour établir l’unicité, on utilisera la proposition 2.2.3, le corollaire 2.3.9 et les
lemmes suivants.
Lemme 2.5.2 Soit T = D0 + N 0 une autre décomposition de Dunford, alors D et
D0 commutent, ainsi que N et N 0 .
Lemme 2.5.3 Si N, N 0 ∈ L(E) sont deux endomorphismes nilpotents qui com-
mutent, N + N 0 est un endomorphisme nilpotent.
2.6 RÉDUCTION DES ENDOMORPHISMES NILPOTENTS 17

2.6 Réduction des endomorphismes nilpotents


Théorème 2.6.1 Soit T ∈ L(E) un endomorphisme nilpotent dont le polynôme
caractéristique est scindé, alors il existe une base de E dans laquelle la matrice
représentative de T est diagonale par blocs, chaque bloc étant de la forme
0 1 0 . . . .
 
. 0 1 0 . . .
. . 0 1 0 . .
 
 . . . . . . .  (matrice nilpotente de Jordan.)
 
 . . . . 0 1 0
 
. . . . . 0 1
 
. . . . . . 0
La preuve de ce théorème s’effectue comme suit. Soient P (X) = (−1)n X n
le polynôme caractéristique de T (corollaire 2.3.2) et 1 ≤ p ≤ n son indice de
nilpotence. On considère les s.e.v.
Ni = Ker T i pour 0 ≤ i ≤ p ;
on a
{0} = N0 ⊂ N1 ⊂ · · · ⊂ Np = E
et on construit une suite (Mi )1≤i≤p de s.e.v. non réduits à 0 telle que
Ni = Ni−1 ⊕ Mi pour 1 ≤ i ≤ p et T (Mi ) ⊂ Mi−1 pour 2 ≤ i ≤ p.
On a alors
p
M
E= Mi
i=1
et on vérifie que l’application T |Mi : Mi → Mi−1 est injective ; si mi = dim Mi ,
on en déduit que
m1 ≥ m2 ≥ · · · ≥ mp > 0.
On construit ensuite une base de E
eij , 1 ≤ i ≤ p, 1 ≤ j ≤ mi
de la façon suivante : (epj )1≤j≤mp est une base de Mp et, pour 1 ≤ q ≤ p − 1,
(eqj )1≤j≤mq est une base de Mq complètant la famille libre (T eq+1
j )1≤j≤mq+1 .
Pour 1 ≤ j ≤ m1 , on note Ej le s.e.v. engendré par les vecteurs
(2.6.1) eij , 1 ≤ i ≤ p, mi ≥ j.
Lm1
On vérifie que E = j=1 Ej , que T (Ej ) ⊂ Ej et que la matrice représentative
de T |Ej dans la base (2.6.1) est une matrice nilpotente de Jordan, ce qui prouve le
théorème.
On en déduit le
Théorème 2.6.2 (Jordan) Soit T ∈ L(E) un endomorphisme dont le polynôme
caractéristique est scindé, alors il existe une base de E dans laquelle la matrice
18 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

représentative de T est diagonale par blocs, chaque bloc étant de la forme


λ 1 0 . . . .
 
. λ 1 0 . . .
. . λ 1 0 . .
 
. . . . . . .  (bloc de Jordan) où λ ∈ σ(T ).
 
. . . . λ 1 0
 
. . . . . λ 1
 
. . . . . . λ
Chapitre 3

Espaces euclidiens

3.1 Forme bilinéaire


Soit E un e.v., rappelons qu’une forme bilinéaire sur E est une application
B : E × E → K telle que
pour tout y ∈ E, l’application x 7→ B(x, y) est linéaire
et
pour tout x ∈ E, l’application y 7→ B(x, y) est linéaire .
Notons B(E) l’ensemble des formes bilinéaires sur E ; il s’agit d’un s.e.v. de l’e.v.
F(E × E; K).
PE
Lorsque
n Pn finie n, étant donné une base B = (e1 , · · · , en ) de
est de dimension
E, si x = i=1 xi ei , y = i=1 yi ei , on peut écrire
Xn
B(x, y) = bij xi yj où bij = B(ei , ej ).
i,j=1
On définit ainsi une matrice b = (bij )1≤i,j≤n ∈ Mn,n (K), appelée matrice de
la forme bilinéaire B dans la base B. L’application B 7→ b est évidemment un
isomorphisme de B(E) sur Mn,n (K) ; l’e.v. B(E) est donc de dimension n2 . Si
B0 est une autre base de E, b0 la matrice représentative de la forme B dans cette
base, on vérifie que
b0 = t P b P
20 CHAPITRE 3 ESPACES EUCLIDIENS

où P est la matrice de passage de B à B0 . Le rang r(B) d’une forme bilinéaire


est par définition le rang de sa matrice représentative dans une base, ce rang ne
dépendant pas du choix de la base. La forme est dit non dégénérée si ce rang est
maximum, soit r(B) = n, c’est-à-dire si la matrice b est inversible ; sinon, on dit
que la forme est dégénérée. Le déterminant de b est appelé le discriminant de la
forme B dans la base B.
Une forme bilinéaire B est dite symétrique si
B(x, y) = B(y, x) pour tout x, y ∈ E.
Ceci signifie que sa matrice représentative dans une base est symétrique, soit
t
b = b. L’espace S(E) des formes bilinéaires symétriques est donc un e.v. de
dimension n(n + 1)/2.

3.2 Espace euclidien


Définition 3.2.1 Soit E un e.v. réel de dimension finie n, une structure euclidienne
sur E est définie par la donnée d’une forme bilinéaire symétrique
(•|•) : (x, y) ∈ E × E 7→ (x|y) ∈ R
définie positive, c’est-à-dire telle que
(x|x) > 0 pour tout x ∈ E, x 6= 0.
Le réel (x|y) est appelé le produit scalaire de x et y. La norme d’un vecteur x
est définie par
kxk = (x|x)1/2 .
On notera que
kλxk = |λ| kxk pour tout λ ∈ R et tout x ∈ E
et que kxk = 0 équivaut à x = 0.
Exemple 3.2.1 Si B = (e1 , · · · , en ) est une base de E, on définit une structure
euclidienne sur E en posant
Xn Xn n
X
(x|y) = xi yi si x = xi ei , y = yi ei .
i=1 i=1 i=1
On a alors
n
X 1/2
kxk = x2i .
i=1
Proposition 3.2.1 Pour tout x, y ∈ E, on a
|(x|y)| ≤ kxk kyk (inégalité de Cauchy-Schwarz),
kx + yk ≤ kxk + kyk (inégalité triangulaire),
kx + yk + kx − yk2 = 2(kxk2 + kyk2 ) (identité du parallèlogramme).
2

Dans un espace euclidien, on dit que deux vecteurs x et y sont orthogonaux si


leur produit scalaire est nul, soit (x|y) = 0.
3.3 BASE ORTHONORMALE 21

Théorème 3.2.2 (Pythagore) Soient x1 , · · · , xp ∈ E des vecteurs orthogonaus


deux à deux, alors
Xp X p
k xi k2 = kxi k2 .
i=1 i=1
Remarque 3.2.1 Si F est un s.e.v. d’un espace euclidien E, la restriction à F × F
du produit scalaire de E définit une structure euclidienne sur F : on dit que F est
un sous-espace euclidien de E.

3.3 Base orthonormale


Dans un espace euclidien E, on dit qu’une famille (xi )i∈I de vecteurs de E
est une famille orthonormale si
(xi |xj ) = δij pour tout i, j ∈ I.
Ce sont donc des vecteurs unitaires orthogonaux deux à deux. On vérifie qu’une
telle famille est libre, donc Card I ≤ n.
Une famille orthonormale qui est une base est appelée une base orthonormale.
Si B = (e1 , · · · , en ) est une base orthonormale, on a pour x, y ∈ E
X n Xn
x= xi ei , kxk2 = x2i où xi = (x|ei )
i=1 i=1
et
n
X
(x|y) = xi yi où xi = (x|ei ), yi = (y|ei ).
i=1
Théorème 3.3.1 Tout espace euclidien admet une base orthonormale.
Si A est une partie de E, on définit l’orthogonal de A par
A⊥ = {x ∈ E ; (x|y) = 0 pour tout y ∈ A}.
Proposition 3.3.2 Pour tout A ⊂ E, A⊥ est un s.e.v. de E et A⊥ = s.e.v. (A)⊥ .
Théorème 3.3.3 1. Soient F un s.e.v. d’un espace euclidien E et x ∈ E, il existe
un unique y ∈ F tel que x − y ∈ F ⊥ . On dit que y est la projection orthogonale
de x sur F , on le note y = PF x. L’application PF : E → F est linéaire.
2. La projection orthogonale de x sur F est l’unique point y ∈ F tel que
kx − yk = inf kx − zk = d(x, F ) (distance de x à F ).
z∈F

3. On a E = F ⊕ F .
Corollaire 3.3.4 (théorème de la base incomplète) Toute famile orthonormale est
contenue dans une base orthonormale.
Proposition 3.3.5 (orthonormalisation de Schmidt) Soit (a1 , · · · , an ) une base de
E, alors il existe une unique base orthonormale (e1 , · · · , en ) telle que, pour tout
1 ≤ p ≤ n,
22 CHAPITRE 3 ESPACES EUCLIDIENS

1. s.e.v. (e1 , · · · , ep ) = s.e.v. (a1 , · · · , ap ),


2. (ep |ap ) > 0.

3.4 Le groupe orthogonal


Soient E un e.v. de dimension n et B, B 0 deux bases orthonormales, alors la
matrice de passage P de B à B 0 vérifie
t
(3.4.1) P P = In .
Une telle matrice est appelée une matrice orthogonale et l’ensemble O(n) des ma-
trices orthogonales est un sous-groupe du groupe linéaire GL(n; R). Étant donné
une base B, une matrice orthogonale peut toujours être considérée comme la ma-
trice de passage de la base B à une base B 0 et, si l’une des bases est une base
orthonormale, il en est de même de l’autre.
On remarquera que dét P = ±1 si P ∈ O(n), on peut donc définir le sous-
groupe, groupe spécial orthogonal,
SO(n) = {P ∈ O(n) ; dét P = 1}.
Proposition 3.4.1 Soient E un espace euclidien et T ∈ L(E) un endomorphisme,
alors les propriétés suivantes sont équivalentes
1. pour tout x ∈ E, kT xk = kxk,
2. pour tout x, y ∈ E, (T x|T y) = (x|y),
3. la matrice représentative de T dans une base orthonormale est une matrice
orthogonale.
Un endomorphisme T ∈ L(E) vérifiant ces propriétés est appelé une isométrie
ou une transformation orthogonale ; un tel endomorphisme est un automorphisme
de E. On notera O(E) l’ensemble des transformations orthogonales ; il s’agit d’un
sous-groupe du groupe linéaire GL(E) isomorphe (en tant que groupe) au groupe
O(n).
Étudions ce groupe O(E) lorsque n = 1, 2 ou 3. Soient T ∈ O(E) et
A ∈ O(n) sa matrice représentative dans une base orthonormale.
Lorsque n = 1, on a A = (±1) ; si A = (1), T = IE et si A = (−1), T est la
symétrie par rapport à l’origine.
Lorsque n = 2, prenons E = R2 muni de la stucture euclidienne associée à
sa base canonique (exemple 3.2.1). La transformation orthogonale T s’écrit dans
cette
  base      
X x cos θ − sin θ cos θ sin θ
=A où A = ou , 0 ≤ θ < 2π.
Y y sin θ cos θ sin θ − cos θ
En posant Z = X + iY et z = x + iy, on a Z = eiθ z dans le premier cas (rotation
d’angle θ) et Z = eiθ z dans le second cas (symétrie par rapport à l’axe des x suivie
d’une rotation d’angle θ, c’est-à-dire symétrie par rapport à la droite d’angle θ/2).
Lorsque n = 3, prenons E = R3 muni de la stucture euclidienne associée à sa
base canonique (exemple 3.2.1). On peut supposer dét T = 1 : si
3.5 ADJOINT D’UN ENDOMORPHISME 23

dét T = −1, dét (−T ) = 1 et il suffit de composer avec la symétrie par rap-
port à l’origine. Notons λ1 , λ2 , λ3 les valeurs propres réelles ou complexes de A.
On a alors 3 cas posssibles
(λ1 = λ2 = λ3 = 1) ou (λ1 = 1, λ2 = λ3 = −1) ou

(λ1 = 1, λ2 = µ, λ3 = µ, µ ∈ C − R).
Notons E1 le sous-espace propre associé à la valeur propre 1
E1 = {x ∈ R3 ; T x = x} (ensemble des points invariants par T).
Lemme 3.4.2 Si T 6= IR3 , dim E1 = 1.
Supposons T 6= IR3 , alors E1⊥ est un s.e.v. de dimension 2 stable par T et T |E1⊥
est une isométrie de ce sous-espace. Choisissons une base orthonormale (e1 , e2 )
de E1⊥ et un vecteur unitaire e3 ∈ E1 . On obtient ainsi une base orthonormale
(e1 , e2 , e3 ) de R3 et dans cette base la matrice représentative de T s’écrit
 
cos θ − sin θ 0
 sin θ cos θ 0  où 0 ≤ θ < 2π.
0 0 1
La transformation T est une rotation d’angle θ autour de l’axe e3 .

3.5 Adjoint d’un endomorphisme


Soient E un espace euclidien et E ? son dual, on définit une application
j : E → E ∗ par
j(y) : x ∈ E 7→ (x|y) ∈ R où y ∈ E.
Théorème 3.5.1 L’application j : E → E ? est un isomorphisme. Autrement dit,
pour toute forme linéaire T ∈ E ? , il existe un unique y ∈ E tel que
T x = (x|y) pour tout x ∈ E.
Soit T ∈ L(E) un endomorphisme, pour tout y ∈ E, il existe un unique point
y ? = T ? y ∈ E tel que
(T x|y) = (x|T ? y) pour tout x ∈ E.
Proposition 3.5.2 L’application T ? : F → E est linéaire.
L’endomorphisme T ? est appelé l’adjoint de l’endomorphisme T . On vérifie
que
l’application T ∈ L(E) 7→ T ? ∈ L(E) est un isomorphisme,
et, pour tout S, T ∈ L(E),
T ?? = T et (T ◦ S)? = S ? ◦ T ? .
Proposition 3.5.3 Dans une base orthonormale, la matrice représentative de T ?
est la transposée de celle de T .
Définition 3.5.1 Un endomorphisme T ∈ L(E) est dit symétrique si T = T ? .
24 CHAPITRE 3 ESPACES EUCLIDIENS

Proposition 3.5.4 Un endomorphisme est symétrique si, et seulement si, sa ma-


trice représentative A dans une base orthonormale est symétrique :A = t A.
Proposition 3.5.5 Le polynôme caractéristique d’un endomorphisme symétrique
est scindé et des vecteurs propres associés à des valeurs propres distinctes sont
orthogonaux.
Théorème 3.5.6 Tout endomorphisme symétrique T ∈ L(E) est diagonalisable.
Plus précisément, il existe une base orthonormale dans laquelle la matrice repré-
sentative de T est diagonale.

3.6 Forme quadratique


Soient E un e.v. réel de dimension n, B = (e1 , · · · , en ) une base de E et B
une forme bilinéaire de matrice b = (bij )1≤i,j≤n . On pose
Xn n
X
Q(x) = B(x, x) = bij xi xj si x = xi ei .
i,j=1 i=1
On dit que Q est une forme quadratique ; une forme quadratique est simplement
un polynôme homogène de degré 2.
Proposition 3.6.1 Soit B une forme bilinéaire symétrique, alors
1 
B(x, y) = B(x + y, x + y) − B(x, x) − B(y, y) ( formule de polarisation).
2
Ceci montre que, si Q est une forme quadratique, il existe une unique forme
bilinéaire symétrique B telle que Q(x) = B(x, x). On l’appelle la forme polaire
de Q ; elle est donnée également par la formule
n n
X X 1 ∂Q
B(x, y) = Qi (x)yi = Qi (y)xi où Qi (x) = (x).
i=1 i=1
2 ∂xi
Théorème 3.6.2 (loi d’inertie de Sylvester) Soit Q une forme quadratique, il existe
une base B = (e1 , · · · , en ) de E telle que dans cette base
Q(x) = x21 + · · · + x2p − x2p+1 + · · · + x2r


où r est le rang de la forme polaire de Q et 0 ≤ p ≤ r. L’entier p ne dépend pas


du choix de la base B et le couple (p, q) où q = r − p est appelé la signature de la
forme quadratique.
On dit qu’on a réduit Q à une somme de carrés. Une autre façon d’exprimer ce
résultat consiste à prendre une forme quadratique sur Rn
Xn
Q(x) = aij xi xj .
i,j=1
Alors, il existe des formes linéaires, linéairement indépendantes,
Xn
li (x) = lij xj , 1 ≤ i ≤ n,
j=1
3.6 FORME QUADRATIQUE 25

et des réels λi tels que


n
X
Q(x) = λi li (x)2 .
i=1
L’entier p (resp. q) est le nombre de λi > 0 (resp. λi < 0). La méthode de Gauss
permet d’effectuer pratiquement cette réduction.
26 CHAPITRE 3 ESPACES EUCLIDIENS
Chapitre 4

Espaces hermitiens

4.1 Forme hermitienne


On considère ici un espce vectoriel complexe de dimension finie n.
Définition 4.1.1 Soit E un espace vectoriel complexe, une application B : E ×
E → C est appelée une forme sesquilinéaire si, pour tout x, y, x1 , x2 , y1 , y2 de
E et tout λ1 , λ2 de C
B(λ1 x1 + λ2 x2 , y) = λ1 B(x1 , y) + λ2 B(x2 , y),
B(x, λ1 y1 + λ2 y2 ) = λ1 B(x, y1 ) + λ2 B(x, y2 ).
On dit que B est une forme hermitienne si on a de plus, pour tout x, y de E,
B(x, y) = B(y, x).
Si B est une forme sesquilinéaire, l’application B(•, y) est, pour tout y, une
forme linéaire sur E ; pour tout x, l’application B(x, •) est dite semi-linéaire.
Si B est une forme hermitienne, B(x, x) est réel pour tout x ; autrement dit,
une forme hermitienne est réelle sur la diagonale de E. Cette propriété caractérise
les formes. hermitiennes.
Proposition 4.1.1 Soit E un espace vectoriel complexe, alors toute forme sesqui-
linéaire réelle sur la diagonale de E est hermitienne.
28 CHAPITRE 4 ESPACES HERMITIENS

Une forme hermitienne B : E × E → C est dite positive si B(x, x) ≥ 0 pour


tout x ∈ E et elle est dite définie positive ou positive non dégénérée si B(x, x) > 0
pour tout x ∈ E − {0}.
Pn B une forme
Soient Pn sesquilinéaire et B = (e1 , · · · , en ) une base de E, si
x = i=1 xi ei , y = i=1 yi ei , on a
Xn
B(x, y) = bij xi y j où bij = B(ei , ej ).
i,j=1

On définit ainsi une matrice b = (bij )1≤i,j≤n ∈ Mn,n (K), appelée matrice de la
forme sesquilinéaire B dans la base B. La forme B est hermitienne si, et seulement
si, bji = bij , soit t b = b ; on dit que la matrice b est hermitienne.
PnLa forme hermitienne BPest n
positive (resp. définie positive) si, et seulement si,
b x
i,j=1 ij i jx ≥ 0 (resp. i,j=1 bij xi xj > 0) pour tout x 6= 0.
Si B0 est une autre base de E, b0 la matrice représentative de la forme B dans
cette base, on vérifie que
b0 = t P b P
où P est la matrice de passage de B à B0 .

4.2 Espaces hermitiens


Définition 4.2.1 Soit E un e.v. complexe de dimension finie n, une structure her-
mitienne sur E est définie par la donnée d’une forme hermitienne
(•|•) : (x, y) ∈ E × E 7→ (x|y) ∈ C
définie positive.
Le complexe (x|y) est appelé le produit scalaire de x et y. La norme d’un
vecteur x est définie par
kxk = (x|x)1/2 .
On notera que
kλxk = |λ| kxk pour tout λ ∈ C et tout x ∈ E
et que kxk = 0 équivaut à x = 0.
Exemple 4.2.1 Si B = (e1 , · · · , en ) est une base de E, on définit une structure
hermitienne sur E en posant
Xn Xn n
X
(x|y) = xi y i si x = xi ei , y = yi ei .
i=1 i=1 i=1
On a alors
n
X 1/2
kxk = |xi |2 .
i=1
4.3 ADJOINT D’UN ENDOMORPHISME 29

La proposition 3.2.1, le théorème 3.2.2 et la remarque 3.2.1 valent encore dans


le cas hermitien. Le paragraphe 3.3 concernant les bases orthonormales subsiste
également.
Soient B et B 0 deux bases de E et P la matrice de passage de B à B 0 , alors, si
B est une base orthonormale, il en est de même de B 0 si, et seulement si,
(4.2.1) P ∗ P = In
où P ∗ = t P est appelée la matrice adjointe de P . Une matrice vérifiant (4.2.1)
est dite unitaire. L’ensemble U (n) des matrices unitaires est un sous-groupe du
groupe linéaire GL(n : C), appelé groupe unitaire. Si P est une matrice unitaire,
on notera que |dét P | = 1.

4.3 Adjoint d’un endomorphisme


Soient E un espace hermitien, E ∗ le dual de E, on définit une application
j : E → E ∗ en posant pour y ∈ E
j(y) : x ∈ E 7→ (x|y) ∈ C.
Théorème 4.3.1 L’application j : E → E ? est une bijection semi-linéaire. Au-
trement dit, pour toute forme linéaire T ∈ E ? , il existe un unique y ∈ E tel que
T x = (x|y) pour tout x ∈ E.
On dit que j est un semi-isomorphisme.
Soient E et F deux espaces hermitiens et T ∈ L(E; F ), pour tout y ∈ F , il
existe un unique point y ? = T ? y ∈ E tel que
(T x|y)F = (x|T ? y)E pour tout x ∈ E.
Proposition 4.3.2 L’application T ? : F → E est linéaire.
L’application T ? est appelée l’adjointe de T . On vérifie que l’application T ∈
L(E) 7→ T ? ∈ L(E) est un semi-isomorphisme et, si E, F et G sont des espaces
hermitiens, S ∈ L(E; F ), T ∈ L(F ; G),
(T ◦ S)? = S ? ◦ T ? .
Proposition 4.3.3 Dans une base orthonormale, la matrice représentative de T ?
est l’adjointe de celle de T .
Définition 4.3.1 Un endomorphisme T ∈ L(E) est dit hermitien si T = T ? .
Proposition 4.3.4 Un endomorphisme est hermitien si, et seulement si, sa matrice
représentative A dans une base orthonormale est hermitienne :A = A? .
Proposition 4.3.5 Les valeurs propres d’un endomorphisme hermitiens sont réelles
et des vecteurs propres associés à des valeurs propres distinctes sont orthogonaux.
30 CHAPITRE 4 ESPACES HERMITIENS

4.4 Opérateurs normaux


On dit qu’un opératreur T ∈ L(E) est normal si T ◦ T ? = T ? ◦ T . Si A
est la matrice représentative de T dans une base orthonormale, ceci signifie que la
matrice A est normale, c’est-à-dire que A A? = A? A. Tout opérateur hermitien,
ainsi que tout opérateur unitaire, est normal.
Lemme 4.4.1 Soit T ∈ L(E) un opérateur normal, alors Ker T = Ker T ? .
Lemme 4.4.2 Soit T ∈ L(E) un opérateur normal, alors
λ ∈ σ(T ) ⇐⇒ λ ∈ σ(T ? ) et Eλ (T ) = Eλ (T ? ).
Lemme 4.4.3 Soient T ∈ L(E) un opérateur normal, λ, µ ∈ σ(T ), λ 6= µ, alors
les sous-espaces propres Eλ (T ) et Eµ (T ) sont orthogonaux.
Lemme 4.4.4 Soient T ∈ L(E) un endomorphisme et F un s.e.v. stable par T et
T ? , alors F ⊥ est stable par T et T ? .
Théorème 4.4.5 Soient T ∈ L(E) un opérateur normal, alors T est diagonali-
sable et il existe une base orthonormale dans laquelle la matrice représentative de
T est diagonale, autrement dit il existe une base orthonormale de vecteurs propres.
En termes de matrices, si A ∈ Mn (C) est une matrice normale, il existe une ma-
trice unitaire P ∈ U (n) telle que P ? AP soit diagonale.
On a alors
E = ⊕λ∈σ(T ) Eλ (T ),
les sous-espaces propres Eλ (T ) étant orthogonaux deux à deux.
On en déduit qu’une matrice normale est hermitienne si, et seulement si, toutes
ses valeurs propres sont réelles et qu’elle est unitaire si, et seulement si, toutes ses
valeurs propres sont de module 1.

Vous aimerez peut-être aussi