Vous êtes sur la page 1sur 109

Algébre linéaire

Table des matières


1 Les matrices 3
1.1 Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 L’algèbre des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Différentes interprétations du produit matriciel . . . . . . . . . . . . . . 12
1.6 Trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.7 Matrices décomposées en blocs . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.1 Matrices extraites . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.2 Matrices blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.3 Opérations sur les matrices blocs . . . . . . . . . . . . . . . . . 16

2 Familles de vecteurs 17
2.1 Familles libres et génératrices . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Base canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5 Application linéaire associée à une famille de vecteurs . . . . . . . . . . 27
2.6 Image d’une famille par une application linéaire . . . . . . . . . . . . . 27
2.7 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . 32
2.8 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . 32

3 Les systèmes linéaires 38


3.1 Trois interprétations d’un système linéaire . . . . . . . . . . . . . . . . 38
3.2 Les opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4 Méthode du pivot total . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.5 Méthode de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 46

1
Algébre linéaire 0

4 Somme de sous-espaces vectoriels 47


4.1 Sommes et sommes directes . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Supplémentaires d’un sous-espace vectoriel . . . . . . . . . . . . . . . . 49
4.3 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . 52
4.4 Propriétés des sommes directes . . . . . . . . . . . . . . . . . . . . . . 53
4.4.1 Un moyen de définir une application linéaire . . . . . . . . . . . 53
4.4.2 Formules dimensionnelles . . . . . . . . . . . . . . . . . . . . . . 54
4.4.3 Associativité des sommes directes . . . . . . . . . . . . . . . . . 56
4.4.4 Base adaptée à une décomposition en somme directe . . . . . . 58
4.5 Les projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.6 Sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.6.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.6.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.6.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

5 Changement de base 66
5.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.2 Diagonalisation et trigonalisation . . . . . . . . . . . . . . . . . . . . . 68
5.3 Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.4 Matrices équivalentes et matrices semblables . . . . . . . . . . . . . . . 71
5.4.1 Matrices équivalentes . . . . . . . . . . . . . . . . . . . . . . . . 71
5.4.2 Propriétés du rang d’une matrice . . . . . . . . . . . . . . . . . 73
5.4.3 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . 74

6 Les hyperplans 75
6.1 En dimension quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.2 En dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.3 Les hyperplans affines . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.4 Application aux systèmes linéaires . . . . . . . . . . . . . . . . . . . . . 78

7 Déterminants 80
7.1 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.2 Les trois notions de déterminants . . . . . . . . . . . . . . . . . . . . . 84
7.2.1 Volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.2.2 Déterminant d’un système de n vecteurs . . . . . . . . . . . . . 87
7.2.3 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . 89
7.2.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . 90
7.3 Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.4 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 92
7.5 Formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.6 Exemples de déterminants. . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.6.1 Déterminant de Vandermonde . . . . . . . . . . . . . . . . . . . 96
7.6.2 Déterminants tridiagonaux . . . . . . . . . . . . . . . . . . . . . 99

c Éric Merle 2 MPSI2, LLG


7.6.3 Déterminants circulants . . . . . . . . . . . . . . . . . . . . . . 101
7.7 Le polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . 102
7.7.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.7.2 Propriétés du polynôme caractéristique . . . . . . . . . . . . . . 104
7.7.3 Caractérisation des endomorphismes diagonalisables . . . . . . . 107
Algébre linéaire 1 Les matrices

Notation. K désigne un corps quelconque.


Selon le programme, “en pratique, K est égal à R ou C”.
Notation. Symbole de Kronecker : Si i et j sont deux objets mathématiques, on
convient que δi,j = 0 lorsque i 6= j et δi,i = 1 lorsque i = j.

1 Les matrices
1.1 Vocabulaire
Définition. Soit (n, p) ∈ N∗ 2 . On appelle matrice à n lignes et à p colonnes (à
coefficients dans K) toute famille de scalaires indexée par Nn × Np .
Si M = (mi,j )(i,j)∈Nn ×Np = (mi,j ) 1≤i≤n , on représente M sous la forme suivante :
1≤j≤p

m1,1 ··· m1,p


 

M =  ... ..  ,
.
mn,1 · · · mn,p
où le (i, j)ème coefficient est situé à l’intersection de la ième ligne et de la j ème colonne.
Une matrice est donc un tableau de scalaires.
Notation.
— L’ensemble des matrices à coefficients dans K, à n lignes et p colonnes est noté
MK (n, p) ou Mn,p (K).
— De plus, MK (n, n) est souvent noté MK (n) ou Mn (K).
Définitions :
— Une matrice ligne est une matrice ne possédant qu’une ligne.
— Une matrice colonne est une matrice ne possédant qu’une colonne.
— Une matrice carrée est une matrice possédant autant de lignes que de co-
lonnes.
— Soit M = (mi,j ) ∈ MK (n, p).
M est une matrice triangulaire supérieure si et seulement si
∀(i, j) ∈ Nn × Np (i > j =⇒ mi,j = 0).
— M est une matrice triangulaire inférieure si et seulement si
∀(i, j) ∈ Nn × Np (i < j =⇒ mi,j = 0).
— M est une matrice diagonale si et seulement si
∀(i, j) ∈ Nn × Np (i 6= j =⇒ mi,j = 0).
On note alors M = diag(m1,1 , . . . , mn,n ).
— Soit M une matrice diagonale et carrée. On dit que M est une matrice scalaire
si et seulement si tous ses coefficients diagonaux sont égaux.
En particulier, lorsque tous ses coefficients diagonaux sont égaux à 1, on obtient
la matrice identité, notée In .
Ainsi, M est une matrice scalaire si et seulement s’il existe λ ∈ K tel que
M = λIn .

c Éric Merle 3 MPSI2, LLG


Algébre linéaire 1 Les matrices

Définition. Soit M = (αi,j ) ∈ MK (n, p).


Pour j ∈ Np , on appelle j ème vecteur colonne de M la quantité (α1,j , . . . , αn,j ) ∈ Kn .
Pour i ∈ Nn , on appelle ième vecteur ligne de M la quantité (αi,1 , . . . , αi,p ) ∈ Kp .
Remarque. Lorqu’aucune ambiguı̈té n’est possible, on identifie Kn avec MK (n, 1)
(ensemble des matrices colonnes).
Plus rarement, un vecteur de Kn sera vu comme un élément de MK (1, n) (ensemble
des matrices lignes).

1.2 Opérations sur les matrices


Définition. MK (n, p) = KNn ×Np , or K est un K-espace vectoriel , donc MK (n, p) est
un K-espace vectoriel : On dispose ainsi des lois d’addition et de multiplication par un
scalaire.
   
1 2 −1 0 4 −1
Exemple. 3 − = · · ·.
0 0 3 2 3 1
Définition du produit matriciel : Soit (n, p, q) ∈ (N∗ )3 .
Soient A = (ai,j ) ∈ MK (n, p) et B = (bj,k ) ∈ MK (p, q).
On appelle produit des matrices A et B la matrice C = (ci,k ) ∈ MK (n, q) définie
par
p
X
∀(i, k) ∈ Nn × Nq ci,k = ai,j bj,k .
j=1
 
1 −1
   2 1 
Exemple. Soit a ∈ K : a 1 a+2 1−a
 −a a   a 2a 
0 0 0 0
Convention : sauf précision du contraire, lorsque A est une matrice, on notera Ai,j
son coefficient de position (i, j).
Ainsi, lorsque A et B sont deux matrices telles que le nombre p de colonnes de A est
égal au nombre de lignes de B, la définition du produit matriciel se résume par :
p
X
[AB]i,j = Ai,k Bk,j .
k=1

Formule pour le produit de trois matrices : Soit (n, m, l, p) ∈ (N∗ )4 .


Soient A = (ai,j ) ∈ MK (n, m), B = (bj,k ) ∈ MK (m, l) X
et C = (ck,h ) ∈ MK (l, p).
Pour tout i, h ∈ Nn × Np , [(AB)C]i,h = [A(BC)]i,h = Ai,j Bj,k Ck,h .
1≤j≤m
1≤k≤l

c Éric Merle 4 MPSI2, LLG


Algébre linéaire 1 Les matrices

Démonstration.
Soit (i, h) ∈ Nn × Np . !
Xl l
X m
X m X
X l
[(AB)C]i,h = [AB]i,k Ck,h = Ai,j Bj,k Ck,h = Ai,j Bj,k Ck,h .
k=1 k=1 j=1 j=1 k=1

Remarque. On pourrait généraliser en donnant l’expression des coefficients du pro-


duit de N matrices en fonction des coefficients de ces N matrices.
Exemple. On considère un ensemble S = {s1 , . . . , sn } fini de cardinal n, dont les
éléments sont appelés des sommets, et une partie A de S 2 , dont les éléments sont
appelés des arêtes. On a ainsi défini un graphe orienté, dont l’ensemble des sommets
est S et l’ensemble des arêtes est A.
La matrice d’adjacence de ce graphe est, par définition, la matrice M ∈ Mn (R) sui-
vante : pour tout i, j ∈ {1, . . . , n}, Mi,j = 1 si (si , sj ) ∈ A et Mi,j = 0 sinon.
Alors, pour tout p ∈ N, [M p ]i,j correspond au nombreX de chemins de longueur p per-
p
mettant de passer de si à sj : en effet, [M ]i,j = Mi,i1 Mi1 ,i2 · · · Mip−1 ,j , et
1≤i1 ,...,ip−1 ≤n
Mi,i1 Mi1 ,i2 · · · Mip−1 ,j est égal à 1 si et seulement si le chemin
si → si1 → · · · → sip−1 → sj est bien une succession d’arêtes du graphe, et il est égal
à 0 sinon.
Propriété. La multiplication matricielle est associative.
Propriété. La mutiplication matricielle est distributive par rapport à l’addition.
Démonstration.
Soit A ∈ Mn,p et B, C ∈ Mp,q . Alors A(B + C) = AB + AC
p p p
X X X
car [A(B + C)]i,k = Ai,j (Bj,k + Cj,k ) = Ai,j Bj,k + Ai,j Cj,k = [AB + AC]i,j .
j=1 j=1 j=1
De même, on montre que si D ∈ Mn,p (K), (A + D)B = AB + DB.
Propriété. Soit A ∈ Mn,p , B ∈ Mp,q et a ∈ K. Alors a(AB) = (aA)B = A(aB).
Démonstration.
p
X
[a(AB)]i,k = aAi,j Bj,k = [(aA)B)]i,k = [A(aB))]i,k .
j=1

Propriété. Pour tout M ∈ MK (n, p), In M = M Ip = M .


Démonstration.
X
[In M ]i,k = δi,j Mj,k = Mi,k .
1≤j≤n

Propriété. Soit n, p ∈ N∗ et M ∈ MK (n, p).


Pour tout X ∈ Kp = MK (p, 1), M X ∈ MK (n, 1) = Kn .
 
x1 p
..  X
Si X =  . , alors ∀i ∈ {1, . . . , n}, [M X]i = Mi,j xj .
xp j=1

c Éric Merle 5 MPSI2, LLG


Algébre linéaire 1 Les matrices
 
x1
.
Si X =  .. , alors M X = x1 M1 + · · · xp Mp ,
xp
en notant M1 , . . . , Mp les colonnes de M .
Démonstration.
p p
X X
[M X]i,1 = Mi,j Xj,1 , donc avec d’autres notations, [M X]i = Mi,j xj .
j=1 j=1
p
X
Ainsi, [M X]i = xj [Mj ]i , où [Mj ]i désigne la i-ème composante de Mj .
j=1

Propriété. Soit n, p ∈ N∗ et M ∈ MK (n, p).


Soit j ∈ {1, . . . , p}. La j-ème colonne de M est M cj , où cj = (δi,j )1≤i≤n ∈ Kp .
Propriété. Soit n, p ∈ N∗ et M ∈ MK (n, p).
M̃ : Kp −→ Kn
Alors l’application est une application linéaire que l’on appelle
X 7−→ M X
l’application linéaire canoniquement associée à la matrice M .
MK (n, p) −→ L(Kp , Kn )
Propriété. Soit n, p ∈ N∗ . Alors est un isomorphisme
M 7−→ M̃
d’espaces vectoriels.
Démonstration.
 Soit A, B ∈ MK (n, p) et λ ∈ K. Pour tout X ∈ Kn ,
^
(λA + B)(X) = (λA + B)X = λAX + BX = λÃ(X) + B̃(X) = (λà + B̃)(X). Ceci
prouve que M 7−→ M̃ est linéaire.
 Soit u ∈ L(Kp , Kn ). S’il existe M ∈ MK (n, p) telle que M̃ = u, alors, pour tout
j ∈ {1, . . . , p}, la j-ème colonne de M est égale à M cj = M̃ (cj ) = u(cj ). Donc si M
existe, elle est unique.
Pour la synthèse, notons M la matrice de MK (n, p) dont la j-ème colonne est égale à
u(cj ) = Mj , pour tout j ∈ {1,   Ainsi, pour tout j ∈ {1, . . . , p}, u(cj ) = M̃ (cj ).
. . . , p}.
x1 p
. X
Soit X ∈ K . En posant X =  .. , X =
p
x j cj ,
xp j=1
p p
X X
donc u(X) = xj u(cj ) = xj Mj = M X = M̃ (X), donc u = M̃ .
j=1 j=1
Ainsi, pour tout u ∈ L(Kp , Kn ), il existe une unique M ∈ MK (n, p) telle que M̃ = u,
ce qui prouve que M 7−→ M̃ est une bijection.
Remarque. Avec les notations précédentes, pour tout X ∈ Kp , M̃ (X) = M X.
Il est fréquent que l’on identifie M et M̃ . Alors, pour tout X ∈ Kp , M (X) = M X.
Cette identification n’est pas systématique cependant.
Définition. Soit M ∈ MK (n, p).

Ker(M ) = Ker(M̃ ) = {X ∈ Kp / M X = 0}.

c Éric Merle 6 MPSI2, LLG


Algébre linéaire 1 Les matrices


Im(M ) = Im(M̃ ) = {M X / X ∈ Kp }.

Corollaire. Soit (M, M 0 ) ∈ MK (n, p). Alors,

(∀X ∈ Kp M X = M 0 X) ⇐⇒ M = M 0 .

Démonstration.
Si ∀X ∈ Kp M X = M 0 X, alors M̃ = M
f0 , donc par injectivité, M = M 0 .

1.3 L’algèbre des matrices carrées


Notation. On fixe un entier n non nul.
Propriété. (Mn (K), +, ., ×) est une K-algèbre, non commutative dès que n ≥ 2.
ATTENTION : (Mn (K), +, ., ×) n’est pas intègre, dès que n ≥ 2.
 2
0 1
En effet, = 0.
0 0
Ainsi, lorsque A, B, C ∈ Mn (K), AB = 0 =⇒ 6 (A = 0) ∨ (B = 0)
et (C 6= 0) ∧ (AC = BC) =⇒6 A = B.
Cependant, lorsque C est inversible, alors AC = BC =⇒ A = B.
Définition. Soit A ∈ Mn (K).
On dit que A est nilpotente si et seulement si il existe p ∈ N∗ tel que Ap = 0.
ATTENTION : L’anneau (Mn (K), +, ×) n’est pas commutatif, ce qui nous prive
d’un certain nombre de régles : si A, B ∈ Mn (K),
— (AB)p 6= Ap B p ;
— (A − B)(A + B) 6= A2 − B 2 ; plus généralement, la formule de Bernoulli n’est
plus valable, lorsque A et B ne commutent pas.
— (A + B)2 6= A2 + B 2 + 2AB. plus généralement, la formule de Newton n’est plus
valable, lorsque A et B ne commutent pas.
MK (n) −→ L(Kn )
Propriété. est un isomorphisme d’algèbres.
M 7−→ M̃
Démonstration.
ϕ(In ) = IdKn .
Pour tout A, B ∈ MK (n) et X ∈ Kn ,
]
(AB)(X) = (AB)X = A(BX) = Ã(B̃(X)) = [Ã ◦ B̃](X).
Corollaire. Soit A ∈ MK (n). A est inversible dans MK (n) si et seulement si à est
inversible dans L(Kn ) et dans ce cas, M
] −1 = M̃ −1 .

Corollaire. Soit A ∈ MK (n). A est inversible dans MK (n) si et seulement si, pour
tout Y ∈ Kn , il existe un unique X ∈ Kn tel que AX = Y .
 
a b
Formule : Dans M2 (K), M = est inversible si et seulement si
c d

c Éric Merle 7 MPSI2, LLG


Algébre linéaire 1 Les matrices


det(M ) = ad − cb 6= 0, et dans ce cas
 −1  
a b 1 d −b
= .
c d det(M ) −c a

Démonstration.
 Supposons  que   ) 6= 0.  
det(M 
a b d −b ad − bc 0
On calcule × = = det(M )I2 ,
 c d −c
 a  0 −cb + ad
a b 1 d −b
donc × = I2 .
c d det(M ) −c a   
1 d −b a b
De même on vérifie que × = I2 ,
det(M ) −c a c d
1 d −b
donc M est inversible et M −1 = .
det(M ) −c a
 Supposons
  ad− bc = 0.
que      
a b d a b b d b
Alors = 0 et = 0, donc , ∈ Ker(M̃ ).
c d −c c d −a −c −a
On en déduit que Ker(M̃ ) 6= {0} lorsque M 6= 0, donc que M̃ n’est pas inversible, puis
que M n’est pas inversible. Lorsque M = 0, comme dans tout anneau non nul, M n’est
pas inversible.
 −1  
1 5 1 2 −5
Exemple. = .
−3 2 17 3 1
On en déduit les formules de Cramer pour la résolution d’un système linéaire de deux
équations à deux inconnues :
Formule de Cramer : Soit a, b, c, d, e, f ∈ K4 . On considère le système linéaire (S) :

ax + by = e
, en les inconnues (x, y) ∈ K2 .
cx + dy = f 
 e b


 f d
x =


∆ a b det
Lorsque det = ad − cb = 6= 0, (S) ⇐⇒ a e .
c d 
c f



y =


det
Démonstration.
     
a b x e
Posons M = ,X= et Y = . Alors (S) ⇐⇒ M X = Y .
c d y f
On suppose que det(M ) 6= 0, donc M  est inversible.
 
−1 1 d −b e
Alors (S) ⇐⇒ X = M Y = .
det(M ) −c a f
3
 
x + 5y =1 x = − 17
Exemple. ⇐⇒ 4 .
−3x + 2y = 1 y = 17

c Éric Merle 8 MPSI2, LLG


Algébre linéaire 1 Les matrices

Notation. On note GLn (K) le groupe des inversibles de Mn (K). On l’appelle le


groupe linéaire de degré n.
Exemple. Un automorphisme intérieur de Mn (K) est un automorphisme sur Mn (K)
7 → AM A−1 où A ∈ GLn (K).
de la forme M −
Propriété. L’ensemble des matrices diagonales de Mn (K) est une sous-algèbre com-
mutative de Mn (K).
Propriété. Pour tout i ∈ Nn , on pose ci = (δi,j )1≤j≤n ∈ Kn .
Pour tout i ∈ {0, . . . , n}, on note Fi = Vect(ck )1≤k≤i . Ainsi, F0 = {0} et pour tout
x1
 
 ... 
n  xi 
 o
i ∈ {1, . . . , n}, Fi =  0
 / x 1 , . . . , xi ∈ K .
 . 
 .. 
0
Si M ∈ Mn (K), alors M est triangulaire supérieure si et seulement si, pour tout
j ∈ {1, . . . , n}, Fj est stable par M̃ .
Démonstration.
M est triangulaire supérieure si et seulement si, pour tout j ∈ {1, . . . , n}, la j-ème
colonne de M , égale à M̃ (cj ), est une combinaison linéaire de c1 , . . . , cj , donc si et
seulement si (C) : ∀j ∈ {1, . . . , n}, M̃ (cj ) ∈ Fj .
Or si tout les Fj sont stables par M̃ , alors pour tout j, sachant que cj ∈ Fj , M̃ (cj ) ∈ Fj ,
donc (C) est vérifiée.
Réciproquement, si l’on suppose (C), pour j fixé dans {1, . . . , p}, pour tout
k ∈ {1, . . . , j}, M̃ (ck ) ∈ Fk ⊂ Fj , donc Vect({M̃ (ck )/1 ≤ k ≤ j}) ⊂ Fj , or
j
X
Vect({M̃ (ck )/1 ≤ k ≤ j}) = { αk M̃ (ck ) / α1 , . . . , αj ∈ K}
k=1
j
X 
= {M̃ αk ck / α1 , . . . , αj ∈ K}
k=1
= M̃ (Vect({ck /1 ≤ k ≤ j})),
donc Vect({M̃ (ck )/1 ≤ k ≤ j}) = M̃ (Fj ), si bien que M̃ (Fj ) ⊂ Fj .
Propriété. On suppose que n ≥ 2.
— L’ensemble des matrices triangulaires supérieures (respectivement : inférieures)
de Mn (K) est une sous-algèbre non commutative de Mn (K).
— Le produit d’une matrice triangulaire supérieure dont la diagonale est (a1 , . . . , an )
par une matrice triangulaire supérieure dont la diagonale est (b1 , . . . , bn ) est une
matrice triangulaire supérieure dont la diagonale est (a1 b1 , . . . , an bn ).
Démonstration.
Première démonstration :
 Notons T l’ensemble des matrices supérieures. In ∈ T , T est stable pour l’addition et
la multiplication par un scalaire, donc pour montrer que T est une sous-algèbre, il reste

c Éric Merle 9 MPSI2, LLG


Algébre linéaire 1 Les matrices

à montrer qu’il est stable pour le produit. Or, si A, B ∈ T , pour tout i ∈ {1, . . . , n},
] i ) = Ã(B̃(Fi )) ⊂ Ã(Fi ), car B ∈ T donc B̃(Fi ) ⊂ Fi , donc (AB)(F
(AB)(F ] i ) ⊂ Fi , ce
qui prouve que AB ∈ T .
 Soit j ∈ {1, . . . , n}. Acj est la j-ème colonne de A et A ∈ T , donc Acj = Aj,j cj + d,
où d ∈ Fj−1 . De même, Bcj = Bj,j cj + d0 , où d0 ∈ Fj−1 .
Ainsi, (AB)cj = A(Bj,j cj + d0 ) = Bj,j Acj + Ad0 = Aj,j Bj,j cj + Bj,j d + Ad0 .
Or A ∈ T et d0 ∈ Fj−1 , donc Ad0 ∈ Fj−1 et d ∈ Fj−1 . Ceci démontre que le coefficient
de position (j, j) de AB est égal à Aj,j Bj,j .
Seconde démonstration : Par calcul matriciel direct.
 Soient A = (ai,j ) et B = (bi,j ) deux matrices triangulaires supérieures.
Xn
2
Soit (i, j) ∈ Nn avec i > j. Le coefficient de position (i, j) de AB vaut ai,k bk,j . Mais,
k=1
pour tout k ∈ Nn , i > k ou k > j (sinon, i ≤ k ≤ j, donc i ≤ j, ce qui est faux). Or A
et B sont triangulaires supérieures, donc, pour tout k ∈ Nn , ai,k = 0 ou bk,j = 0, ce qui
prouve que le (i, j)ème coefficient de AB est nul. Ainsi AB est une matrice triangulaire
supérieure.
X n
 De plus, le coefficient de position (i, i) de AB vaut ai,k bk,i . Mais, pour tout
k=1
k ∈ Nn , ai,k bk,i est non nul si et seulement si i ≤ k et k ≤ i, donc si et seulement si
k = i. Ainsi, le (i, i)ème coefficient de AB vaut ai,i bi,i .
Exercice. Soit M ∈ MK (n) une matrice triangulaire supérieure stricte, c’est-à-
dire triangulaire supérieure et de diagonale nulle.
Montrer que pour tout k ∈ {1, . . . , n}, M k est une matrice triangulaire supérieure
dont les k diagonales supérieures (en partant de la diagonale principale) sont
nulles. En déduire que M est nilpotente.
Solution : En adaptant ce qui précède, on montre que pour tout i ∈ {1, . . . , n},
M̃ (Fi ) ⊂ Fi−1 , puis par récurrence sur k que, pour tout k ∈ {1, . . . , n},
et i ∈ {1, . . . , n}, M̃ k (Fi ) ⊂ Fi−k en convenant que pour tout h ∈ Z\N, Fh = {0}.

1.4 Transposée d’une matrice


Définition. Soit A = (αi,j ) ∈ MK (n, p). On appelle transposée de la matrice A
et on note t A la matrice (βi,j ) ∈ MK (p, n) définie par

∀(i, j) ∈ Np × Nn βi,j = αj,i .

En résumé, [t A]i,j = Aj,i .


ATTENTION : Si A = (αi,j ) ∈ MK (n, p), alors (αj,i ) 1≤j≤n = A.
1≤i≤p

Exemples.
— t In = In . Plus généralement, pour toute matrice diagonale D ∈ MK (n), t D = D.

c Éric Merle 10 MPSI2, LLG


Algébre linéaire 1 Les matrices
 
1 2  
1 2 4
— La transposée de  2 3  est .
2 3 5
4 5
— La transposée d’une matrice triangulaire supérieure est triangulaire inférieure.
Propriété. Pour tout A ∈ MK (n, p), t (t A) = A.
MK (n, p) −→ MK (p, n)
Propriété. L’application t est un isomorphisme d’espaces
M 7−→ M
vectoriels.
Propriété. Soit (A, B) ∈ MK (n, p) × MK (p, q). Alors, t (AB) = t B t A.
Démonstration.
Soit i ∈ {1, . . . , n} et k ∈ {1, . . . , q}.
p p
X X
t t
t t
[ B A]k,i = [ B]k,j [ A]j,i = Bj,k Ai,j = [AB]i,k = [t (AB)]k,i .
j=1 j=1

Corollaire. Si A ∈ GLn (K), t A ∈ GLn (K) et (t A)−1 = t (A−1 ).


Démonstration.
Soit A ∈ GLn (K). Alors AA−1 = In , donc In = t In = t (AA−1 ) = t (A−1 )t A.
De même, on montre que t A t (A−1 ) = In .
Définition. Soit M ∈ Mn (K).
M est une matrice symétrique si et seulement si t M = M .
M est une matrice antisymétrique si et seulement si t M = −M .
   
1 0 1 0 a 1
Exemples.  0 3 2  est symétrique et  −a 0 2  est antisymétrique.
1 2 4 −1 −2 0
Remarque. Lorsque car(K) 6= 2, si M ∈ Mn (K) est antisymétrique, sa diagonale est
nulle.
Notation. Sn (K) désigne l’ensemble des matrices symétriques d’ordre n.
An (K) désigne l’ensemble des matrices antisymétriques d’ordre n.
Propriété. Sn (K) et An (K) sont des sous-espaces vectoriels de Mn (K), mais ce ne
sont pas des sous-algèbres. Cependant, elles sont stables par passage à l’inverse :
si A ∈ Sn (K) ∩ GLn (K) (resp : A ∈ An (K) ∩ GLn (K)) ,
alors A−1 ∈ Sn (K) (resp : A ∈ An (K)).
Démonstration.
Notons T l’opérateur de tranposition. Alors Sn (K) = Ker(T − IdMn (K) )
 An (K)
et  =Ker(T + IdMn (K) ),donc ce sont des sous-espaces vectoriels.
0 1 1 0 0 0
× = , donc Sn (K) n’est pas stable pour le produit : ce n’est
1 0 0 0 1 0
pas un sous-anneau.
In ∈/ An (K), donc ce n’est pas un sous-anneau.

c Éric Merle 11 MPSI2, LLG


Algébre linéaire 1 Les matrices

Soit A une matrice inversible. Si t A = A, alors t (A−1 ) = (t A)−1 = A−1 donc A−1 est
symétrique.
C’est analogue si A est antisymétrique.

1.5 Différentes interprétations du produit matriciel


Au niveau des coefficients : p
X
Si A ∈ MK (n, p) et B ∈ MK (p, q), [AB]i,k = Ai,j Bj,k .
j=1

Remarque. D’après cette formule, les coefficients de la k-ème colonne de AB ne


dépendent que de A et de la k-ème colonne de B. Plus précisément, on voit que la
k-ème colonne de AB est égale à ABk si Bk désigne la k-ème colonne de B.
D’où l’interprétation suivante :
Au niveau des colonnes de la matrice de droite :
Soit A ∈ MK (n, p) et B ∈ MK (p, q).
Notons B1 , . . . , Bq les colonnes de B, ce qui permet d’écrire B = B1 B2 · · · Bq .
Alors AB = AB1 AB2 · · · ABq . En résumé, si B1 , . . . , Bq sont des vecteurs colonnes
de Kp , A × B1 B2 · · · Bq = AB1 AB2 · · · ABq .
En décomposant la matrice de droite en blocs de colonnes :
Soit A ∈ MK (n, p) et B ∈ MK (p, q). Soit r ∈ {1, . . . , q − 1}.
Notons B 0 la matrice constituée des r premières colonnes de B et B 00 celle qui est
constituée des colonnes suivantes : B 0 = (Bj,k ) 1≤j≤p et B 0 = (Bj,k+r ) 1≤j≤p ).
1≤k≤r 1≤k≤q−r

Ainsi, on peut décomposer B en blocs : B = B 0 B 00 . Alors AB = AB 0 AB 00 .


En résumé, A × B 0 B 00 = AB 0 AB 00 .
Au niveau des colonnes de la matrice de gauche :
— Si M ∈ MK (n, p) et X ∈ Kp , M X est une combinaison linéaire des colonnes   de
x1
.
M . Plus précisément, si l’on note M1 , . . . , Mp les colonnes de M et X =  .. ,
xp
M X = x1 M1 + · · · + xp Mp .
— Soient A ∈ MK (n, p) et B ∈ MK (p, q). Les colonnes de AB sont des combi-
naisons linéaires des colonnes de A : en notant A1 , . . . , Ap les colonnes de A et
B = (bi,j ), la j ème colonne de AB est égale à b1,j A1 + · · · + bp,j Ap .
Exemple. Si M ∈ MK (n, p), la j-ème colonne de M est à M × (δi,j )1≤j≤p .
égale
1
 0 
 . 
La première colonne privée de la dernière est égale à M  . 
 . .
 0 
−1

c Éric Merle 12 MPSI2, LLG


Algébre linéaire 1 Les matrices

Propriété. Pour tout M ∈ MK (n, p),


Im(M ) est l’espace vectoriel engendré par les colonnes de M .
Démonstration. p
X
p
Im(M ) = {M X / X ∈ K } = { xj Mj / x1 , . . . , xj ∈ K}.
j=1

Remarque. En prenant la transposée de ces différentes relations, on obtient des


interprétations au niveau des lignes des matrices :
Au niveau des lignes de la matrice de gauche :
Soit A ∈ MK (n,
 p) etB ∈ MK (p, q). Notons
 1 A,
. . . , n A les lignes de A, ce qui permet
1 A 1 AB
 .   . 
d’écrire A =  .. . Alors AB =  .. . En résumé, si 1 A, . . . , n A sont des
nA n AB
   
1A 1 AB
vecteurs lignes de taille n,  ...  × B =  ...  .
   

nA n AB

Démonstration.
En transposant l’égalité A × B1 B2 · · · Bq = AB1 AB2 · · · ABq ,
 t   t t 
B1 B1 A
 ..  t ..
on obtient  .  × A =  .
 
.
t t t
Bq Bq A
En décomposant la matrice de gauche en blocs de lignes :
Soit A ∈ MK (n, p) et B ∈ MK (p, q). Soit r ∈ {1, . . . , n − 1}.
Notons A0 la matrice constituée des r premières lignes de A et A00 celle qui est constituée
des lignes suivantes : A0 = (Ai,j ) 1≤i≤r et A00 = (Ai+r,j ) 1≤i≤n−r .
1≤j≤p
 0  1≤j≤p  0 
A AB
Ainsi, on peut décomposer A en blocs : A = 00
. Alors AB = .
A A00 B
 0   0 
A AB
En résumé, 00
×B = .
A A00 B
Au niveau des lignes de la matrice de droite :
— Si M ∈ MK (n, p) et X ∈ M1,n , XM est une combinaison linéaire des lignes de
M . Plus précisément, si l’on note 1 M, . . . , n M les lignes de M et X = (x1 · · · xn ),
XM = x1 × 1 M + · · · + xn × n M .
— Soient A ∈ MK (n, p) et B ∈ MK (p, q). Les lignes de AB sont des combinaisons
linéaires des lignes de B : en notant 1 B, . . . , p B les lignes de B et A = (ai,j ),
la ième ligne de AB est égale à ai,1 × 1 B + · · · + ai,p × p B .
Exemple. Notons U ∈ Kn le vecteur Attila, dont toutes les composantes sont égales
à 1. Pour tout A ∈ Mn (K), AU est un vecteur colonne, obtenu en sommant toutes les

c Éric Merle 13 MPSI2, LLG


Algébre linéaire 1 Les matrices

colonnes de A, t U A est un vecteur ligne, obtenu en sommant toutes les lignes de A, et


t
U AU est un scalaire, égal à la somme de tous les coefficients de A.

1.6 Trace d’une matrice


Définition. Soit M = (mi,j ) ∈ Mn (K).
n
X
La trace de la matrice M est Tr(M ) = mi,i .
i=1

Exemple. Tr(In ) = n.
Propriété. La trace est une forme linéaire de Mn (K).
Propriété. Soit A ∈ Mn,p (K) et B ∈ Mp,n (K). Alors, Tr(AB) = Tr(BA).
Démonstration.
Notons A = (ai,j ) et B = (b !i,j ).
p p
n n
!
X X X X X
Tr(AB) = ai,k bk,i = bk,i ai,k = bk,i ai,k = Tr(BA).
i=1 k=1 1≤i≤n k=1 i=1
1≤k≤p
 
x1 n
. X
Exemple. Soit X =  ..  ∈ K . Alors Tr(X X) = XX =
n t t
x2i .
xn i=1

p n
X X
Remarque. Si A ∈ Mn,p (R), Tr( AA) = t
A2j,i , donc A = 0 ⇐⇒ Tr(t AA) = 0.
i=1 j=1
ATTENTION : Si (A, B, C) ∈ Mn (K)3 , on peut écrire
Tr(ABC) = Tr((AB)C) = Tr(C(AB) = Tr(CAB), ou Tr(ABC) = Tr(BCA), mais en
général Tr(ABC) 6= Tr(ACB).
Définition. Soit A, B ∈ Mn (K). On dit que A et B sont semblables si et seulement
si il existe P ∈ GLn (K) telle que B = P AP −1 .
La relation de similitude (“être semblable à”) est une relation d’équivalence sur Mn (K).
Remarque. Pour une matrice A donnée dans Mn (K), “réduire A”, c’est trouver une
matrice semblable à A aussi simple que possible.
La théorie de la réduction des matrices est au centre du programme d’algèbre de seconde
année.
Définition. Une matrice de Mn (K) est diagonalisable (resp : trigonalisable) si et
seulement si elle est semblable à une matrice diagonale (resp : triangulaire supérieure).
Propriété. Deux matrices semblables ont la même trace, mais la réciproque est fausse.
Démonstration.
 Soient (M, M 0 ) ∈ Mn (K) un couple de matrices semblables. Il existe P ∈ GLn (K)
tel que M 0 = P −1 M P . Ainsi Tr(M 0 ) = Tr((P −1 M )P ) = Tr(P (P −1 M )) = Tr(M ).

c Éric Merle 14 MPSI2, LLG


Algébre linéaire 1 Les matrices
 
0 1
 Prenons A = : Tr(A) = 0 = Tr(0), mais si A était semblable à la matrice
0 0
nulle, il existerait P ∈ GLn (K) telle que A = P 0P −1 = 0, ce qui est faux.

1.7 Matrices décomposées en blocs


1.7.1 Matrices extraites

Définition. Soit n, p ∈ N et soit I et J deux parties de N telles que |I| = n et |J| = p.


Notons 0 ≤ i1 ≤ i2 ≤ · · · ≤ in les éléments de I et 0 ≤ j1 ≤ i2 ≤ · · · ≤ jp les éléments
de J.
Alors on convient d’identifier toute famille (Mi,j )(i,j)∈I×J de scalaires indexée par I ×J
avec la matrice (Mih ,jk ) 1≤h≤n ∈ MK (n, p).
1≤k≤p

Ainsi, on identifie globalement MK (n, p) = KNn ×Np avec KI×J .


Exemple. Il est en particulier parfois pratique de faire débuter les indices de lignes
et de colonnes à partir de 0.  
0 1 2
Par exemple, (max(i, j)) 0≤i≤2 = 1 1
 2 .
0≤j≤2
2 2 2
Remarque. Lorsque I ou J est vide, I × J = ∅ et KI×J possède un unique élément,
que l’on appellera la matrice vide.
Définition. Soit n, p ∈ N∗ et M ∈ MK (n, p). Une matrice extraite de M est une
matrice de la forme (Mi,j )(i,j)∈I×J , où I ⊂ Nn et J ⊂ Np .
Exemple. . . .

1.7.2 Matrices blocs

Définition. Soient (n1 , . . . , na ) ∈ (N∗ )a et (p1 , . . . , pb ) ∈ (N∗ )b .


Xa X b
On pose n = ni et p = pj .
i=1 j=1
Pour tout (i, j) ∈ Na × Nb , considérons une matrice Mi,j ∈ MK (ni , pj ).
Alors la famille de ces matrices M = (Mi,j ) 1≤i≤a peut être identifiée à une matrice
1≤j≤b
possédant n lignes et p colonnes. On dit que M est une matrice décomposée en
blocs, de dimensions (n1 , . . . , na ) et (p1 , . . . , pb ).
   
0 1 1 1
Exemple. Posons A = et B = .
  −1 0 1 1
A A B
est une matrice décomposée en blocs.
B B A

c Éric Merle 15 MPSI2, LLG


Algébre linéaire 1 Les matrices
 
0 1 0 1 1 1
 −1 0 −1 0 1 1
Elle est égale à 
 1
.
1 1 1 0 1
1 1 1 1 −1 0
     
0 1 2 1 1 −2
Remarque. Choisissons A = ,B= et C = .
−1 0 2  1 1 0
A
Au sens de la définition précédente, n’est pas une matrice décomposée en
B C
blocs. Ainsi, le théorème ci-dessous, relatif au produit matriciel, ne s’applique pas à ce
type de matrices. Cependant, cette décomposition peut être utilisée pour décrire une
matrice.
Définition. La définition précédente peut être généralisée : Soit n, p ∈ N∗ . Soit
(Ii )1≤i≤a et (Jj )1≤j≤b des partitions respectivement de Nn et de Np . Alors on peut
identifier toute matrice M = (mi,j ) 1≤i≤n de MK (n, p) avec la famille des matrices
1≤j≤p
extraites (Mi,j ) 1≤i≤a , où Mi,j = (mh,k )(h,k)∈Ih ×Jk . On dit encore que (Mi,j ) 1≤i≤a est une
1≤j≤p 1≤j≤p
écriture par blocs de la matrice M , associée aux partitions (Ii )1≤i≤a et (Jj )1≤j≤b .
Avec ces notations, pour tout α, β ∈ Nn × Np , mα,β = [Mi,j ]α,β , où (i, j) est l’unique
couple tel que α ∈ Ij et β ∈ Jj .
Définition. Reprenons les notations de la première définition.
La matrice M = (Mi,j ) 1≤i≤a est une matrice triangulaire supérieure par blocs
1≤j≤b
si et seulement si, pour tout (i, j) ∈ Na × Nb tel que i > j, Mi,j = 0.
De même on définit la notion de matrice triangulaire inférieure par blocs.
La matrice M = (Mi,j ) 1≤i≤a est une matrice diagonale par blocs si et seulement
1≤j≤b
si, pour tout (i, j) ∈ Na × Nb tel que i 6= j, Mi,j = 0.

1.7.3 Opérations sur les matrices blocs


Combinaison linéaire de matrices décomposées en blocs :
Soient M = (Mi,j ) 1≤i≤a et N = (Ni,j ) 1≤i≤a deux matrices décomposées en blocs selon
1≤j≤b 1≤j≤b
les mêmes partitions (Ii )1≤i≤a et (Jj )1≤j≤b respectivement de Nn et de Np .
Pour tout (u, v) ∈ K2 , uM + vN se décompose en blocs selon la formule suivante :
uM + vN = (uMi,j + vNi,j ) 1≤i≤a .
1≤j≤b

Démonstration.
Notons M = (mα,β ) 1≤α≤n et N = (nα,β ) 1≤α≤n .
1≤β≤p 1≤β≤p
Soit α ∈ Nn et β ∈ Np . Il existe un unique (i, j) ∈ Na × Nb tel que α ∈ Ii et β ∈ Jj .
Alors mα,β = [Mi,j ]α,β et nα,β = [Ni,j ]α,β , donc u mα,β + v nα,β = [u Mi,j + v Ni,v ]α,β .
Produit matriciel de deux matrices décomposées en blocs : soit n, p, q ∈ N∗ .
Soit M = (Mi,j ) 1≤i≤a une matrice décomposée en blocs selon les partitions (Ii )1≤i≤a et
1≤j≤b
(Jj )1≤j≤b respectivement de Nn et de Np .

c Éric Merle 16 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Soit N = (Nj,k ) 1≤j≤b une matrice décomposée en blocs selon la même partition
1≤k≤c
(Jj )1≤j≤b de Np et une partition (Kk )1≤k≤c de Nq .
Alors M N peut être vue comme une matrice décomposée en blocs selon les partitions
(Ii )1≤i≤a de Nn et (Kk )1≤k≤c de Nq et :
b
X 
MN = Mi,j Nj,k 1≤i≤a
.
j=1 1≤k≤c

En résumé, le produit de deux matrices par blocs se comporte comme le produit ma-
triciel usuel.
Démonstration.
Notons M = (mα,β ) 1≤α≤n et N = (nβ,γ ) 1≤β≤p . Soit α, γ ∈ Nn × Nq .
1≤β≤p 1≤γ≤q
p hX b i
X
Il s’agit de montrer que mα,β nβ,γ = Mi,j Nj,k , où (i, k) est l’unique couple
α,γ
β=1 j=1
tel que α ∈ Ii et γ ∈ Kk . Or,
hX b i Xb b X
X
Mi,j Nj,k = [Mi,j Nj,k ]α,γ = [Mi,j ]α,β [Nj,k ]β,γ , donc
α,γ
j=1 j=1 j=1 β∈Jj
hXb i b p
X X X
Mi,j Nj,k = mα,β nβ,γ = mα,β nβ,γ .
α,γ
j=1 j=1 β∈Jj β=1

Application : Produit de matrices triangulaires (resp : diagonales) par blocs, puis-


sances de telles matrices.

2 Familles de vecteurs
Notation. Pour ce chapitre, on fixe un K-espace vectoriel E et un ensemble quelconque
I (éventuellement infini).

2.1 Familles libres et génératrices


Définition. Soit (xi )i∈I une famille de vecteurs de E.
• Elle est libre si et seulement si
!
X
∀(αi )i∈I ∈ K(I) αi xi = 0 =⇒ (∀i ∈ I αi = 0) .
i∈I

• Elle est liée si et seulement si elle n’est pas libre, c’est-à-dire si et seulement si
X
∃(αi )i∈I ∈ K(I) \ {0} αi xi = 0.
i∈I

c Éric Merle 17 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

• Elle est génératrice dans E si et seulement si


X
∀x ∈ E ∃(αi )i∈I ∈ K(I) αi xi = x.
i∈I

Ainsi (xi )i∈I est toujours génératrice dans Vect(xi )i∈I .


• C’est une base de E si et seulement si elle est libre et génératrice dans E.
Remarque. Dans la définition d’une famille X liée, la condition “(αi )i∈I 6= 0” est essen-
tielle. En effet, si on l’oublie, comme 0 = 0.xi , toute famille serait liée.
i∈I

Remarque. Lorsque I = ∅, on dit que (xi )i∈I est la famille vide.


La famille vide est libre, car la propriété “∀i ∈ ∅ αi = 0” est vraie.
D’après les conventions du cours sur les groupes, l’unique combinaison linéaire de cette
famille est 0, donc la famille vide n’est pas génératrice dans E, sauf si E = {0}.
En particulier, on remarquera que la famille vide est l’unique base de {0}.
Exemple. Dans K[X], la famille (1, X + 1, X − 1) est liée.
Dans RR , la famille (cos, sin) est libre, car si α sin +β cos = 0,
alors 0 = α sin(0) + β cos(0) = β et 0 = α sin( π2 ) + β cos( π2 ) = α.
Définition. Deux vecteurs x et y d’un K-espace vectoriel E sont colinéaires si et
seulement si la famille (x, y) est liée.
Propriété. Soit e = (ei )i∈I une famille de vecteurs de E.
e est une base de E si et seulement si
X
∀x ∈ E ∃ !(αi )i∈I ∈ K(I) αi ei = x.
i∈I

Dans ce cas, pour x ∈ E, on appelle coordonnées deX x dans la base (ei )i∈I l’unique
famille presque nulle de scalaire (αi )i∈I telle que x = αi ei .
i∈I

2.2 Dimension d’un espace vectoriel


Définition. E est de dimension finie si et seulement s’il admet une famille génératrice
contenant un nombre fini d’éléments. Sinon, on dit qu’il est de dimension infinie.
Remarque. On dira qu’un espace vectoriel est de “dimension quelconque” lorsqu’il
est de dimension finie ou de dimension infinie.
Exemple.
R2 = {x(1, 0) + y(0, 1) / (x, y) ∈ R2 } = Vect((1, 0), (0, 1)) est de dimension finie.
Kn [X] = Vect(1, X, . . . , X n ) est de dimension finie.
Lemme : Soit n ∈ N et e1 , . . . , en ∈ E.
Toute famille (x1 , . . . , xn+1 ) de n + 1 vecteurs de Vect(e1 , . . . , en ) est liée.

c Éric Merle 18 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Démonstration.
Soit n ∈ N. On note R(n) l’assertion : pour tout e1 , . . . , en ∈ E, toute famille (x1 , . . . , xn+1 )
de n + 1 vecteurs de Vect(e1 , . . . , en ) est liée.
 Pour n = 0, si x1 ∈ Vect(∅) = {0}, x1 est nul, donc (x1 ) est une famille liée.
 Supposons que n ≥ 1 et que R(n − 1) est vraie.
Soit e1 , . . . , en ∈ E et (x1 , . . . , xn+1 ) une famille de n + 1 vecteurs de Vect(e1 , . . . , en ).
Xn
n
Pour tout j ∈ {1, . . . , n + 1}, il existe (αi,j )1≤i≤n ∈ K tel que xj = αi,j ei .
i=1
Premier cas : si, pour tout j ∈ {1, . . . , n + 1}, αn,j = 0, alors (x1 , . . . , xn ) est une
famille de n vecteurs de Vect(e1 , . . . , en−1 ), donc d’après R(n − 1) elle est liée. Alors
(x1 , . . . , xn+1 ) est aussi liée.
Second cas : supposons maintenant qu’il existe j0 ∈ {1, . . . , n + 1} tel que αn,j0 6= 0 :
nous allons l’utiliser comme un pivot. Quitte à réordonner les vecteurs x1 , . . . , xn+1 , on
peut supposer que j0 = n + 1. Ainsi, αn,n+1 6= 0.
αn,j
Pour tout j ∈ {1, . . . , n}, posons yj = xj − xn+1 : yj ∈ Vect(e1 , . . . , en−1 ), donc
αn,n+1
d’après R(n − 1), la famille (y1 , . . . , yn ) est liée. Ainsi, il existe (β1 , . . . , βn ) ∈ Kn \ {0}
Xn Xn
tel que 0 = βj yj = βj xj +λxn+1 , où λ ∈ K. La famille de scalaires (β1 , . . . , βn , λ)
j=1 j=1
est non nulle, donc (x1 , . . . , xn+1 ) est liée.
Corollaire. Si (e1 , . . . , en ) est une famille génératrice de E, alors toute famille libre
de E est de cardinal inférieur ou égal à n.
Théorème de la base incomplète : Soient E un K-espace vectoriel de dimension
finie et (ei )i∈I une famille génératrice de E (on ne suppose pas qu’elle contient un
nombre fini d’éléments). Soit J ⊂ I tel que (ei )i∈J est une famille libre.
Alors il existe un ensemble L avec J ⊂ L ⊂ I tel que (ei )i∈L est une base de E.
Cela signifie que toute famille libre f de E peut être complétée en une base de E à
l’aide de vecteurs d’une famille génératrice de E ( Inutile : qui contient f ).
Démonstration.
On note D l’ensemble des cardinaux des familles libres (ei )i∈K , où J ⊂ K ⊂ I.
D est une partie non vide de N. De plus, E est de dimension finie, donc il possède une
famille génératrice finie. Notons n son cardinal. Alors d’après le corollaire précédent,
D est majorée par n. D possède donc un plus grand élément, noté m et il existe une
famille libre b = (ei )i∈L avec J ⊂ L ⊂ I tel que |L| = m.
Supposons que, pour tout i0 ∈ I \ L, ei0 ∈ Vect(b). Alors pour tout i ∈ I, ei ∈ Vect(b),
donc E = Vect(ei )i∈I ⊂ Vect(b), donc b est génératrice et libre, ce qui prouve que c’est
une base de E. Il suffit donc de montrer que pour tout i0 ∈ I \ L, ei0 ∈ Vect(b).
Raisonnons par l’absurde en supposant qu’il existe i0 ∈ I \ L tel que ei0 ∈ / Vect(b).
0 0
Posons L = L ∪ {i0 }. Montrons que b = (ei )i∈L∪{i0 } est libre, ce qui contredira la
X
définition de m. Soit (αi )i∈L∪{i0 } une famille de scalaires telle que αi ei = 0.
i∈L∪{i0 }

c Éric Merle 19 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

1 X
Si αi0 6= 0, on peut écrire ei0 = − αi ei , ce qui est exclu car ei0 ∈
/ Vect(b).
αi0 i∈L
X
Ainsi, αi0 = 0, donc αi ei = 0, or b est libre, donc pour tout i ∈ L, αi = 0.
i∈L

Remarque. En adaptant la démonstration, on a également prouvé les propriétés


suivantes, en dimension quelconque :
Propriété. Soit (ei )i∈I une famille libre de vecteurs de E. Soit ej ∈ E, où j ∈
/ I.
La famille (ei )i∈I∪{j} est libre si et seulement si ej ∈
/ Vect(ei )i∈I .
Propriété.
Soient E un K-espace vectoriel et g = (ei )i∈I une famille génératrice de E.
On dit qu’une sous-famille libre (ei )i∈J de g est maximale dans g si et seulement si
pour tout i0 ∈ I \ J, la famille (ei )i∈J∪{i0 } est liée.
Si (ei )i∈J est libre maximale dans g, alors c’est une base de E.
Corollaire. Une famille libre de vecteurs de E est maximale si et seulement si en lui
ajoutant un vecteur elle devient liée.
Toute famille libre maximale de vecteurs de E est une base de E.
Corollaire. Soit E un K-espace vectoriel de dimension finie.
Toute famille libre de E peut être complétée en une base de E.
Démonstration.
On applique le théorème de la base incomplète en prenant comme famille génératrice
de E la famille (x)x∈E de tous les vecteurs de E.
Définition. Soit E un K-espace vectoriel de dimension finie.
E admet au moins une base. Toutes les bases de E sont finies et ont même cardinal.
Ce cardinal est appelé la dimension de E et est noté dim(E) ou dimK (E).
Démonstration.
La famille vide est libre et d’après le corollaire précédent, on peut la compléter en une
base.
Soit b et b0 deux bases de E, de cardinaux n et n0 .
b est génératrice de E et b0 est libre, donc n0 = |b0 | ≤ |b| = n.
De même on montre que n ≤ n0 .
Propriété. Soit E un K-espace vectoriel de dimension finie égale à n et soit e une
famille de E. Les propriétés suivantes sont équivalentes.
1. e est une base de E.
2. e est libre et de cardinal n.
3. e est génératrice et de cardinal n.

c Éric Merle 20 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Démonstration.
1 =⇒ 2 et 1 =⇒ 3 sont claires.
2 =⇒ 1 : supposons que e est libre et de cardinal n. On peut la compléter en une base
b de E, mais b est alors de cardinal n, donc e = b et e est bien une base de E.
3 =⇒ 1 : supposons que e est génératrice et de cardinal n. On peut en extraire une
base b de E, mais b est alors de cardinal n, donc e = b et e est bien une base de E.
Propriété. Soit E un K-espace vectoriel de dimension finie égale à n.
Toute famille libre de E a au plus n éléments et
toute famille génératrice de E a au moins n éléments.
Remarque. Tout espace de dimension finie possède donc au moins une base. C’est
aussi le cas pour les espaces vectoriels de dimension infinie, si l’on accepte l’axiome
du choix. Cependant, on peut construire des modèles de ZF dans lesquels R n’admet
aucune base en tant que Q-espace vectoriel.
Exemples. Soit E un K-espace vectoriel de dimension finie ou infinie.
 {0} est un sous-espace vectoriel de E de dimension 0 car ∅ est une base de {0}.
 Si u ∈ E \ {0}, alors (u) est une base de Vect(u) = {λu/λ ∈ K}, donc la droite
vectorielle Vect(u) est de dimension 1.
 Si (u, v) est une famille libre de vecteurs de E, Vect(u, v) = {αu + βv/α, β ∈ K}
admet comme base (u, v), donc il est de dimension 2. On dit que Vect(u, v) est le plan
vectoriel engendré par (u, v).
Exemple.
 Soit I un intervalle d’intérieur non vide de R et b : I −→ C une application
continue. Alors l’ensemble des solutions de l’équation différentielle (E) : y 0 = b(t)y
est la droite vectorielle engendrée par l’application t 7−→ eB(t) , où B est une primitive
de b. C’est un sous-espace vectoriel du C-espace vectoriel C 1 (I, C).
 Soit a, b ∈ R tels que a2 − 4b > 0. Alors l’ensemble des solutions de l’équation
différentielle (E) : y 00 + ay 0 + by = 0 est le plan vectoriel engendré par
(t 7−→ er1 t , t 7−→ er2 t ), où r1 et r2 sont les racines du polynôme caractéristique
X 2 + aX + b. C’est un sous-espace vectoriel du R-espace vectoriel C ∞ (R, R).
Théorème. Soit E un K-espace vectoriel de dimension quelconque.
Soit F et G deux sous-espaces vectoriels de E avec G de dimension finie et F ⊂ G.
Alors F est de dimension finie avec dim(F ) ≤ dim(G).
De plus [F = G ⇐⇒ dim(F ) = dim(G)].
Démonstration.
Toute famille libre de F est une famille libre de G, donc elle est de cardinal inférieure à
dim(G). Ainsi, l’ensemble D des cardinaux des familles libres de F est une partie non
vide et majorée de N, donc elle possède un maximum noté m. Il existe une famille libre
de vecteurs de F de cardinal m. Par construction c’est une famille libre maximale de
F , donc c’est une base de F . Ainsi F est de dimension finie et dim(F ) = m ≤ n.

c Éric Merle 21 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Supposons que dim(F ) = dim(G). Alors la famille maximale précédente est une famille
libre de G de cardinal égal à la dimension de G, donc c’est aussi une base de G. Alors
cette famille engendre à la fois F et G, donc F = G.
Remarque. Ainsi, en dimension finie, pour montrer que deux sous-espaces vectoriels
sont égaux, il suffit de montrer une inclusion et l’égalité des dimensions.
Propriété. C est un R-espace vectoriel de dimension 2, dont (1, i) est une base.
Démonstration.
Pour tout z ∈ C, il existe x, y ∈ R tel que z = x + iy, donc la famille de complexes
(1, i) est une famille génératrice de C, vu comme un R-espace vectoriel .
De plus, si x + iy = 0 avec x, y ∈ R, on sait alors que x = y = 0, donc (1, i) est une
famille libre.
Ainsi (1, i) est une base du R-espace vectoriel C. Ceci prouve que C est un R-espace
vectoriel de dimension finie et que dimR (C) = 2.
Dans la base (1, i), les coordonnées d’un complexe sont ses parties réelle et imaginaire.

Exemple. Prenons E = R2 et posons c1 = (1, 0) et c2 = (0, 1). Montrons que


c = (c1 , c2 ) est une base de E.
Pour tout (a, b) ∈ E, (a, b) = a(1, 0) + b(0, 1), donc c est une famille génératrice de E.
De plus, si ac1 + bc2 = 0, avec a, b ∈ R, alors 0 = ac1 + bc2 = (a, b), donc a = b = 0.
Ainsi c est une base de R2 , que l’on appelle la base canonique de R2 .
En particulier, on a montré que R2 est de dimension finie et que dim(R2 ) = 2.
La forte ressemblance avec la démonstration précédente provient du fait que l’applica-
R2 −→ C
tion est un isomorphisme de R-espace vectoriel.
(a, b) 7−→ a + ib
On peut généraliser sans difficulté à Kn :

2.3 Base canonique


Propriété. Soit n ∈ N∗ . Kn est un K-espace vectoriel de dimension n dont une base
est c = (c1 , . . . , cn ), où pour tout i ∈ {1, . . . , n}, ci = (δi,j )1≤j≤n .
c est appelé la base canonique de Kn .
Pour tout x = (x1 , . . . , xn ) ∈ Kn , les coordonnées de x dans la base c sont exactement
ses composantes x1 , . . . , xn .
On peut encore généraliser :
Propriété. Soit I un ensemble quelconque.
Pour tout i ∈ I, on note ci = (δi,j )j∈I . Ainsi c = (ci )i∈I est une famille de K(I) .
C’est une base de K(I) , appelée la base canonique
X de K .
(I)

De plus, pour tout x = (αi )i∈I ∈ K(I) , x = αi ci . Ainsi, les coordonnées de x dans
i∈I
la base canonique sont exactement ses composantes.

c Éric Merle 22 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Démonstration. X
Soit (αi ) ∈ K(I) . Pour tout i ∈ I, αi = δi,j αj ,
j∈I
X X
donc (αi )i∈I =( δi,j αj )i∈I = αj (δi,j )i∈I .
j∈I j∈I
X
Ainsi (αi )i∈I = αj cj .
j∈I
Ceci prouveXque c est une famille génératrice de K(I) .
De plus, si αj cj = 0, (αi )i∈I = 0, donc, pour tout i ∈ I, αi = 0, ce qui prouve que
j∈I
c est aussi une famille libre.
n
Corollaire. La base canonique de K[X] X est la famille (X )n∈N .
Ainsi, pour P ∈ K[X], l’écriture P = ak X k est la décomposition de P dans la base
k∈N
canonique de K[X].
Démonstration.
K[X] = K(N) et pour tout n ∈ N, X n = (δi,n )i∈N .
Corollaire. Soit n ∈ N. (1, X, . . . , X n ) est une base de Kn [X], encore appelée la base
canonique de Kn [X]. On en déduit que dim(Kn [X]) = n + 1.
Corollaire. Soit n, p ∈ N∗ . La base canonique de Mn,p (K) est la famille de matrices
(Ei,j ) 1≤i≤n définie par : Pour tout i ∈ {1, . . . , n} et j ∈ {1, . . . , p}, Ei,j = (δa,i δb,j ) 1≤a≤n .
1≤j≤m 1≤b≤p
Ei,j est appelée la (i, j)-ième matrice élémentaire de Mn,p (K). Tous ses coefficients sont
nuls, sauf celui de position (i, j) qui estX égal à 1.
Ainsi, pour tout M ∈ Mn,p (K), M = Mi,j Ei,j .
1≤i≤n
1≤j≤p

On en déduit que dim(Mn,p (K)) = np.


Exercice. Lorsque n = p, calculer Ei,j Eh,k .
Exercice. Soit M ∈ Mn (K). Montrer qu’il existe P ∈ K[X] \ {0} tel que
P (M ) = 0. Un tel polynôme est dit annulateur de M . Que peut-on dire de
l’ensemble des polynômes annulateurs de M ?

2.4 Exemples
   
2 u1 v1
Propriété. Dans K , deux vecteurs u = et v = forment une base de K2
u2 v2

si et seulement si u1 v2 − u2 v1 = detc (u, v) 6= 0.
Démonstration.
dim(K2 ) = 2, donc

c Éric Merle 23 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

(u, v) libre ⇐⇒ (u, v) est une base de K2


⇐⇒ ∀w ∈ K2 , ∃!(α,  β)
2
 ∈ K , αu + βv =w
α α
⇐⇒ ∀w ∈ K2 , ∃! ∈ K2 , (u|v) = w,
β β
où (u|v) désigne la matrice dont les colonnes sont u et v. Ainsi,
(u, v) libre ⇐⇒ (u|v) ] ∈ GL(K2 )
⇐⇒ (u|v) ∈ GL2 (K)
⇐⇒ det(u|v) 6= 0
⇐⇒ u1 v2 − u2 v1 6= 0.
Propriété. Soient n ∈ N et (a0 , a1 , . . . , an ) ∈ Kn+1 une famille de n + 1 scalaires deux
Y X − aj
à deux distincts. Pour tout i ∈ {0, . . . , n}, notons Li = le i-ème polynôme
0≤j≤n
ai − aj
j6=i

d’interpolation de Lagrange associé à la famille (a0 , a1 , . . . , an ).


Alors L = (Li )0≤i≤n est une base de Kn [X], appelée la base de Lagrange associé à la
famille (a0 , a1 , . . . , an ).
De plus, pour tout P ∈ Kn [X], la décomposition de P dans cette base s’écrit
Xn
P = P̃ (ai )Li : les P̃ (ai ) sont les coordonnées de P dans la base L.
i=0
Démonstration. n
X
Soit P ∈ Kn [X]. P − P̃ (ai )Li admet au moins pour racines a0 , . . . , an , ce qui fait
i=0
au moins n + 1 racines, or c’est un polynôme de degré inférieur ou égal à n, donc il est
identiquement nul. Ceci prouve que L est une famille génératrice de Kn [X]. De plus,
|L| = dim(Kn [X]), donc c’est une base de Kn [X].
Exercice. Soit (Pn )n∈N une suite de polynômes de K[X]. On suppose que cette
suite de polynômes est étagée c’est-à-dire que, ∀n ∈ N deg(Pn ) = n.
Montrer que pour tout N ∈ N, (Pn )0≤n≤N est une base de KN [X].
En déduire que (Pn )n∈N est une base de K[X].
Solution :
N
X
 Soit N ∈ N. Soit (αn )0≤n≤N une famille de scalaires telle que αn Pn = 0.
n=0
Supposons que cette famille est non nulle. Alors {n ∈ {0, . . . , N }/αn 6= 0} est un
ensemble non vide inclus dans N et majoré par N , donc il admet un maximum
que l’on note p.
p−1
1 X
Ainsi, Pp = − αn Pn , donc p = deg(Pp ) ≤ max deg(αn Pn ) ≤ p − 1. C’est
αp n=0 0≤n<p

faux, donc la famille (αn )0≤n≤N est nulle. Ainsi la famille (Pn )0≤n≤N est une
famille libre de KN [X] de cardinal N + 1. Or la famille (X n )0≤n≤N est la base
canonique de KN [X], donc KN [X] est un espace vectoriel de dimension N + 1.
Ainsi (Pn )0≤n≤N est une base de KN [X].

c Éric Merle 24 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs
X
• Soit (αn )n∈N ∈ K(N) telle que αn Pn = 0. Cette famille de scalaires étant
n∈N
presque nulle, il existe N ∈ N tel que pour tout n > N , αn = 0.
XN
Ainsi αn Pn = 0, or la famille (Pn )0≤n≤N est libre, donc pour tout n ≤ N ,
n=0
αn = 0. Ainsi la famille (Pn )n∈N est libre.
• Remarque. Plus généralement, le même argument permet de démontrer qu’une
famille (xi )i∈I de vecteurs d’un espace vectoriel est libre si et seulement si toute
sous-famille finie de (xi )i∈I est libre.
• Il reste à montrer que (Pn )n∈N est une famille génératrice de K[X].
Soit P ∈ K[X]. Notons N son degré. P ∈ KN [X], donc il existe (αn )0≤n≤N ∈ KN +1
XN
telle que P = αn Pn . On complète cette famille finie en la suite (αn )n∈N en
n=0 X
posant αn = 0 pour tout n > N . Ainsi P = αn Pn . Donc la famille (Pn )n∈N
n∈N
engendre K[X].
Exercice. Soit f un endomorphisme de E. Montrer que f est une homothétie
si et seulement si pour tout u ∈ E, (u, f (u)) est lié.
Propriété. Toute sur-famille d’une famille génératrice est génératrice.
Toute sous-famille d’une famille libre est libre.
Propriété. Une famille de vecteurs est libre si et seulement si toute sous-famille finie
de cette famille est libre.
fn : R −→ R
Exercice. Pour n ∈ N∗ , on pose 1 . La famille (fn )n∈N∗
x 7−→ 2 2
x +n
est-elle libre ?

X
Solution : Soit (αn )n∈N∗ ∈ R(N ) telle que αn fn = 0.
n∈N
On dispose ainsi de deux décompositions en éléments simples de la fraction nulle
dans R(X). D’après l’unicité d’une telle décomposition, les αn sont tous nuls.
La famille (fn )n∈N∗ est donc libre.
fn : R −→ R
Exercice. Pour n ∈ N, on pose . La famille (fn )n∈N
x 7−→ sin(xn )
est-elle libre ?
X
Solution : Supposons que αn fn = 0.
n∈N X
Ainsi, pour tout x ∈ R, (1) : αn fn (x) = 0.
n∈N
[Pour montrer qu’une famille de fonctions est libre, il existe d’autres méthodes que celle consis-
tant à substituer x par des valeurs bien choisies pour se ramener à un système linéaire dont
les inconnues sont les αn . On peut en effet faire de l’analyse, c’est-à-dire dériver ou intégrer la

c Éric Merle 25 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

relation (1). On peut également faire un développement limité de (1) au voisinage d’un point
bien choisi.]
Pour tout n ∈ N∗ , xn −→ 0, donc fn (x) = xn + o(xn ).
x→0
X
Ainsi, 0 = α0 sin(1) + (αn xn + o(xn )).
n≥1
On suppose qu’il existe un αn 6= 0 avec n ≥ 1.
Appelons k le plus petit n ≥ 1 tel que αn 6= 0.
Alors 0 = α0 sin(1) + αk xk + o(xk ). D’après l’unicité du développement limité (de
l’application identiquement nulle), αk = 0, ce qui est faux.
Ainsi les αn sont nuls pour n ≥ 1. On en déduit que α0 sin(1) = 0, donc que α0
est aussi nul. La famille (fn )n∈N est donc libre.
Théorème. Si E1 , . . . , En sont n sous-espaces vectoriels de dimensions finies, alors
E1 × · · · × En est de dimension finie et

dim(E1 × · · · × En ) = dim(E1 ) + · · · + dim(En ).

Démonstration.
Le cas général se déduit du cas où n = 2 par récurrence car
E1 × · · · × En = (E1 × · · · × En−1 ) × En (Logique et vocabulaire ensembliste page 7).
Soit donc E et F deux espaces vectoriels de dimensions p et q. Notons e = (e1 , . . . , ep )
une base de E et f = (f1 , . . . , fq ) une base de F .
p q
X X
Pour tout (x, y) ∈ E × F , avec x = xi ei et y = y j fj ,
i=1 j=1
p
X  q 
X
(x, y) = (x, 0) + (0, y) = xi ei , 0 + (0, yj fj , donc
i=1 j=1
p q
X X
(x, y) = xi (ei , 0) + yj (0, fj ) : ceci démontre que la concaténation des familles
i=1 j=1
((e1 , 0), . . . , (ep , 0)) et ((0, f1 ), . . . , (0, fq )) est une famille génératrice de E × F .
Notons g cette famille.
p q
X X
Pour montrer qu’elle est libre, supposons que xi (ei , 0) + yj (0, fj ) = 0, où
i=1 j=1
(xi )1≤i≤p et (yj )1≤j≤q sont deux familles de scalaires. D’après le calcul précédent,
p q
X X
(x, y) = 0, où x = xi ei et y = yj fj , or e et f sont libres, donc pour tout i
i=1 j=1
et j, xi = yj = 0. Ainsi g est une base de E × F .
Alors dim(E × F ) = |g| = p + q = dim(E) + dim(F ).

c Éric Merle 26 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

2.5 Application linéaire associée à une famille de vecteurs


Ψx : K(I) −→ X
E
I
Propriété. Soit x = (xi ) ∈ E . Notons (αi )i∈I 7−→ α i xi .
i∈I
Ψx est une application linéaire.
• x est une famille libre si et seulement si Ψx est injective.
• x est une famille génératrice si et seulement si Ψx est surjective.
• x est une base si et seulement si Ψx est un isomorphisme.
Ψx est appelée l’application linéaire associée à la famille de vecteurs x.
Démonstration.
• Soit ((αi ), (βi )) ∈ (K(I) )2 . X
Ψ((αi ) + (βi )) = Ψ((αi + βi )) = (αi + βi )xi = Ψ((αi )) + Ψ((βi )).
i∈I X
Soit ((αi ), λ) ∈ K(I) × K. Ψ(λ(αi )) = Ψ((λαi )) = (λαi )xi = λΨ((αi )).
i∈I
Ainsi Ψx est une application linéaire.
• x est libre si et seulement si la seule famille (αi ) presque nulle de scalaires vérifiant
Ψx ((αi )) = 0 est la famille nulle, donc si et seulement si le noyau de Ψx est réduit à
{0}.
• x est génératrice si et seulement si pour tout élément v de E, il existe (αi ) ∈ K(I)
telle que v = Ψx ((αi )), donc si et seulement si Ψx est surjective.
Remarque. Lorsque e = (ei )i∈I est une base de E, pour tout x ∈ E,
Ψ−1
e (x) est la famille des coordonnées de x dans la base e .

Propriété. Soit x = (xi )i∈I une famille de vecteurs de E.


y ∈ Vect(x), il existe une unique famille presque
x est libre si et seulement si, pour tout X
nulle de scalaires (αi )i∈I telle que y = α i xi .
i∈I
Démonstration.
x est libre si et seulement si Ψx est injective, donc si et seulement si, pour tout
(I)
y ∈ Im(Ψx ), il existe
X un unique (αi )i∈I ∈ K tel que y = Ψx ((αi )).
Or Im(Ψx ) = { αi xi /(αi )i∈I ∈ K(I) } = Vect(x).
i∈I

Propriété. Si e = (ei )i∈I est une base de E, alors E est isomorphe à K(I) .
Démonstration.
Ψe est en effet un isomorphisme de K(I) dans E.

2.6 Image d’une famille par une application linéaire


Définition. Soient E et F deux K-espaces vectoriels, u ∈ L(E, F )
et x = (xi )i∈I ∈ E I . La famille (u(xi ))i∈I est appelée l’image de la famille x par
l’application linéaire u.

c Éric Merle 27 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

On notera (u(xi ))i∈I = u(x). On remarquera que x ∈ E I et que u(x) ∈ F I .


Propriété. Avec les notations précédentes, Ψu(x) = u ◦ Ψx .
Démonstration.
Soit (αi ) ∈ K(I) . !
X X
Ψu(x) ((αi )) = αi u(xi ) = u αi xi = (u ◦ Ψx )((αi )).
i∈I i∈I

Théorème.
• L’image d’une famille libre par une injection linéaire est une famille libre.
• L’image d’une famille génératrice par une surjection linéaire est génératrice.
• L’image d’une base par un isomorphisme est une base.
Démonstration.
Soient E et F deux K-espaces vectoriels , u ∈ L(E, F ) et x = (xi )i∈I ∈ E I .
• Supposons que x est libre et que u est injective. Alors u et Ψx sont injectives, donc
Ψu(x) est injective en tant que composée de deux applications injectives. Ainsi u(x) est
une famille libre.
• Supposons que x est génératrice et que u est surjective. Alors u et Ψx sont surjectives,
donc Ψu(x) est surjective en tant que composée de deux applications surjectives. Ainsi
u(x) est une famille génératrice.
Théorème. Deux espaces de dimensions finies ont la même dimension si et seulement
si ils sont isomorphes.
Démonstration.
Soit E et F deux K-espaces vectoriels de dimensions finies respectives n et m.
Suppose qu’il existe un isomorphisme f de E dans F . Soit e = (e1 , . . . , en ) une base de
E. Alors (f (e1 ), . . . , f (en )) est une base de F , donc dim(F ) = n = dim(E).
Réciproquement, supposons que n = m. On sait que l’application Ψe canoniquement
associée à e est un isomorphisme de Kn dans E. De même on montre que F et Kn sont
isomorphes, donc E et F sont isomorphes.
Remarque. On dispose ainsi de deux techniques importantes pour calculer la dimen-
sion d’un espace vectoriel E : rechercher une base de E et calculer son cardinal ou bien
chercher un isomorphisme entre E et un espace de dimension connue.
Exercice. Montrer que le cardinal d’un corps fini est de la forme pn où p ∈ P
et n ∈ N∗
Solution : Soit L un corps fini. Alors car(L) 6= 0, donc en posant p = car(L),
p ∈ P. Notons K le sous-corps premier de L. On sait que K est isomorphe à Fp ,
donc il est de cardinal p.
L est un K-espace vectoriel , et (x)x∈L est une famille génératrice finie de L, donc
L est de dimension finie. Posons n = dimK (L). Alors L est un K-espace vectoriel
isomorphe à Kn , donc |L| = pn .
Propriété. Soit E et F deux espaces de dimensions finies et soit f ∈ L(E, F ).

c Éric Merle 28 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Si f est injective, alors dim(E) ≤ dim(F ).


Si f est surjective, alors dim(E) ≥ dim(F ).
Propriété. Soient E et F deux K-espaces vectoriels de dimensions quelconques. Soient
u ∈ L(E, F ) et G un sous-espace vectoriel de E de dimension finie. Alors
u(G) est de dimension finie et dim(u(G)) ≤ dim(G), avec égalité lorsque u est injective.
Démonstration.
u(G)
u|G est surjective. Elle est bijective lorsque u est injective.
Propriété. L’image d’une famille génératrice par une application linéaire u est une
famille génératrice de Im(u).
Démonstration.
Soient E et F deux K-espaces vectoriels , u ∈ L(E, F ) et x = (xi )i∈I ∈ E I une famille
génératrice de E.
E −→ Im(u)
L’application est surjective, donc u(x), en tant qu’image de x par
y 7−→ u(y)
cette application, est une famille génératrice de Im(u).
Propriété. L’image d’une famille liée par une application linéaire est liée.
Démonstration.
Soient E et F deux K-espaces vectoriels , u ∈ L(E, FX ) et x = (xi )i∈I ∈ E I une famille
liée de E. Ainsi il existe (αi )i∈I ∈ K(I) \ {0} tel que αi xi = 0.
X X i∈I
0 = u( α i xi ) = αi u(xi ), donc u(x) est aussi une famille liée.
i∈I i∈I

Théorème.
On suppose que E est un K-espace vectoriel admettant une base e = (ei )i∈I .
Soit f = (fi )i∈I une famille quelconque de vecteurs d’un second K-espace vectoriel F .
Il existe une unique application linéaire u ∈ L(E, F ) telle que,
 ∀i ∈ I u(ei ) = fi .
 libre  injective
De plus, (fi )i∈I est génératrice si et seulement si u est surjective .
une base bijective
 
Démonstration.
Soit u ∈ L(E, F ). X X
(∀i ∈ I u(ei ) = fi ) ⇐⇒ ∀(αi ) ∈ K(I) αi u(ei ) = αi fi
i∈I i∈I
⇐⇒ Ψu(e) = Ψf ⇐⇒ u ◦ Ψe = Ψf
⇐⇒ u = Ψf ◦ Ψ−1 e
car e étant une base Ψe est un isomorphisme.
Ainsi il existe une unique application linéaire u ∈ L(E, F ) telle que ∀i ∈ I u(ei ) = fi .
Il s’agit de u = Ψf ◦ Ψ−1 e .
f est libre si et seulement si Ψf est injective, donc si et seulement si u = Ψf ◦ Ψ−1 e est
injective.
f est génératrice si et seulement si Ψf est surjective, donc si et seulement si u = Ψf ◦Ψ−1
e
est surjective.

c Éric Merle 29 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Remarque. Ce théorème affirme notamment qu’une application linéaire u ∈ L(E, F )


est injective (resp : surjective, bijective) si et seulement si l’image par u d’une base de
E est une famille libre (resp : une famille génératrice, une base) de F .
Corollaire.
Soit E et F deux espaces vectoriels de dimensions finies et soit u ∈ L(E, F ).
Si dim(E) = dim(F ), alors u injective ⇐⇒ u surjective ⇐⇒ u bijective.
Démonstration.
Notons n = dim(E) = dim(F ). Soit e une base de E. Alors u est injective si et
seulement si u(e) est libre dans F , or |u(e)| = n = dim(F ), donc u est injective si et
seulement si u(e) est une base de F , c’est-à-dire si et seulement si u est bijective. On
raisonne de même pour la surjectivité.
Exercice. Soit u ∈ L(K[X]) tel que pour tout P ∈ K[X], deg(u(P )) = deg(P ).
Montrer que u est un automorphisme sur K[X].
Solution : Soit P ∈ Ker(u) : deg(P ) = deg(u(P )) = −∞, donc u(P ) = 0. Ainsi,
Ker(u) = {0} et u est injective.
Soit n ∈ N. Pour tout P ∈ Kn [X], deg(u(P )) = deg(P ) ≤ n, donc Kn [X] est
stable par u et l’endomorphisme un induit par u sur Kn [X] est bien défini. un est
linéaire injective de Kn [X] dans Kn [X] qui est de dimension finie, donc c’est un
automorphisme de Kn [X].
Soit P ∈ K[X]. Il existe n ∈ N tel que P ∈ Kn [X], donc il existe Q ∈ Kn [X] tel
que un (Q) = P . Alors u(Q) = P , ce qui prouve que u est surjective.
Par exemple, P 7−→ P + P 0 + 2P 00 est un automorphisme de K[X].
Propriété. Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alors
u inversible dans L(E) ⇐⇒ u inversible à droite dans L(E)
.
⇐⇒ u inversible à gauche dans L(E)
Démonstration.
Si u est inversible à droite, il existe v ∈ L(E) tel que vu = IdE . Alors u est injectif, mais
E est de dimension finie, donc u est un isomorphisme, c’est-à-dire que u est inversible
dans L(E).
On raisonne de même à gauche.
Corollaire. Soit A ∈ Mn (K). Alors
A inversible dans Mn (K) ⇐⇒ A inversible à droite dans Mn (K)
.
⇐⇒ A inversible à gauche dans Mn (K)
Démonstration.
A est inversible à droite dans Mn (K) si et seulement si il existe B ∈ Mn (K) telle
que BA = In , i.e telle que B̃ à = IdKn , donc si et seulement si à est inversible à droite
dans L(Kn ).
De même, A est inversible à gauche dans Mn (K) si et seulement si à est inversible
à gauche dans L(Kn ).
De plus, on sait que A est inversible dans Mn (K) si et seulement si à est inversible
dans L(Kn ).

c Éric Merle 30 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Exercice. Soit A une K-algèbre et B une sous-algèbre de A de dimension finie.


Soit b ∈ B. Montrer que si b est inversible dans A, alors b−1 ∈ B.
u : B −→ B
Solution : Notons . u est linéaire. De plus, pour x ∈ B,
x 7−→ bx
x ∈ Ker(u) ⇐⇒ bx = 0 ⇐⇒ b−1 bx = 0 ⇐⇒ x = 0, donc u est injective. Or B
est de dimension finie, donc u est un isomorphisme. En particulier, 1A possède
un antécédent par u : il existe c ∈ B tel que bc = 1A . Alors b−1 = c ∈ B.
Propriété. Soit A ∈ Mn (K) une matrice triangulaire supérieure, dont la diagonale
est notée (a1 , . . . , an ). Alors A est inversible si et seulement si pour tout i ∈ {1, . . . , n},
i 6= 0, et dans
a  ce cas, A−1 est encore triangulaire supérieure et sa diagonale est
1 1
,..., .
a1 an
Démonstration.
 Notons T l’ensemble des matrices triangulaires supérieures. On a déjà vu que T est
une sous-algèbre de Mn (K) et nous sommes en dimension finie, donc d’après l’exercice
précédent, si A ∈ T est inversible, alors A−1 ∈ T . Les éléments diagonaux de
In = AA−1 sont égaux au produit des éléments diagonaux de A et de A−1 , donc les
éléments diagonaux de A sont non nuls et les éléments diagonaux de A−1 sont les
inverses des éléments diagonaux de A.
 Réciproquement, supposons que pour tout i ∈ Nn , Ai,i 6= 0.
Soit X ∈ Kn tel que AX = 0. Pour tout i ∈ Nn ,
X n Xn
(Ei ) : 0 = [AX]i = Ai,j Xj = Ai,j Xj , car A est triangulaire supérieure.
j=1 j=i
Pour i = n, (En ) se réduit à An,n Xn = 0, or An,n 6= 0, donc Xn = 0. Alors (En−1 ) se
réduit à An−1,n−1 Xn−1 = 0, or An−1,n−1 6= 0, donc Xn−1 . Par récurrence descendante,
on en déduit que X = 0.
Ainsi Ker(Ã) = {0}, donc à est une application linéaire injective de Kn dans lui-même,
or Kn est de dimension finie, donc à est un isomorphisme, ce qui prouve que A est
inversible.
Propriété. Soit E un K-espace vectoriel admettant une base (ei )i∈I .
Alors L(E, F ) est isomorphe à F I .
Démonstration.
L(E, F ) −→ F I
L’application est une application linéaire et le théorème
u 7−→ (u(ei ))i∈I
précédent montre que toute famille (fi )i∈I de F I admet un unique antécédent pour cette
application, donc qu’elle est bijective. Ainsi cette application est un isomorphisme.
Théorème. Soit E et F deux espaces vectoriels de dimensions finies. Alors
dim(L(E, F )) = dim(E) × dim(F ).

Démonstration.
Posons n = dim(E) et notons e = (ei )1≤i≤n une base de E. D’après le précédent
corollaire, dim(L(E, F )) = dim(F {1,...,n} ) = dim(F n ) = n × dim(F ).

c Éric Merle 31 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

2.7 Rang d’une famille de vecteurs


Définition. Soient E un espace vectoriel et x une famille de vecteurs de E.

Le rang de x est rg(x) = dim(Vect(x)) ∈ N ∪ {+∞}.
Propriété. Pour une famille x de vecteurs d’un K-espace vectoriel E,
— rg(x) ≤ #(x). Lorsque rg(x) est fini, il y a égalité si et seulement si x est libre.
— rg(x) ≤ dim(E). Lorsque rg(x) est fini, il y a égalité si et seulement si x est
génératrice.
Démonstration.
 x est une famille génératrice de Vect(x), donc son cardinal est plus grand que la
dimension de Vect(x), égale au rang de x.
De plus, il y a égalité si et seulement si x est une base de Vect(x), donc si et seulement
si x est une famille libre.
 Vect(x) est un sous-espace vectoriel de E, donc sa dimension est inférieure à la
dimension de E. De plus, il y a égalité si et seulement si Vect(x) = E, c’est-à-dire si
et seulement si x est une famille génératrice de E.
Propriété.
Soient E et F deux espaces vectoriels, x une famille de vecteurs de E et u ∈ L(E, F ).
Alors rg(u(x)) ≤ rg(x). . Lorsque rg(x) est fini, il y a égalité lorsque u est injective.
Démonstration.
Notons G = Vect(x) et x = (xi )i∈I  . rg(u(x)) = dim(Vect(u(x))). Or
Vect(u(x)) = Vect(u(xi ))i∈I = u Vect(xi )i∈I = u(G), donc rg(u(x)) = dim(u(G)).
La propriété résulte alors du fait que dim(u(G)) ≤ dim(G), avec égalité lorsque u est
injective.
Propriété. Soit (xi )i∈I une famille de vecteurs d’un K-espace vectoriel E. Alors
rg((xi )i∈I ) n’est pas modifié si l’on échange l’ordre de deux vecteurs, si l’on multiplie
l’un des vecteurs xi par un scalaire non nul, ou bien si l’on ajoute à l’un des xi une
combinaison linéaire des autres xj .

2.8 Matrice d’une application linéaire


Remarque. On a vu que pour construire une application linéaire u de E dans F , si
(ei )i∈I est une base de E, il suffit de donner la famille (u(ei ))i∈I des images des ei par
u.
Par exemple, on peut définir un endomorphisme u sur R3 [X] par les conditions :
u(X 3 ) = X, u(X 2 ) = X 2 + 1, u(X) = X 3 − X, et u(1) = 1.
u est nécessairement l’unique endomorphisme tel que : pour tout
P = a3 X 3 + a2 X 2 + a1 X + a0 , u(P ) = a3 X + a2 (X 2 + 1) + a1 (X 3 − X) + a0 .
Définition. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0
et n > 0. Soient e = (e1 , . . . , ep ) une base de E et f = (f1 , . . . , fn ) une base de F .

c Éric Merle 32 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Si u ∈ L(E, F ), on appelle matrice de l’application linéaire u dans les bases e et f


la matrice notée mat(u, e, f ) = (αi,j ) ∈ MK (n, p) définie par : pour tout i ∈ {1, . . . , n}
et j ∈ {1, . . . , p}, αi,j est la ième coordonnée du vecteur u(ej ) dans la base f .
Xn
C’est donc l’unique matrice (αi,j ) ∈ MK (n, p) vérifiant : ∀j ∈ Np u(ej ) = αi,j fi .
i=1
C’est l’unique matrice dont la j-ème colonne contient les coordonnées de u(ej ) dans la
base f , pour tout j : la j-ème colonne est égale à Ψ−1f (u(ej )).
On peut également dire que la matrice de u dans les bases e et f est définie par
[mat(u, e, f )]i,j = fi∗ (ej )), pour tout i ∈ Nn et j ∈ Np .
Interprétation tabulaire : Avec les notations précédentes,

u(e ) ··· u(ep )


 1
m1,1 m1,p f1

···
mat(u, e, f ) =  .. ..  .. .
. . .
mn,1 ··· mn,p fn

Notation. Lorsque E = F et que l’on choisit e = f , on note mat(u, e) au lieu de


mat(u, e, e).
Exemple. L’endomorphisme u de R 3 [X]
défini ci-dessus
 a pour matrice dans la base
10 1 0
 −1 0 1 
0
canonique : mat(u, (1, X, X 2 , X 3 )) = 
0
.
0 1 0
01 0 0
 
x
 y
Exemple. La forme linéaire u : K4 −→ K définie par u   z  = x + y − 2z + 3t a

t
4
pour matrice dans les bases canoniques de K et K la matrice ligne (1 1 − 2 3).
Plus généralement la matrice d’une forme linéaire est toujours une matrice ligne.
u: R2 −→  R3 
  2x + y
Exemple. Considérons x
7−→  y  .
y
3x − y
u est une application linéaire et, si l’on note B = (b1 , b2 ) et C = (c1 , c2 , c3 ) les bases
2 3
canoniques de R et de R respectivement,  
2 1   2
1
mat(u, B, C) =  0 1 . En effet, u(b1 ) = u = 0
0
3  −1  3
  1
0
et u(b2 ) = u =  1 .
1
−1

c Éric Merle 33 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs
 
2 1  
x
En fait, si l’on pose M =  0 1 , on voit que pour tout ∈ R2 ,
y
    3 −1
x x
u =M , donc u n’est autre que l’application linéaire canoniquement associée
y y
à M .
Remarque. Plus généralement, si M ∈ MK (n, p), on a défini M̃ ∈ L(Kp , Kn ) par :
∀X ∈ Kp , M̃ (X) = M X.
On a vu que, si l’on note c = (c1 , . . . , cp ) la base canonique de Kp , alors pour tout
j ∈ Np , M̃ (cj ) = M cj est la j-ème colonne de M , donc :
Propriété. Pour tout n, p ∈ N∗ , pour tout M ∈ MK (n, p), mat(M̃ , c, c0 ) = M , en
notant c et c0 les bases canoniques de Kp et de Kn .
Remarque. Nous disposons maintenant de deux manières équivalentes de définir
l’application linéaire canoniquement associée à une matrice M ∈ MK (n, p) : c’est
M̃ : Kp −→ Kn
l’application , ou bien c’est l’unique application
X 7−→ M̃ (X) = M X
M̃ ∈ L(Kp , Kn ) telle que mat(M̃ , c, c0 ) = M .
Exemple. Reprenons l’exemple précédent,   et déterminons
  la matrice de u pour un
1 1
autre couple de bases : Posons e1 = et e2 = .
1 −1
2
−2 6=
det(e1 , e2 ) =   0, doncE  = (e1 , e2 ) est
 une base de R .
1 1 0
Posons f1 =  0 , f2 =  1  et f3 =  0 .
1 0 1
On vérifie que F = (f1 , f2 , f3 ) est une base de R3 .
En effet, si a1 f1 + a2 f2 + a3 f3 = 0, où a1 , a2 , a3 ∈ R, alors 0 = a1 + a2 = a2 = a1 + a3 ,
donc 0 = a2 = a1 = a3 . Ainsi F est libre, de cardinal 3, or dim(R3 ) = 3, donc c’est
bien une base de R3 .    
    3 1
1 1
Soit (α, β) ∈ R2 . u(αe1 + βe2 ) = αu + βu = α  1  + β  −1 ,
1 −1
 2 4
 3α + β = x + y
donc u(αe1 + βe2 ) = xf1 + yf2 + zf3 , où α−β = y , donc y = α − β,
2α + 4β = x + z 

2 2
x = 2α + 2β et z = 2β. On en déduit que mat(u, E, F ) = 1 −1 . 
0 2
Nous verrons plus loin une formule de changement de bases qui permet d’aller plus
vite.
Propriété. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0
et n > 0. Soient e = (e1 , . . . , ep ) une base de E et f = (f1 , . . . , fn ) une base de F .

c Éric Merle 34 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

L(E, F ) −→ MK (n, p)
L’application est un isomorphisme d’espaces vectoriels.
u 7−→ mat(u, e, f )
Démonstration.
 Soit u, v ∈ L(E, F ) et λ ∈ K.
Posons U = mat(u, e, f ), V = mat(v, e, f ) et M = mat(λu + v, e, f ).
Soit i ∈ Nn et j ∈ Np . Mi,j est la i-ème coordonnée de (λu + v)(ej ) dans la base f .
C’est donc fi∗ (λu(ej ) + v(ej )), or fi∗ est linéaire, donc Mi,j = λfi∗ (u(ej )) + fi∗ (v(ej )) =
λUi,j + Vi,j , donc M = λU + V ,
c’est-à-dire mat(λu + v, e, f ) = λmat(u, e, f ) + mat(v, e, f ). Ceci prouve la linéarité.
 Soit M = (αi,j ) ∈ MK (n, p) et u ∈ L(E, F ). On a vu que M = mat(u, e, f ) si et
Xn
seulement si pour tout j ∈ Np , u(ej ) = gj , où gj = αi,j fi , or on a déjà énoncé
i=1
qu’il existe une unique u ∈ L(E, F ) telle que, pour tout j ∈ Np , u(ej ) = gj (i.e : une
application linéaire est uniquement déterminée par la donnée des images des vecteurs
d’une base de l’espace de départ). Ainsi, M possède un unique antécédent : l’application
est bijective.
Remarque. En particulier, lorsque E = Kp et F = Kn , où n, p ∈ N∗ , en notant cn et
cp les bases canoniques de Kn et de Kp , on vient de montrer que
Ψ : L(Kp , Kn ) −→ MK (n, p)
est un isomorphisme. On le savait déjà car c’est
u 7−→ mat(u, cp , cn )
MK (n, p) −→ L(Kp , Kn )
l’isomorphisme réciproque de .
M 7−→ M̃
Théorème. Soient E, F et G trois K-espaces vectoriels de dimensions respectives q, p
et n, munis de bases e, f et g. Soient u ∈ L(E, F ) et v ∈ L(F, G).
Alors, mat(v ◦ u, e, g) = mat(v, f, g) × mat(u, e, f ).
Démonstration.
Posons U = mat(u, e, f ) ∈ MK (p, q), V = mat(v, f, g) ∈ MK (n, p)
et M = mat(v ◦ u, e, g) ∈ MK (n, q). Soit k ∈ Nq et i ∈ Nn .
p
h X i X p
∗ ∗
Mi,k = gi (vu(ek )) = gi v Uj,k fj = Uj,k gi∗ [v(fj )],
j=1 j=1
p
X
donc Mi,k = Uj,k Vi,j = [V U ]i,k , ce qui prouve que M = V U .
j=1

Exemple. On peut ainsi remplacer un calcul matriciel par un calcul sur des applica-
tions linéaires. Par exemple, on peut retrouver que, dans MK (n), Ei,j Eh,k = δj,h Ei,k :
Notons e = (e1 , . . . , en ) la base canonique de Kn .
Pour (i, j) ∈ N2n , notons ui,j l’endomorphisme de Kn canoniquement associé à Ei,j .
Pour tout k ∈ Nn , ui,j (ek ) = δk,j ei .
Soit l ∈ Nn . ui,j ◦ uh,k (el ) = ui,j (δk,l eh ) = δk,l δj,h ei , donc ui,j ◦ uh,k (el ) = δj,h ui,k (el ).
Ainsi, ui,j ◦ uh,k = δj,h ui,k , puis en prenant les matrices de ces endomorphismes,
Ei,j Eh,k = δj,h Ei,k .

c Éric Merle 35 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs

Propriété. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0


et n > 0, munis des bases e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ), et soit u ∈ L(E, F ).
On note M la matrice de u dans les bases e et f .
Soit (x, y) ∈ E × F . On note X la matrice colonne des coordonnées de x dans la base e,
p
X
et Y celle des coordonnées de y dans la base f . C’est-à-dire qu’en posant x = xj ej ,
j=1
y1
   
x1 n
..  X .. 
X=  . , et qu’en posant y = y i fi , Y =  . .
xp i=1 yn
−1
C’est aussi dire que X = Ψ−1
e (x) et Y = Ψ f (y).
On écrira également que X = mat(x, e) et Y = mat(y, f ). Alors,

u(x) = y ⇐⇒ M X = Y.

Démonstration.
On pourrait bien sûr passer aux coordonnées et mener un calcul analogue à celui de
la démonstration de la propriété précédente. Essayons plutôt d’utiliser cette dernière
propriété.
x̂ : K −→ E
Si x ∈ E, notons : x̂ ∈ L(K, E).
λ 7−→ λx
E −→ L(K, E)
L’application est un isomorphisme, dont la bijection réciproque est
x 7−→ x̂
L(K, E) −→ E
. De même, à tout y ∈ F , on associe ŷ = (λ 7−→ λy) ∈ L(K, F ).
a 7−→ a(1)
d = u ◦ x̂, car pour tout λ ∈ K, u(x)(λ)
On vérifie que u(x) d = λu(x) = u(λx) = u(x̂(λ)).
Alors y 7−→ ŷ étant injective,
u(x) = y ⇐⇒ u(x) d = ŷ
⇐⇒ mat(u ◦ x̂, 1, f ) = mat(ŷ, 1, f )
⇐⇒ M × mat(x̂, 1, e) = mat(ŷ, 1, f ).
Or mat(x̂, 1, e) est une matrice colonne dont les composantes sont les coordonnées de
x̂(1) = x dans la base e, donc mat(x̂, 1, e) = X, et de même, mat(ŷ, 1, e) = Y .
Propriété.
On reprend les notations de la propriété précédente et on suppose de plus que n = p.
Alors u est un isomorphisme si et seulement si M est une matrice inversible et dans ce
cas, mat(u, e, f )−1 = mat(u−1 , f, e).
Démonstration.
u est bijective si et seulement si pour tout y ∈ F , il existe un unique x ∈ E tel que
u(x) = y, donc si et seulement si pour tout Y ∈ Kn , il existe un unique X ∈ Kn tel
que M X = Y , c’est-à-dire si et seulement si M est inversible.
Dans ce cas, posons N = mat(u−1 , f, e).
Alors M N = mat(uu−1 , f, f ) = mat(IdF , f, f ) = In , donc N = M −1 .

c Éric Merle 36 MPSI2, LLG


Algébre linéaire 2 Familles de vecteurs
 
j
Exercice. Pour tout i, j ∈ {0, . . . , n}, on pose mi,j
= , en convenant que
  i
j
= 0 lorsque i > j. Montrer que M = (mi,j ) 0≤i≤n est inversible et calculer
i 0≤j≤n

son inverse.
Solution : Notons u : Kn [X] −→ Kn [X] définie par u(P ) = P (X + 1).
Notons c la base canonique de Kn [X]. Pour tout j ∈ {0, . . . , n},
j  
X j
j
(X + 1) = X i , donc M = mat(u, c).
i
i=0
Or u est inversible et u−1 : P 7−→ P (X − 1), donc M est une matrice inversible
et M −1 = mat(u−1 , c). Pour tout j ∈ {0, . . . , n},
j    
j j
X 
j i j−i −1
(X − 1) = X (−1) , donc M = (−1)j−i 1≤i≤n .
i i 1≤j≤n
i=0

Propriété. Soit E un K-espace vectoriel de dimension finie égale à n, muni d’une


L(E) −→ Mn (K)
base e. L’application est un isomorphisme d’algèbres.
u 7−→ mat(u, e)
L(E) −→ Mn (K)
Remarque. Si e0 est une seconde base de E, L’application
u 7−→ mat(u, e, e0 )
n’est pas un morphisme d’algèbres.
C’est pourquoi, le plus souvent, lorsque l’on considère la matrice d’un endomorphisme,
on choisit la base d’arrivée égale à la base de départ.
Propriété. Si E est un K-espace vectoriel de dimension finie égale à n, muni d’une
GL(E) −→ GLn (K)
base e, l’application est un isomorphisme de groupes.
u 7−→ mat(u, e)

c Éric Merle 37 MPSI2, LLG


Algébre linéaire 3 Les systèmes linéaires

3 Les systèmes linéaires


3.1 Trois interprétations d’un système linéaire
Définition. Une équation linéaire à p inconnues scalaires est une équation de la forme
(E) : α1 x1 + α2 x2 + · · · + αp xp = b, où α1 , . . . , ap , b ∈ K sont des paramètres, et où
x1 , . . . , xp ∈ K sont les inconnues.
Exemples.
— (E) : 2x − 5y + z = 5 est une équation linéaire.
— (E) : 2x = 1 + 2z est aussi linéaire.
— (E) : x2 + y + z − t = 2 n’est pas linéaire.
Notation. Fixons (n, p) ∈ N∗ 2 et considérons un système linéaire à n équations et p
inconnues, c’est-à-dire un système d’équations de la forme suivante :

 α1,1. x1
 + ··· + α1,p xp = b1
..
 ..

.


(S) : αi,1 x1 + ··· + αi,p xp = bi ,

 .. ..


 . .
+ · · · + αn,p xp

αn,1 x1 = bn

où, pour tout (i, j) ∈ {1, . . . , n} × {1, . . . , p}, αi,j ∈ K, pour tout i ∈ {1, . . . , n}, bi ∈ K,
les p inconnues
  étant x1 , . . . , xp , éléments de K.
b1
.
Le vecteur  ..  est appelé le second membre du système, ou bien le membre constant.
bn
Lorsqu’il est nul, on dit que le système est homogène.
Première interprétation.
  Combinaison
 linéaire
 de vecteurs.

α1,1 α1,2 α1,p b1
 
 ..   ..   ..  .. 
 .   .   .  
 . 
Notons C1 =  αi,1 , C2 =  αi,2 , . . ., Cp =  αi,p , et B =  bi . Il s’agit de
      
 . 
 .. 
 . 
 .. 
 . 
 ..  .
.
.
 
αn,1 αn,2 αn,p bn
p + 1 vecteurs de Kn . Alors

(S) ⇐⇒ x1 C1 + x2 C2 + · · · + xp Cp = B.

Définition. On dit que (S) est compatible si et seulement s’il admet au moins une
solution.
Propriété. (S) est compatible si et seulement si B ∈ Vect(C1 , . . . , Cp ).

c Éric Merle 38 MPSI2, LLG


Algébre linéaire 3 Les systèmes linéaires

Démonstration.
S est compatible si et seulement s’il existe (x1 , . . . , xp ) ∈ Kp tel que
B = x1 C1 + x2 C2 + · · · xp Cp , c’est-à-dire si et seulement si B ∈ Vect(C1 , . . . , Cp ).
Deuxième interprétation. Matricielle.  
x1
.
Notons M la matrice de Mn,p (K) dont les colonnes sont C1 , . . ., Cp , et X =  .. .
xp
Alors
(S) ⇐⇒ M X = B.

Définition. On dit que (S) est un système de Cramer si et seulement si n = p et


si M est inversible. Dans ce cas, (S) admet une unique solution.
Démonstration.
Si M est inversible, (S) ⇐⇒ X = M −1 B.
Troisième interprétation. A l’aide d’une application linéaire.
Soient E et F des K-espaces vectoriels de dimensions p et n munis de bases
e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ). On note u l’unique application linéaire de L(E, F )
telle que mat(u, e, f ) = M , x le vecteur de E dont les coordonnées dans e sont X et b
le vecteur de F dont les coordonnées dans f sont B. Alors

(S) ⇐⇒ u(x) = b.

Définition. On dit que (S) est un système homogène si et seulement si b = 0.


Définition. Le système homogène associé à (S) est (SH ) : u(x) = 0.
Propriété. L’ensemble des solutions de (SH ) est Ker(u).
C’est un sous-espace vectoriel de dimension p − r, où r désigne le rang de u (ou de M ).

3.2 Les opérations élémentaires


Définition. On appelle manipulations ou opérations élémentaires sur les lignes d’une
matrice, les applications de MK (n, p) dans MK (n, p) suivantes :
1) Ajouter à une ligne le multiple d’une autre, opération notée :

Li ←− Li + λLj , où i 6= j et λ ∈ K. C’est une transvection.

2) Multiplier une ligne par un scalaire non nul, notée :

Li ←− αLi , où α ∈ K∗ . C’est une affinité.

3) Permuter deux lignes, notée :

Li ←→ Lj , où i 6= j. C’est une transposition.

c Éric Merle 39 MPSI2, LLG


Algébre linéaire 3 Les systèmes linéaires

Remarque. On définirait de même les opérations sur les colonnes.


Définition. Si σ ∈ Sn , on note Pσ = (δi,σ(j) ) ∈ Mn (K).
Ainsi, pour tout j ∈ {1, . . . , n}, la j ème colonne de Pσ est constituée de 0, sauf pour le
σ(j)ème coefficient qui vaut 1.
Propriété. Pour tout (σ, σ 0 ) ∈ Sn2 , Pσσ0 = Pσ Pσ0 .
Démonstration.
Notons e = (e1 , . . . , en ) la base canonique de Kn . Si s ∈ Sn , notons us l’endomorphisme
canoniquement associé à la matrice Ps : Pour tout j ∈ {1, . . . , n}, us (ej ) = es(j) .
Soit j ∈ {1, . . . , n} : (uσ ◦ uσ0 )(ej ) = uσ (eσ0 (j) ) = eσ(σ0 (j)) = uσ◦σ0 (ej ),
donc uσ ◦ uσ0 = uσσ0 . En prenant les matrices de ces endomorphismes dans la base e,
on en déduit que Pσσ0 = Pσ Pσ0 .
Propriété.
En notant (Ei,j )(i,j)∈{1,...,n}2 la base canonique de Mn (K), si λ ∈ K∗ et (i, j) ∈ {1, . . . , n}2
avec i 6= j, alors

Li ←− Li + λLj : MK (n, p) −→ MK (n, p)


M 7−→ (In + λEi,j )M

Li ←− λLi : MK (n, p) −→ MK (n, p)


M 7−→ (In + (λ − 1)Ei,i )M

Li ←→ Lj : MK (n, p) −→ MK (n, p)
M 7−→ P(i,j) M
De même, en notant (Ei,j )(i,j)∈{1,...,p}2 la base canonique de Mp (K), si λ ∈ K∗ et
(i, j) ∈ {1, . . . , p}2 avec i 6= j, alors

Ci ←− Ci + λCj : MK (n, p) −→ MK (n, p)


M 7−→ M (Ip + λEj,i )

Ci ←− λCi : MK (n, p) −→ MK (n, p)


.
M 7−→ M (Ip + (λ − 1)Ei,i )

Ci ←→ Cj : MK (n, p) −→ MK (n, p)
M 7−→ M P(i,j)

Propriété. Si l’on effectue une série d’opérations élémentaires sur les lignes d’une
matrice M , alors on a multiplié M à gauche par une certaine matrice inversible.
Si l’on effectue une série d’opérations élémentaires sur les colonnes d’une matrice M ,
alors on a multiplié M à droite par une certaine matrice inversible.
Notation. Soit (S) : M X = B un système linéaire de matrice M ∈ Mn,p (K) et de
vecteur constant B ∈ Kn .

c Éric Merle 40 MPSI2, LLG


Algébre linéaire 3 Les systèmes linéaires

On appellera matrice globale de (S) la matrice à n lignes et p + 1 colonnes dont les p


premières colonnes sont celles de M et dont la dernière colonne est égale à B.
Propriété. Soient (S) : M X = B et (S 0 ) : M 0 X = B 0 . On suppose que l’on peut
passer de la matrice globale de (S) à celle de (S 0 ) à l’aide d’une série d’opérations
élémentaires portant uniquement sur les lignes.
Alors ces deux systèmes sont équivalents.
Démonstration.
Une opération du type 1) revient à ajouter à l’équation i du système λ fois l’équation
j. Le système après cette manipulation est équivalent au système avant cette manipu-
lation.
Une opération du type 2) revient à multiplier une équation par un scalaire non nul, et
une opération du type 3) revient à permuter l’ordre de deux équations du système.
A chaque étape on ne change pas l’espace des solutions du système.
En pratique : Pour résoudre un système linéaire, on tente de modifier la matrice
globale du système par des manipulations élémentaires, afin de se ramener à une matrice
qui, privée de sa dernière colonne, est diagonale ou bien triangulaire supérieure. Dans
ce cas en effet, le système est simple à résoudre.
Remarque. Dans le système (S) : M X = B, permuter les colonnes de M revient
à modifier l’ordre des inconnues. On peut donc autoriser ce type d’opération pour la
résolution d’un système linéaire, mais il faudra les mémoriser pour connaı̂tre la position
de chaque inconnue.
Propriété. Soit M ∈ Mn (K). On suppose que l’on peut transformer, par des opérations
élémentaires portant uniquement sur les lignes, la matrice blocs M In ∈ MK (n, 2n)
en une matrice de la forme In N ∈ MK (n, 2n).
Alors M est inversible et M −1 = N .
Démonstration.
Il existe une matrice P ∈ GLn (K) telle que In N = P × M In ,
or P × M In = P M P × In , donc In = P M et N = P , ce qui montre bien que M
est inversible et que son inverse est N .
Exemple. Inversion de la matrice de taille 4
 
0 1 1 1
1 0 1 1
M = 1 1 0 1
 :
1 1 1 0
 
0 1 1 1 | 1 0 0 0
1 0 1 1 | 0 1 0 0 
 1 1 0 1 | 0 0 1 0 . Ajoutons à la première ligne
Partons de la matrice  

1 1 1 0 | 0 0 0 1
la somme des suivantes. On obtient comme nouvelle matrice :

c Éric Merle 41 MPSI2, LLG


Algébre linéaire 3 Les systèmes linéaires
 
3 3 3 3 | 1
1 1 1
1
 0 1 1 | 0
1 0 0  . On divise ensuite la première ligne par 3, ce qui
1 1 0 1 | 0
0 1 0 
1 1 1 0 | 0
0 0 1
| 31 13 31 13

1 1 1 1
1 0 1 | 0 1 0 0 
1
donne  , puis on enlève la première ligne aux sui-
1 1 0 | 0 0 1 0 
1
1 1 1 | 0 0 0 1
0
1 | 13 1 1 1
 
1 1 1 3 3 3
 0 −1 0 0 | − 13 2
3
− 13 − 31 
vantes. On obtient   . On multiplie en-
0 0 −1 0 | − 13 − 31 2
3
− 1
3

1 1 1 2
0 0 0 −1 | − 3 − 3 − 3 3
suite les lignes autres que la première par −1, ce qui fournit :
1 1 1 1 | 31 1 1 1
 
3 3 3
 0 1 0 0 | 1 −2 1 1 
 3 3 3 3 . Enfin, on enlève à la première ligne la somme
0 0 1 0 | 1 1 2 1
3 3
− 3 3

1 1 1 2
0 0 0 1 | 3 3 3
−3
1 0 0 0 | − 32 1 1 1

3 3 3
 0 1 0 0 | 1 −2 1 1 
des suivantes. On obtient :  3 3 3 3 . Ainsi M est in-
0 0 1 0 | 1 1 2 1
3 3
−3 3

1 1 1 2
0 0 0 1 | 3 3 3 − 3
2 1 1 1
−3 3 3 3
1
−1

3
− 32 1
3
1
3

versible est son inverse vaut M =  1  1 2 1
.
3 3
− 3 3

1 1 1 2
3 3 3
−3
Remarque. Pour cette matrice, généralisée à une matrice de taille n, une autre
méthode plus rapide consiste à remarquer que (M + In )2 = n(M + In ), donc
M 2 + (2 − n)M + (1 − n)In = 0, puis M (M + (2 − n)In ) = (n − 1)In , ce qui montre
1
que M est inversible et que M −1 = (M + (2 − n)In ).
n−1
Cette méthode se généralise à toute matrice pour laquelle on peut trouver simplement
un polynôme annulateur.
Pour cette matrice, c’est facile car elle est combinaison linéaire de In et de la matrice
U dont tous les coefficients sont égaux
 à 1. C’est plus généralement le cas de toute
a b ··· b

 b . . . . . . ... 
matrice de la forme  ... . . . . . . b .

b ··· b a

3.3 Méthode du pivot de Gauss


Notation. On souhaite résoudre le système (S) : M X = B de n équations à p
inconnues. La matrice globale du système sera notée (ai,j ) ∈ MK (n, p + 1).

c Éric Merle 42 MPSI2, LLG


Algébre linéaire 3 Les systèmes linéaires

Pour simplifier les notations, si on transforme (ai,j ) par des opérations élémentaires, le
résultat sera encore noté (ai,j ) : C’est la matrice globale d’un système équivalent à (S).
But : On veut transformer la matrice globale en une matrice (ai,j ) de dimensions
(n, p + 1) telle que

∀(i, j) ∈ {1, . . . , n} × {1, . . . , p} i > j =⇒ ai,j = 0.

Le système correspondant est alors triangulaire et facile à résoudre.


Pour cela on procède en min(p, n) étapes, en imposant qu’à l’étape r, la matrice globale
commence comme une matrice triangulaire supérieure sur ses r premières colonnes,
c’est-à-dire que

(Er ) : ∀(i, j) ∈ {1, . . . , n} × Nr i > j =⇒ ai,j = 0.

Pour r = 0 : (E0 ) est toujours vérifiée.


Pour 0 < r ≤ min(n, p) : On suppose que l’étape r − 1 est réalisée et on effectue
l’étape r de la manière suivante :
Premier cas : ∀i ∈ {r, . . . , n} ai,r = 0.
Dans ce cas, il n’y a rien à faire car (Er ) est déjà vérifiée.
Second cas : ∃i0 ∈ {r, . . . , n} ai0 ,r 6= 0 : On dit que ai0 ,r est le pivot de l’étape r.
On permute d’abord les lignes Li0 et Lr . Ainsi ar,r 6= 0. Ensuite on effectue la série
d’opérations élémentaires suivante :
ai,r
for i from r + 1 to n do Li ←− Li − Lr od;
ar,r

La nouvelle matrice vérifie (Er ).


Remarque. Replaçons-nous dans la situation du début du second cas :
Il existe différentes stratégies pour choisir le pivot parmi les ai,r 6= 0 où i ∈ {r, . . . , n} :
Stratégie du pivot partiel : On choisit comme pivot un coefficient ai,r dont le module
est maximum. Cela présente l’avantage de minimiser les erreurs d’arrondis commises
lorsque l’on divise par le pivot. C’est la stratégie la plus couramment utilisée lorsque
cet algorithme est programmé en langage informatique.
Stratégie humaine : Dans les cas où on applique l’algorithme du pivot à la main,
on souhaite éviter autant que possible l’apparition de fractions compliquées lors de la
division par le pivot. La stratégie humaine consiste donc à choisir comme pivot 1 ou
−1 quand c’est possible, sinon 2 ou −2, etc. . .
Remarque. Comme on n’effectue que des opérations élémentaires sur les lignes, les
lignes de la matrice finale du système engendrent le même espace vectoriel que les lignes
de la matrice initiale. La méthode du pivot permet donc de déterminer une base de
l’espace vectoriel engendré par les lignes (ou les colonnes en opérant sur les colonnes)
d’une matrice.

c Éric Merle 43 MPSI2, LLG


Algébre linéaire 3 Les systèmes linéaires

La méthode du pivot permet aussi de déterminer une base de l’image d’une application
linéaire : On considère sa matrice dans des bases données et on détermine une base de
ses vecteurs colonnes en appliquant la méthode du pivot au niveau des colonnes.
Remarque. Le système final présente une matrice triangulaire supérieure, la dernière
colonne exceptée. On dit que le système est échelonné.
Cependant, comme les pivots peuvent être nuls, il est assez difficile de programmer la
résolution de ce système échelonné.
Exercice. Soit λ ∈ R. Déterminez la compatibilité et les éventuelles solutions
du système suivant :


 λx +y +z +t =1
x +λy +z +t = λ

.

 x +y +λz +t = λ2
x +y +z +λt = λ3

 
λ 1 1 1 1
1 λ 1 1 λ 
Résolution : La matrice globale du système est   1 1 λ 1 λ2 .

1 1 1 λ λ3
Le pivot de la première étape est 1 (on adopte la stratégie ‘humaine’). On obtient
comme nouvelle matrice :
 
1 λ 1 1 λ
 0 1 − λ2 1 − λ 1 − λ 1 − λ2 
 .
0 1 − λ λ − 1 0 λ(λ − 1) 
0 1−λ 0 λ − 1 λ(λ2 − 1)
Premier cas : Si λ 6= 1, on simplifie  les équations par 1 − λ. On obtient ainsi
1 λ 1 1 λ
0 1 + λ 1 1 1+λ 
 . Pour la seconde étape, le pivot choisi est 1.
0 1 −1 0 −λ 
0 1 0 −1 −λ(1 + λ)
On
 aboutit à 
1 λ 1 1 λ
0 1 −1 0 −λ 
 0 0 2 + λ 1 (1 + λ)2 . Pour la troisième étape, le pivot choisi est 1.
 

0 0 1 −1 −λ2
On
 aboutit à 
1 λ 1 1 λ
 0 1 −1 0 −λ 
 2
.
0 0 1 −1 −λ 
2 2
0 0 0 3 + λ (1 + λ) + λ (λ + 2)
1.1 : Si λ 6= −3, le système est de Cramer et l’unique solution est donnée par :
λ3 + 3λ2 + 2λ + 1 λ3 + 3λ2 + 2λ + 1 2λ + 1
t= , z = −λ2 + = ,
λ+3 λ+3 λ+3
2λ + 1 −λ2 − λ + 1
y = −λ + = ,
λ+3 λ+3
c Éric Merle 44 MPSI2, LLG
Algébre linéaire 3 Les systèmes linéaires

−λ3 − 3λ2 − 2λ − 1 − 2λ − 1 + λ3 + λ2 − λ −λ2 − 2λ − 2


x=λ+ = .
λ+3 λ+3
1.2 : Si λ = −3, le système est incompatible.
Second cas : Si λ = 1, le sytème est compatible,
et (S) ⇐⇒ x = 1 − y − z − t.

3.4 Méthode du pivot total


Notation. On reprend les notations du paragraphe précédent.
But : On veut transformer la matrice globale en une matrice (ai,j ) de dimensions
(n, p + 1) telle qu’il existe s ∈ {0, min(n, p)} vérifiant

∀(i, j) ∈ N2s i > j =⇒ ai,j = 0,


(F ) : ∀r ∈ Ns ar,r 6= 0 , et
∀(i, j) ∈ {s + 1, . . . , n} × {1, . . . , p} ai,j = 0 .

 Pour cela on procède en au plus min(p, n) étapes, en imposant qu’à l’étape r,


la matrice globale commence comme une matrice triangulaire supérieure sur ses r
premières colonnes, les coefficients diagonaux étant non nuls, c’est-à-dire que

(Fr ) : (∀(i, j) ∈ {1, . . . , n} × Nr i > j =⇒ ai,j = 0) et (∀i ∈ Nr ai,i 6= 0).

 Pour r = 0 : (F0 ) est toujours vérifiée.


 Pour 0 < r ≤ min(n, p) : On suppose que l’étape r − 1 est réalisée et on effectue
l’étape r de la manière suivante :
Premier cas : ∀(i, j) ∈ {r, . . . , n} × {r, . . . , p} ai,j = 0.
Dans ce cas, avec s = r − 1, la matrice vérifie (F ) : on arrête l’algorithme.
Second cas : ∃(i0 , j0 ) ∈ {r, . . . , n} × {r, . . . , p} ai0 ,j0 6= 0 : on dit que ai0 ,j0 est le pivot
de l’étape r.
On permute les colonnes Cj0 et Cr , ce qui revient à modifier l’ordre des inconnues
(il faudra mémoriser ce nouvel ordre). La suite de l’algorithme est identique à celui
présenté au b).
 A la fin de l’algorithme, on obtient la matrice globale d’un système équivalent à
(S), vérifiant (F ).
 Le système est compatible
  si et seulement si ∀i ∈ {s + 1, . . . , n} ai,p+1 = 0.
b1
.
Si le vecteur B =  ..  du système est quelconque, ces conditions de compatibilité
bn
s’expriment en fonction de b1 , . . . , bn . Elles constituent un système d’équations de l’es-
pace vectoriel engendré par les colonnes de (S), car (S) est compatible si et seulement
si B appartient à cet espace vectoriel .

c Éric Merle 45 MPSI2, LLG


Algébre linéaire 3 Les systèmes linéaires

Si la matrice de (S) est celle d’une application linéaire u dans des bases e et f , ces
conditions de compatibilité constituent un système d’équations de Im(u) dans la base
f.
 En cas de compatibilité, le système triangulaire final peut être facilement résolu :
Définition. Résoudre un système (S) : M X = B à n équations et p inconnues, c’est
déterminer une partie I de {1, . . . , p} et une famille (bi,j )(i,j)∈({1,...,p}\I)×I telles que :
X
∀i ∈ {1, . . . , p} \ I, xi = ci + bi,j xj .
j∈I

On dit que (xj )j∈I est la famille des inconnues principales et que (xi )i∈{1,...,p}\I est la
famille des inconnues secondaires (Attention : Le choix de la partie I n’est en général
pas unique).
En résumé, résoudre un système, c’est exprimer les inconnues secondaires en fonction
des inconnues principales.
Après déroulement de l’algorithme du pivot total, la résolution du système triangulaire
final se fait en prenant naturellement comme inconnues principales xs+1 , . . . , xn .
Attention : Ces inconnues ne sont pas nécessairement les n − s dernières inconnues du
système d’origine, car d’éventuelles permutations de colonnes ont peut-être modifiées
l’ordre des inconnues.

3.5 Méthode de Gauss-Jordan


Notation. On reprend les notations du b), en supposant que (S) est un système de
Cramer, c’est-à-dire que M ∈ GLn (K).
But : On veut transformer la matrice globale en une matrice de dimension (n, n + 1)
dont les n premières colonnes correspondent à la matrice In , en utilisant uniquement
des opérations élémentaires sur les lignes.
Pour cela on procède en n étapes, en imposant qu’à l’étape r, la matrice globale com-
mence comme la matrice In sur ses r premières colonnes.
Pour 0 < r ≤ n : On suppose que l’étape r − 1 est réalisée et on effectue l’étape r de
la manière suivante :
La matrice obtenue après l’étape r − 1, que l’on notera encore M , est égale au produit
d’une matrice inversible avec la matrice initiale, donc elle est encore inversible. Alors,
il existe i0 ∈ {r, . . . , n} ai0 ,r 6= 0.
a1,r
 
 ... 
 
a 
 r−1,r 
En effet, si pour tout i ∈ {r, . . . , n}, ai,r = 0, alors on vérifie que M  −1 

 = 0, ce
 0 
 . 
 . 
.
0

c Éric Merle 46 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

qui contredit l’inversibilité de la matrice M .


ai0 ,r est le pivot de l’étape r.
On permute alors les lignes Li0 et Lr . Ainsi ar,r 6= 0. Ensuite on effectue la série
d’opérations élémentaires suivante :
ai,r
∀i ∈ {1, . . . , n} \ {r}, Li ←− Li − Lr .
ar,r

Enfin, on réalise l’opération


1
Lr ←− Lr .
ar,r
Les r premières colonnes de la nouvelle matrice sont bien celles de la matrice In .
A la fin de l’algorithme, le système est immédiatement résolu puisque

(S) ⇐⇒ ∀i ∈ {1, . . . , n} xi = ai,n+1 .

Remarque. Le dernier théorème du paragraphe 3.2 montre comment modifier cet


algorithme pour calculer l’inverse d’une matrice. Ce nouvel algorithme sera encore
appelé algorithme de Gauss-Jordan.
Remarque. Si, lors de la recherche du pivot de l’étape r, pour tout i ∈ {r, . . . , n},
ai,r = 0, c’est que la matrice initiale du système n’était pas inversible. L’algorithme de
Gauss-Jordan peut donc constituer un test efficace d’inversibilité d’une matrice.
Remarque. Ceci montre que toute matrice inversible est un produit de matrices de
permutation, d’affinités et de transvections.

4 Somme de sous-espaces vectoriels


Notation. E désigne un K-espace vectoriel.

4.1 Sommes et sommes directes


Définition. Soient k ∈ N∗ et (Ei )1≤i≤k
! une famille de k sous-espaces vectoriels de E.
[k
On note E1 + · · · + Ek = Vect Ei .
i=1

Propriété. Avec les notations précédentes,


k
nX o
E1 + · · · + Ek = xi / ∀i ∈ {1, . . . , k} xi ∈ Ei .
i=1

c Éric Merle 47 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Démonstration.
nXk o
Notons F = xi / ∀i ∈ {1, . . . , k} xi ∈ Ei .
i=1
k
X
• Pour tout i ∈ {1, . . . , k}, 0 ∈ Ei , donc 0 = 0 ∈ F . Ainsi, F 6= ∅.
i=1
Soit (α, β, x, y) ∈ K2 × F 2 . Il existe (xi )1≤i≤k ∈ E1 × · · · × Ek et
X k k
X
(yi )1≤i≤k ∈ E1 × · · · × Ek tels que x = xi et y = yi .
i=1 i=1
k
X
αx + βy = (αxi + βyi ) ∈ F , donc F est stable par combinaison linéaire.
i=1
Ainsi, F est un sous-espace vectoriel.
[k
• Soit x ∈ Ei . Il existe j ∈ {1, . . . , k} tel que x ∈ Ej .
i=1
Pour i = j, posons xi = x et pour tout i ∈ {1, . . . , k} \ {j}, posons xi = 0.
k
X
(xi )1≤i≤k ∈ E1 × · · · × Ek et x = xi , donc x ∈ F .
i=1
k
[
Ainsi F contient Ei .
i=1
k
[
• Soit G un sous-espace vectoriel qui contient Ei .
i=1
k
X
Si (x1 , . . . , xk ) ∈ E1 × · · · × Ek , xi ∈ G, donc F ⊂ G.
i=1
k
[
Ainsi F est bien le plus petit sous-espace vectoriel contenant Ei .
i=1
Exemples. Si F est un K-espace vectoriel , F + {0} = F = F + F .
k
X
Notation. On note également, E1 + · · · + Ek = Ei .
i=1
Définition. On dit que la somme précédente est directe si et seulement si
k
!
X
∀(x1 , . . . , xk ) ∈ E1 × · · · × Ek xi = 0 =⇒ (∀i ∈ {1, . . . , k} xi = 0) .
i=1
M
Dans ce cas, la somme est notée E1 ⊕ · · · ⊕ Ek ou encore Ei .
1≤i≤k

Remarque. k sous-espaces vectoriels non nuls de E notés E1 , . . . , Ek sont en somme


directe si et seulement si pour tout (x1 , . . . , xk ) ∈ E1 × · · · × Ek , avec pour tout i,
xi 6= 0, la famille (x1 , . . . , xk ) est libre.

c Éric Merle 48 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Les notions de famille libre et de somme directe sont donc très proches.
Propriété.
k
X
Reprenons les notations ci-dessus. Ei est une somme directe si et seulement si
i=1
k
X k
X
∀x ∈ Ei , ∃!(x1 , . . . , xk ) ∈ E1 × · · · × Ek x = xi .
i=1 i=1
Démonstration.
k
X k
X
Notons ϕ : E1 × · · · × Ek −→ Ei l’application définie par : ϕ(x1 , . . . , xk ) = xi .
i=1 i=1
k
X
On vérifie que ϕ est linéaire. Elle est surjective par définition de Ei .
i=1
n k
X o
De plus, Ker(ϕ) = (x1 , . . . , xk ) ∈ E1 × · · · × Ek / xi = 0 .
i=1
Ainsi, la somme est directe si et seulement si Ker(ϕ) = {0}, donc si et seulement si ϕ est
k
X
injective, c’est-à-dire bijective, ce qui est équivalent à l’existence, pour tout x ∈ Ei ,
i=1
k
X
d’un unique (x1 , . . . , xk ) ∈ E1 × · · · × Ek tel que x = xi .
i=1

Exemple. Soit n ∈ N . Notons c = (c1 , . . . , cn ) la base canonique de Kn . Pour tout
n
M
n
i ∈ {1, . . . , n}, notons Ei = Vect(ci ). Alors K = Ei .
i=1

4.2 Supplémentaires d’un sous-espace vectoriel


Propriété. Soient F et G deux sous-espaces vectoriels de E.
F et G forment une somme directe si et seulement si F ∩ G = {0}.
Démonstration.
• Supposons que F et G forment une somme directe.
Soit x ∈ F ∩ G. 0 = x + (−x) avec x ∈ F et −x ∈ G, donc x = 0. Ainsi F ∩ G ⊂ {0}.
• Réciproquement, supposons que F ∩ G = {0}.
Soit (x, y) ∈ F × G tel que x + y = 0. Alors x = −y ∈ F ∩ G, donc x = y = 0.
Propriété. Soit F un sous-espace vectoriel de E.
Si x ∈ E \ F , F et Kx sont en somme directe.

c Éric Merle 49 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Démonstration.
Soit y ∈ F ∩ Kx. Il existe λ ∈ K tel que y = λx.
1
Si λ 6= 0, x = y ∈ F , ce qui est faux, donc λ = 0, ce qui prouve que y = 0.
λ
Ainsi, F ∩ Kx = {0}, donc la somme de F et de Kx est directe.
Corollaire. Deux droites vectorielles distinctes sont en somme directe.
Démonstration.
Soient E un K-espace vectoriel et D et D0 deux droites vectorielles distinctes de E.
Il existe (x, x0 ) ∈ (E \ {0})2 tel que D = Vect(x) et D0 = Vect(x0 ).
Si x0 ∈ D, on montre que D0 = D, ce qui est faux, donc x0 ∈ D0 \ D. Ainsi D et
D0 = Kx0 sont en somme directe.
Définition. On dit que deux sous-espaces vectoriels F et G de E sont
supplémentaires (dans E) si et seulement si ils vérifient l’une des conditions
équivalentes suivantes :

i) E = F ⊕ G.
ii) E = F + G et F ∩ G = {0}.
iii) ∀x ∈ E ∃!(x1 , x2 ) ∈ F × G x = x1 + x2 .

Propriété. Soient E un K-espace vectoriel de dimension finie et F un sous-espace


vectoriel de E. F admet au moins un supplémentaire, et pour tout supplémentaire G
de F , dim(F ) + dim(G) = dim(E).
Démonstration.
F étant de dimension finie, F possède au moins une base, notée (e1 , . . . , ep ). D’après
le théorème de la base incomplète, on peut la compléter en une base e = (e1 , . . . , en )
de E. Posons G = Vect(ep+1 , . . . , en ).
X n
Soit x ∈ E, on peut écrire x = xi ei où xi ∈ K.
i=1
p n
X X
Alors x = xi ei + xi ei ∈ F + G, donc E = F + G.
i=1 i=p+1
p n
X X
Soit x ∈ F ∩ G. On peut écrire x = xi e i = xi ei , où les xi sont des scalaires.
i=1 i=p+1
p n
X X
Alors xi e i − xi ei = 0, or e est une base, donc pour tout i, xi = 0. Ainsi, x = 0,
i=1 i=p+1
puis F ∩ G = {0}. On a ainsi construit un supplémentaire de F .
Remarque. Tout sous-espace vectoriel de E possède au moins un supplémentaire, si
l’on accepte l’axiome du choix, ce qui formellement place ce résultat hors programme.
Exemple. Deux droites vectorielles D et D0 dans K2 sont supplémentaires si et
seulement si elles sont distinctes. Il est important de noter que D ∩ D0 = {0} 6= ∅

c Éric Merle 50 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

et que D ∪ D0 6= K2 , ainsi D0 n’a aucun rapport avec le complémentaire de D. En


/ D, donc x ∈ D0 ” est complètement faux.
particulier, le raisonnement “x ∈
Remarque. Plus généralement, les notions d’union d’ensembles et de somme de sous-
espaces vectoriels sont très voisines, mais il ne faut pas les confondre.
Si A et B sont deux parties d’un ensemble E, A∪B est le plus petit ensemble contenant
A et B. Si ce sont des sous-espaces vectoriels, A + B est le plus petit espace vectoriel
contenant A et B.
Ainsi, la somme de sous-espaces vectoriels est à l’algèbre linéaire ce qu’est l’union de
parties à la théorie des ensembles.
Cependant, et nous insistons, la somme de deux sous-espaces vectoriels n’est pas l’union
de ces deux sous-espaces vectoriels.
En particulier, la situation suivante est possible. E = F ⊕ G, x ∈ E, x ∈ / F et x ∈/ G.
Propriété. On suppose que la caractéristique de K est différente de 2.
Mn (K) = Sn (K) ⊕ An (K). Pour tout M ∈ Mn (K), la décomposition de M selon cette
1 1
somme directe est M = (M + t M ) + (M − t M ).
2 2
n(n + 1) n(n − 1)
De plus dim(Sn (K)) = et dim(An (K)) = .
2 2
Démonstration.
1 1
 Pour tout M ∈ Mn (K), M = (M + t M ) + (M − t M ) ∈ Sn (K) + An (K), donc
2 2
Mn (K) = Sn (K) + An (K). De plus, si M ∈ Sn (K) ∩ An (K), alors M = t M = −M ,
donc M = 0. Ainsi, Mn (K) = Sn (K) ⊕ An (K).
 Soit M ∈ An (K).XOn sait alors queXpour tout i, Mi,i = 0,
donc (1) : M = Mi,j Ei,j = Mi,j (Ei,j − Ej,i ), or pour tout i, j,
1≤i,j≤n 1≤i<j≤n
Ei,j − Ej,i ∈ A
Xn (K), donc (Ei,j − Ej,i )1≤i<j≤n est une famille génératrice de An (K).
De plus si Mi,j (Ei,j − Ej,i ) = 0, pour une famille de scalaires (Mi,j )1≤i<j≤n ,
1≤i<j≤n
en posant pour i > j, Mi,j = −Mj,i et pour i = j, Mi,i = 0, la relation (1) affirme
que (Mi,j ) = 0, donc (Ei,j − Ej,i )1≤i,j≤n est libre. C’est
 une base de An (K), dont la
n n(n − 1)
dimension vaut donc |{(i, j) ∈ N/1 ≤ i < j ≤ n}| = = .
2 2
Remarque. Lorsque car(K) = 2, Sn (K) = An (K).
Exercice. Soit n ∈ N et P un polynôme de K[X] de degré n + 1.
Montrer que l’idéal P K[X] est un supplémentaire de Kn [X] dans K[X].
Solution : D’après le principe de la division euclidienne, pour tout S ∈ K[X],
il existe un unique couple (Q, R) ∈ K[X]2 tel que S = P Q + R et deg(R) ≤ n,
c’est-à-dire qu’il existe un unique couple (T, R) ∈ K[X]2 tel que S = T + R,
T ∈ P K[X] et R ∈ Kn [X].
Ainsi, K[X] = Kn [X] ⊕ P K[X].

c Éric Merle 51 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

4.3 Rang d’une application linéaire


Théorème. Soit u ∈ L(E, F ).
Im(u)
Si H est un supplémentaire de Ker(u) dans E, alors u|H est un isomorphisme.
Ainsi Im(u) est isomorphe à tout supplémentaire de Ker(u).
Remarque. Soit u ∈ L(E, F ) et H un sous-espace vectoriel de E.
On a toujours Ker(u|H ) = {x ∈ H / u(x) = 0} = H ∩ Ker(u).
Démonstration.
Im(u)
Posons v = u|H . Ker(v) = H ∩ Ker(u) = {0}, donc v est injective.
Soit y ∈ Im(u). Il existe x ∈ E tel que y = u(x), or E = H ⊕ Ker(u), donc il existe
(h, k) ∈ H × Ker(u) tel que x = h + k. Ainsi y = u(h) + u(k) = u(h) = v(h), car
u(k) = 0 et h ∈ H. Ceci prouve que v est surjective.
Définition. Soient E et F deux espaces vectoriels et u ∈ L(E, F ). On note
rg(u) = dim(Im(u)) ∈ N ∪ {+∞} : il s’agit du rang de l’application linéaire u.
Propriété. Si e est une base de E, alors rg(u) = rg(u(e)).
Démonstration.
rg(u(e)) = dim(Vect(u(e))) = dim(u(Vect(e))) = dim(Im(u)) = rg(u).
Formule du rang. Soient E un K-espace vectoriel de dimension finie et F un second
K-espace vectoriel de dimension quelconque. Soit u ∈ L(E, F ). Alors Im(u) est de
dimension finie et
dim(Im(u)) + dim(Ker(u)) = dim(E).
Démonstration.
Avec les notations du théorème précédent, Im(u) est isomorphe à H qui est de dimen-
sion finie, donc Im(u) est de dimension finie
et rg(u) = dim(H) = dim(E) − dim(Ker(u)).
Propriété. Soient E et F deux espaces vectoriels et u ∈ L(E, F ).
Alors rg(u) ≤ min(dim(E), dim(F )). De plus,
lorsque E est de dimension finie, rg(u) = dim(E) si et seulement si u est injective
et lorsque F est de dimension finie, rg(u) = dim(F ) si et seulement si u est surjective.
Démonstration.
Lorsque E est de dimension finie, rg(u) = dim(E) − dim(Ker(u)), donc rg(u) = dim(E)
si et seulement si dim(Ker(u)) = 0, c’est-à-dire si et seulement si u est injective.
Théorème. Soient E, F et G 3 espaces vectoriels. Soient u ∈ L(E, F ) et v ∈ L(F, G)
tels que Im(u) et Im(v) sont de dimensions finies. Alors rg(v ◦ u) ≤ inf(rg(u), rg(v)) .
De plus, si u est bijective, alors rg(v ◦ u) = rg(v) et si v est bijective, rg(v ◦ u) = rg(u).
Ainsi, on ne modifie par le rang d’une application linéaire en la composant avec un
isomorphisme (à sa gauche ou à sa droite).

c Éric Merle 52 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Démonstration.
rg(vu) = dim(v(Im(u))) ≤ dim(Im(u)), avec égalité lorsque v est injective.
rg(vu) = dim(v(u(E))) ≤ dim(v(E)), avec égalité lorsque u est surjective.

Définition. Si M ∈ MK (n, p), le rang de M est rg(M ) = rg(M̃ ) = dim(Im(M )).
Le rang d’une matrice est aussi le rang de la famille de ses vecteurs colonnes.
Démonstration.
On a déjà vu que Im(M ) est l’espace vectoriel engendré par les colonnes de M .
 
1 1 2 2
Exemple. Le rang de  0 1 2 1  est 2, car les deux premières colonnes sont
1 1 2 2
libres et les suivantes sont des combinaisons linéaires des deux premières.
Propriété. Soient E et F deux K-espaces vectoriels de dimensions finies, munis de
bases e et f et soit u ∈ L(E, F ). Alors rg(mat(u, e, f )) = rg(u).
Démonstration.
Notons e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ).
Alors les colonnes de mat(u, e, f ) sont les Ψ−1 f (u(ej )), donc
−1
rg(mat(u, e, f )) = rg(Ψf (u(ej ))1≤j≤p ) = rg(u(e)) car Ψ−1 f est injective.
De plus, e étant une base de E, on a déjà vu que rg(u(e)) = rg(u).
Propriété. M ∈ Mn (K) est inversible si et seulement si rg(M ) = n.
Propriété. Soit (A, B) ∈ MK (n, p) × MK (p, q). Alors, rg(AB) ≤ min(rg(A), rg(B)).
On ne modifie pas le rang d’une matrice en la multipliant à gauche ou à droite par une
matrice inversible.

4.4 Propriétés des sommes directes


4.4.1 Un moyen de définir une application linéaire

Théorème.
M Soit (Ei )1≤i≤k une famille de k sous-espaces vectoriels de E telle que
E= Ei . Soit F un second K-espace vectoriel et, pour tout i ∈ {1, . . . , k}, soit ui
1≤i≤k
une application linéaire de Ei dans F .
Il existe une unique application linéaire u de E dans F telle que,
pour tout i ∈ {1, . . . , k}, la restriction de u à Ei est égale à ui .
Ainsi, pour définir une application linéaire u de E dans F , on peut se contenter de
préciser ses restrictions aux sous-espaces vectoriels Ei .
Démonstration.
 Unicité. Supposons qu’il existe une application linéaire u de E dans F telle que,
pour tout i ∈ {1, . . . , k}, la restriction de u à Ei est égale à ui .

c Éric Merle 53 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

k
X
Soit x ∈ E. Il existe un unique (xi )1≤i≤k tel que, pour tout i, xi ∈ Ei et x = xi .
i=1
k
X k
X
Alors u(x) = u(xi ) = ui (xi ), ce qui prouve l’unicité : u est nécessairement
i=1 i=1
k
X k
X
l’application qui à x ∈ E associe ui (xi ) où xi est l’unique décomposition de x
M i=1 i=1
dans Ei .
1≤i≤k
 Existence. Notons u l’application ainsi définie. Il est clair que pour tout i, u|Ei = ui .
Il reste à montrer que u est linéaire.
k
X X k
Soit x, y ∈ E et α ∈ K. Ecrivons x = xi et y = yi , avec pour tout i, xi , yi ∈ Ei .
i=1 i=1
k
X
Alors αx + y = (αxi + yi ), donc par définition de u,
i=1
k
X k
X
u(αx + y) = ui (αxi + yi ) = [αui (xi ) + u(yi )],
i=1 i=1
k
X Xk
donc u(αx + y) = α ui (xi ) + ui (yi ) = αu(x) + u(y).
i=1 i=1
k
Y
L(E, F ) −→ L(Ei , F )
Remarque. La propriété précédente signifie que est un
i=1
u 7−→ (u/Ei )1≤i≤k
isomorphisme, la linéarité étant simple à démontrer.

4.4.2 Formules dimensionnelles

Propriété. Soit k ∈ N∗ et soit E1 , . . . , Ek k sous-espaces vectoriels de dimensions


Xk  X k
finies d’un K-espace vectoriel E. Alors, dim Ei ≤ dim(Ei ),
i=1 i=1
avec égalité si et seulement si la somme est directe .
Démonstration.
Yk Xk
ϕ: Ei −→ Ei
i=1 i=1
L’application k
est linéaire et surjective,
X
(x1 , . . . , xk ) 7−→ xi
i=1
k
X k
Y  k
X 
donc dim(Ei ) = dim Ei ≥ dim Ei .
i=1 i=1 i=1

c Éric Merle 54 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

De plus, il y a égalité des dimensions si et seulement si ϕ est injective, donc si et


Xk
seulement si son noyau est réduit à {0}, ce qui signifie que Ei est une somme
i=1
directe.
Remarque. Ainsi, lorsque E est de dimension finie, si F et G sont deux sous-espaces
vectoriels de E, ils sont supplémentaires dans E si et seulement si E = F + G et
dim(E) = dim(F ) + dim(G).
Exercice. A et B sont deux sous-espaces vectoriels de E.
On suppose que A0 est un supplémentaire de A ∩ B dans A et que B 0 est un
supplémentaire de A ∩ B dans B.
Montrer que A + B = (A ∩ B) ⊕ A0 ⊕ B 0 .
Solution :
• Montrons que A + B = (A ∩ B) + A0 + B 0 .
 Les trois sous-espaces vectoriels A0 , B 0 et A ∩ B sont inclus dans A + B, donc
(A ∩ B) + A0 + B 0 = Vect((A ∩ B) ∪ A0 ∪ B 0 ) est un sous-espace vectoriel de A + B.
 Soit x ∈ A + B. Il existe (a, b) ∈ A × B tel que x = a + b.
A = (A ∩ B) ⊕ A0 , donc il existe (α, a0 ) ∈ (A ∩ B) × A0 tel que a = α + a0 . De
même, il existe (β, b0 ) ∈ (A ∩ B) × B 0 tel que b = β + b0 .
Ainsi x = (α + β) + a0 + b0 ∈ (A ∩ B) + A0 + B 0 , donc A + B ⊂ (A ∩ B) + A0 + B 0 .
• Soit (α, a0 , b0 ) ∈ (A ∩ B) × A0 × B 0 tel que α + a0 + b0 = 0.
a0 = −α − b0 ∈ B et a0 ∈ A0 , donc a0 ∈ A0 ∩ (A ∩ B), or A0 ∩ (A ∩ B) = {0} car A0
et A ∩ B sont supplémentaires dans A. Ainsi, a0 = 0. De même, on montre que
b0 = 0. On en déduit que α = 0, donc la somme est bien directe.
Formule de Grassmann : Soit E un K-espace vectoriel et soit F et G deux sous-
espaces vectoriels de E de dimensions finies. Alors F + G est de dimension finie et
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G) .
Démonstration.
Reprenons l’exercice précédent et supposons que A et B sont de dimensions finies.
Alors A + B = (A ∩ B) ⊕ A0 ⊕ B 0 est de dimension finie et
dim(A + B) = dim(A ∩ B) + dim(A0 ) + dim(B 0 ), or par définition de A0 et de B 0 ,
dim(A0 ) = dim(A) − dim(A ∩ B) et dim(B 0 ) = dim(B) − dim(A ∩ B).
Ainsi, dim(A + B) = dim(A) + dim(B) − dim(A ∩ B).
Remarque. Cette formule est analogue à la formule donnant le cardinal d’une réunion
de deux ensembles finis A et B : |A ∪ B| = |A| + |B| − |A ∩ B|. Cette dernière formule
se généralise à une union de p ensembles finis : c’est la formule du crible. On peut
noter que la formule du crible ne s’adapte pas au cadre des dimensions de sous-espaces
vectoriels : on peut trouver 3 sous-espaces vectoriels F , G et H d’un même K-espace
vectoriel tels que
dim(F + G + H) 6= dim(F ) + dim(G) + dim(H)
− dim(F ∩ G) − dim(F ∩ H) − dim(G ∩ H)
+ dim(F ∩ G ∩ H).

c Éric Merle 55 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Il suffit en effet de prendre 3 droites deux à deux distinctes d’un plan vectoriel.

4.4.3 Associativité des sommes directes

Propriété. Associativité d’une somme directe.


Soient k ∈ N∗ et E1 , . . . , Ek k sous-espaces vectoriels d’un K-espace vectoriel E.
Soit (Ii )1≤i≤p une partition de {1, . . . , k}.
E1 , . . . , Ek forment une somme directe si et seulement si

i) ∀i
M ∈ {1,. . . , p} (Ej )j∈Ii forment une somme directe,
et ii) Ej forment une somme directe.
i∈{1,...,p}
j∈Ii

Exemple. On peut écrire E1 ⊕ E2 ⊕ E3 ⊕ E4 si et seulement si on peut écrire E1 ⊕ E2 ,


E3 ⊕ E4 et (E1 ⊕ E2 ) ⊕ (E3 ⊕ E4 ), ou bien si et seulement si on peut écrire E1 ⊕ E2 ,
(E1 ⊕ E2 ) ⊕ E3 et ((E1 ⊕ E2 ) ⊕ E3 ) ⊕ E4 .
Démonstration.
• Supposons que E1 , . . . , Ek forment une somme directe.
 Soit i ∈ {1, . . . , p}.
X Soit (xj )j∈Ii une famille de vecteurs telle que
∀j ∈ Ii xj ∈ Ej et xj = 0.
j∈Ii
Complétons à l’aide de vecteurs nuls cette famille en une famille (xj )1≤j≤k . Ainsi
Xk
xj = 0, mais E1 , . . . , Ek forment une somme directe, donc la famille (xj )1≤j≤k est
j=1
nulle. Ainsi ∀j ∈ Ii xj = 0, ce qui prouve i). M
 Soit (yi )1≤i≤p une famille de vecteurs telle que, pour tout i ∈ {1, . . . , p}, yi ∈ Ej
j∈Ii
p
X
et yi = 0.
i=1 X
Soit i ∈ {1, . . . , p}. Il existe une famille (xj )j∈Ii telle que ∀j ∈ Ii xj ∈ Ej et yi = xj .
j∈Ii
p p k
X X X X
Ainsi 0 = yi = xj = xj , or E1 , . . . , Ek forment une somme directe, donc
i=1 i=1 j∈Ii j=1
la famille (xj )1≤j≤k est nulle. Ainsi, pour tout i ∈ {1, . . . , p}, yi = 0, ce qui prouve ii).
• Réciproquement, supposons que i) et ii) sont vraies.
Xk
Soit (x1 , . . . , xk ) ∈ E1 × · · · × Ek tel que xh = 0.
X h=1 M
Pour tout i ∈ {1, . . . , p}, posons yi = xj . Ainsi, yi ∈ Ej .
j∈Ii j∈Ii

c Éric Merle 56 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

k p M 
X X
0 = xh = yi et d’après ii), Ej forment une somme directe, donc,
1≤i≤p
h=1 i=1 j∈Ii
pour tout i ∈ {1, . . . , p}, yi =X
0.
Soit i ∈ {1, . . . , p}. 0 = yi = xj et (Ej )j∈Ii forment une somme directe, donc pour
j∈Ii
tout j ∈ Ii , xj = 0.
Ainsi, pour tout h ∈ {1, . . . , k}, xh = 0, ce qui prouve que E1 , . . . , Ek forment une
somme directe.
Théorème. Soient k un entier supérieur ou égal à 2, et (Ei )1≤i≤k une famille de
k sous-espaces vectoriels de E. E1 , . . . , Ek sont en somme directe si et seulement si
i−1
\X
∀i ∈ {2, . . . , k} Ei Ej = {0}.
j=1
Démonstration.
Effectuons une démonstration par récurrence.
Soit k ≥ 2. Notons R(k) l’assertion suivante : pour tout k-uplet (E1 , . . . , Ek ) de sous-
espaces vectoriels de E, E1 , . . . , Ek forment une somme directe si et seulement si
i−1
\X
∀i ∈ {2, . . . , k} Ei Ej = {0}.
j=1
Pour k = 2, on a déjà montré R(2) page 49, au début du paragraphe 4.2.
Pour k ≥ 2, supposons R(k).
Soit (E1 , . . . , Ek+1 ) un (k + 1)-uplet de sous-espaces vectoriels de E.
D’après l’associativité de la somme directe, (E1 , . . . , Ek+1 ) forment une somme directe
X k
si et seulement si (E1 , . . . , Ek ) forment une somme directe et si Ek+1 et Ej forment
j=1
une somme directe, c’est-à-dire si et seulement si pour tout i ∈ {2, . . . , k},
\X i−1 k
TX
Ei Ej = {0} (d’après R(k)) et si Ek+1 Ej = {0} (d’après R(2)).
j=1 j=1
Ceci prouve R(k + 1).

c Éric Merle 57 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Figure.
@
@
@
@
@
@
@
@

−@
0 @
@
@
@
@
@
@
D1 D2 D3@@

Remarque. Une erreur fréquente est de croire que (Ei )1≤i≤k constitue une somme
directe si et seulement si, pour tout (i, j) ∈ {1, . . . , k}, avec i 6= j, Ei ∩ Ej = {0}.
C’est faux. En effet, la figure représente trois droites vectorielles d’un plan vectoriel
P , notées D1 , D2 et D3 . On sait qu’elles sont deux à deux en somme directe, donc
D1 ∩ D2 = D1 ∩ D3 = D2 ∩ D3 = {0}. Cependant, D1 , D2 et D3 ne sont pas en somme
directe, car il est facile de dessiner sur la figure ci-dessus 3 vecteurs non nuls sur D1 , D2
et D3 dont la somme est nulle.

4.4.4 Base adaptée à une décomposition en somme directe

Théorème. Soit E un K-espace vectoriel muni d’une base (ei )i∈I . Soit (Ik )1≤k≤n une
n
M
partition de I. Pour tout k ∈ {1, . . . , n}, on pose Ek = Vect(ei )i∈Ik . Alors E = Ek .
k=1
Démonstration. X
• Soit x ∈ E. il existe (αi )i∈I ∈ K(I) telle que x = αi ei .
! i∈I
Xn X X n X n
x= αi e i ∈ Ek , ainsi E = Ek .
k=1 i∈Ik k=1 k=1
Xn
• Soit (xk )1≤k≤n ∈ E1 × · · · × En tel que xk = 0.
k=1 X
Pour tout k ∈ {1, . . . , n}, il existe (αi )i∈Ik ∈ K(Ik ) telle que xk = αi ei .
i∈Ik
n
X X
Ainsi 0 = xk = αi ei , or (ei ) est une famille libre, donc, pour tout i ∈ I, αi = 0.
k=1 i∈I
Ainsi, pour tout k ∈ {1, . . . , n}, xk = 0, ce qui prouve que la somme est directe.

Théorème réciproque. Soit (Ek )1≤k≤n une famille de sous-espaces vectoriels d’un

c Éric Merle 58 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels
n
M
K-espace vectoriel E tels que E = Ek . Pour tout k ∈ {1, . . . , n}, on suppose que
k=1
Ek admet une base bk . Alors la concaténation des bases (bk )1≤k≤n , notée b, est une base
de E. On dit que b est une base adaptée à la décomposition en somme directe
M n
E= Ek .
k=1
Démonstration.
• Soit k ∈ {1, . . . , n}. Notons bk = (ei )i∈Ik . On peut supposer que les Ik sont deux
[n
à deux disjoints. Notons I = Ik . Ainsi b = (ei )i∈I . C’est en ce sens que b est la
k=1
concaténation des bases (bk )1≤k≤n
X.
• Soit (αi )i∈I ∈ K(I) telle que αi ei = 0.
! i∈I
Xn X X
0= αi ei et pour tout k ∈ {1, . . . , n}, αi ei ∈ Ek . Or E1 , . . . , En forment
k=1 i∈Ik i∈Ik
X
une somme directe, donc, pour tout k ∈ {1, . . . , n}, αi ei = 0. De plus, pour tout
i∈Ik
k ∈ {1, . . . , n}, bk = (ei )i∈Ik est libre, donc, pour tout i ∈ I, αi = 0, ce qui prouve que
b est une famille libre. n
X
• Soit x ∈ E. Il existe (xk )1≤k≤n ∈ E1 × · · · × En tel que x = xk .
k=1
X
Pour tout k ∈ {1, . . . , n}, il existe (αi )i∈Ik ∈ K(Ik ) telle que xk = αi ei .
i∈Ik
X
Ainsi x = αi ei , ce qui prouve que b est une famille génératrice.
i∈I

Définition. Soient E un K-espace vectoriel et F un sous-espace vectoriel de E.


On appelle base adaptée à F toute base obtenue par “réunion” d’une base de F avec
une base d’un supplémentaire de F , c’est-à-dire toute base de E obtenue en complétant
une base de F .

4.5 Les projecteurs


Définition. p ∈ L(E) est un projecteur si et seulement si p2 = p.
Propriété. Soient F et G deux sous-espaces vectoriels supplémentaires de E.
Pour x ∈ E, on note (p(x), q(x)) l’unique couple de F × G tel que x = p(x) + q(x).
p et q sont des projecteurs.
p est appelé le projecteur sur F parallèlement à G, et q le projecteur associé à p.
On vérifie que p + q = IdE et pq = qp = 0.
Figure.

c Éric Merle 59 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Démonstration.
 Soit x, y ∈ E et α ∈ K.
Alors x = p(x) + q(x) et y = p(y) + q(y), donc αx + y = (αp(x) + p(y)) + (αq(x) + q(y))
et ((αp(x)+p(y)), (αq(x)+q(y))) ∈ F ×G. D’autre part, αx+y = p(αx+y)+q(αx+y)
avec (p(αx + y), q(αx + y)) ∈ F × G, donc d’après l’unicité de la décomposition d’un
vecteur selon F ⊕ G, p(αx + y) = αp(x) + p(y) et q(αx + y) = αq(x) + q(y).
On a montré que p, q ∈ L(E).
 Soit x ∈ E. p(x) ∈ F , donc p(p(x)) = p(x). De même, q(q(x)) = q(x). Ainsi, p et q
sont des projecteurs.
 Par définition, pour tout x ∈ E, x = p(x) + q(x), donc p + q = IdE .
 Soit x ∈ E. p(x) ∈ F , donc q(p(x)) = 0. Ainsi, q ◦ p = 0. De même, p ◦ q = 0.
Exemples.
— IdE est le projecteur sur E parallèlement à {0}.
— 0L(E) est le projecteur sur {0} parallèlement à E.   
2 2 x x
— L’application p1 : K −→ K définie par p1 = est la projection sur
  y 0  
1 0
la droite engendrée par parallèlement à celle engendrée par .
0 1
— Soit Q ∈ K[X] un polynôme de degré n ∈ N∗ . L’application qui à P ∈ K[X]
associe son reste pour la division euclidienne de P par Q est la projection sur
Kn−1 [X] parallèlement à l’idéal engendré par Q.
Propriété réciproque. Soit p un projecteur de E. Alors
p est le projecteur sur Im(p) parallèlement à Ker(p).
Pour tout x ∈ E, la décomposition de x selon la somme directe E = Im(p) ⊕ Ker(p)
est x = p(x) + (x − p(x)), avec p(x) ∈ F = Im(p) et x − p(x) ∈ G = Ker(p).
Pour tout x ∈ E, x = p(x) ⇐⇒ x ∈ F : F = Ker(IdE − p).
Démonstration.
Posons F = Im(p) et G = Ker(p).
 Soit x ∈ E tel que p(x) = x. Alors x ∈ Im(p) = F .
Réciproquement, si x ∈ F = Im(p), il existe y ∈ E tel que x = p(y),
donc p(x) = p ◦ p(y) = p(y) = x car p est un projecteur.
Ainsi x ∈ F ⇐⇒ p(x) = x et Im(p) = F = Ker(IdE − p).
 Soit x ∈ E. p(x − p(x)) = p(x) − p2 (x) = 0, car p est un projecteur,
donc x − p(x) ∈ Ker(p). De plus p(x) ∈ Im(p), donc x = p(x) + (x − p(x)).
|{z} | {z }
∈F ∈G
Ceci démontre que E = F + G.
 Soit x ∈ F ∩ G. Alors p(x) = x et p(x) = 0, donc x = 0. Ainsi F ∩ G = {0}.
On a montré que E = F ⊕ G.
 On peut donc considérer le projecteur u sur F parallèlement à G.
Soit x ∈ E. On a vu que x = p(x) + (x − p(x)) avec p(x) ∈ F et x − p(x) ∈ G, donc
u(x) = p(x). Ainsi, p = u.
Exercice. On note p : R2 −→ R2 l’application définie par

c Éric Merle 60 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels
x + y x + y 
p(x, y) = , . Montrer que p est un projecteur et déterminer son
2 2
noyau et son image.
Solution :
Première méthode : On  vérifie que p est un xendomorphisme  et que pour tout
x + y x + y + y x + y
(x, y) ∈ R2 , p2 (x, y) = p , = , , donc p est bien un
2 2 2 2
projecteur.
x+y
Soit (x, y) ∈ R2 . p(x, y) = 0 ⇐⇒ = 0 ⇐⇒ (x, y) ∈ Vect(1, −1), donc
2
Ker(p) est la droite vectorielle engendrée par (1, −1).
x−y
p(x, y) = (x, y) ⇐⇒ = 0, donc Im(p) est la droite vectorielle engendrée par
2
(1, 1).
Ainsi, p est la projection sur la première diagonale parallèlement à la seconde
diagonale.
Seconde méthode  x:+Pour tout(x, y) ∈ R2 ,
y x+y  x − y x − y
(1) : (x, y) = , + ,− ,
 x + y x + y 2 2 2  2
x − y x − y
or , ∈ D = Vect(1, 1) et ,− ∈ D0 = Vect(1, −1),
2 2 2 2
donc (1) correspond à la décomposition de (x, y) selon la somme directe
R2 = D ⊕ D0 (les deux droites D et D0 sont distinctes, donc en somme directe, et
dim(D⊕D0 ) = 2, donc R2 = D⊕D0 ). Ainsi p est la projection sur D parallèlement
à D’.
ATTENTION : Pour un endomorphisme quelconque u ∈ L(E), Im(u) et Ker(u)
peuvent ne pas être supplémentaires. D’ailleurs on rencontre assez souvent des endo-
morphismes u tels que u2 = 0, auquel cas Im(u) ⊂ Ker(u).
Définition. s ∈ L(E) est une symétrie si et seulement si s2 = IdE .
Propriété. Soient F et G deux sous-espaces vectoriels supplémentaires de E.
L’unique application s de E dans E telle que, pour tout f, g ∈ F × G, s(f + g) = f − g
est une symétrie, appelée symétrie par rapport à F parallèlement à G.
Si l’on note p le projecteur sur F parallèlement à G, et q le projecteur associé à p, alors
s = p − q = 2p − IdE .
Figure.
Démonstration.
On sait que p2 = p, q 2 = q et pq = qp = 0, donc s2 = p2 + q 2 − pq − qp = p + q = IdE .
   
2 2 x x
Exemple. L’application s : K −→ K définie par s = est la symétrie
  y −y  
1 0
par rapport à la droite engendrée par parallèlement à celle engendrée par .
0 1
C et R2 pouvant être identifiés par : ∀z ∈ C, Re(z) + iIm(z) = (Re(z), Im(z)), l’appli-
cation précédente devient z 7−→ z : c’est la symétrie par rapport à la droite des réels

c Éric Merle 61 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

parallèlement à la droite des imaginaires purs, en regardant C comme un R-espace


vectoriel.
Exemple. Lorsque E = F(R, R), l’application s ∈ L(E) définie par s(f )(x) = f (−x)
est une symétrie car s2 = IdE .
Si l’on note P (resp : I) l’ensemble des fonctions paires (resp : impaires) de E dans
f (x) + f (−x) f (x) − f (−x)
E, pour tout f ∈ E et x ∈ R, f (x) = + ∈ P + I. On en
2 2
déduit que E = P ⊕ I et que la projection sur P parallèlement à I est définie par
f (x) + f (−x) f (x) − f (−x)
p(f )(x) = . Son projecteur associé est défini par q(f )(x) = ,
2 2
donc s = p − q est la symétrie par rapport à P parallèlement à I.
Propriété réciproque. On suppose que car(K) 6= 2.
Pour toute symétrie s de E, il existe deux sous-espaces vectoriels supplémentaires
F et G tels que s est la symétrie par rapport à F parallèlement à G. Il s’agit de
F = Ker(IdE − s) et de G = Ker(IdE + s).
Démonstration.
Posons p = 12 (s + IdE ). On sait que s2 = IdE , donc
p2 = 14 (s2 + IdE + 2s) = 12 (IdE + s) = p. Ainsi p est un projecteur.
Posons F = Im(p) = Ker(IdE − p) = Ker(IdE − s) et G = Ker(p) = Ker(IdE + s).
On sait que E = F ⊕ G et que p est le projecteur sur F parallèlement à G, donc
s = p − q est la symétrie par rapport à F parallèlement à G.
Remarque. Cette réciproque est fausse lorsque car(K) = 2. En effet dans ce cas, si
s est la symétrie par rapport à F parallèlement à G (où E = F ⊕ G), alors pour tout
(f, g) ∈ F × G, s(f + g) = f − g = f + g, car 1K = −1K , donc s = IdE .
Supposons que E de dimension finie n ≥ 2 et fixons e = (e1 , . . . , en ) une base de E. Il
existe un unique s ∈ L(E) tel que s(e1 ) = e2 , s(e2 ) = e1 et pour tout i ∈ {2, . . . , n},
s(ei ) = ei . Alors s2 = s, donc s est une symétrie, différente de l’identité.

4.6 Sous-espaces propres


Notation. On fixe un K-espace vectoriel E et u ∈ L(E).

4.6.1 Définitions

Introduction. Lorsque E est de dimension finie, la réduction de u consiste en la


recherche d’une base e de E dans laquelle la matrice de u est aussi simple que possible.
On considère que la matrice est d’autant plus simple qu’elle est voisine d’une matrice
diagonale. Ainsi, il est intéressant de disposer d’un nombre important d’indices j tels
que la j ème colonne de M at(u, e) a tous ses coefficients nuls, sauf éventuellement le
j ème , c’est-à-dire, en notant e = (e1 , . . . , en ), tels que u(ej ) est colinéaire à ej .
Ceci explique la présence des définitions suivantes.

c Éric Merle 62 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Définition. λ ∈ K est une valeur propre de u si et seulement s’il existe un vecteur


x non nul de E tel que u(x) = λx.
Dans ce cas, tout vecteur y non nul tel que u(y) = λy est appelé un vecteur propre
de u associé à la valeur propre λ.
De plus, toujours lorsque λ est une valeur propre de u, Ker(λIdE − u) est appelé le
sous-espace propre de u associé à la valeur propre λ. Il est noté Eλ , ou Eλu en cas
d’ambiguı̈té.
Remarque. Dans la définition ci-dessus d’une valeur propre, la condition “x non nul ”
est essentielle. En effet, si on l’omettait, tout scalaire deviendrait une valeur propre,
car, pour tout λ ∈ K, u(0) = λ × 0.
Remarque. Si λ est une valeur propre de u, l’ensemble des vecteurs propres de u
pour la valeur propre λ est Eλ \ {0}.
Remarque. Même lorsque λ n’est pas une valeur propre de u, on note parfois
Eλ = Ker(λIdE − u), mais dans ce cas, Eλ = {0}.
Méthode : Pour rechercher les éléments propres de u, une méthode est d’étudier la
condition u(x) = λx. Si l’on regarde cette condition comme une équation en l’inconnue
x, en considérant λ comme un paramètre, la résolution de cette équation donne les
valeurs propres et les sous-espaces propres.
Exemple. Choisissons pour E l’ensemble des applications de classe C ∞ de R dans R
E −→ E
et pour u, .
f 7−→ f 0
Soient λ ∈ R et f ∈ E. u(f ) = λf ⇐⇒ f 0 = λf ⇐⇒ [∃C ∈ R ∀x ∈ R f (x) = Ceλx ],
donc tout réel est une valeur propre de u et, pour tout λ ∈ R, Eλ est la droite vectorielle
f : R −→ R
engendrée par l’application λ .
x 7−→ eλx
Définition. Soient n ∈ N∗ et M ∈ Mn (K) : Les éléments propres de M (c’est-
à-dire les valeurs propres, les vecteurs propres et les sous-espaces propres) sont les
éléments propres de l’endomorphisme canoniquement associé à M .
En particulier, pour tout λ ∈ Sp(M ), EλM = Ker(λIn − M ) = {X ∈ Kn /M X = λX}.
Propriété.
λ ∈ K est une valeur propre de u si et seulement si λIdE − u n’est pas injective.
En particulier, u est injectif si et seulement si 0 n’est pas une valeur propre de u.
Démonstration.
λ est une valeur propre de u si et seulement s’il existe un vecteur x non nul de E tel
que (λIdE − u)(x) = 0, c’est-à-dire si et seulement si Ker(λIdE − u) 6= {0}.
Définition. On appelle spectre de u l’ensemble des valeurs propres de u.
Il est souvent noté Sp(u).
Théorème.
La somme d’un nombre fini de sous-espaces propres de u est toujours directe.

c Éric Merle 63 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Démonstration.
Effectuons une récurrence portant sur le nombre de sous-espaces propres.
Soit h ∈ N∗ . Notons R(h) l’assertion suivante :
pour toute famille (λ1 , . . . , λh ) de h valeurs propres deux à deux distinctes de u, la
Xh
somme Eλj est directe.
j=1
• Supposons que h = 1. Toute famille (Ei )1≤i≤1 constituée d’un seul sous-espace
vectoriel de E forme une somme directe, car, pour tout x1 = (xi )1≤i≤1 ∈ E1 ,
1
X
si xi = 0, alors x1 = 0.
i=1
Ainsi, la propriété R(1) est vraie.
• Lorsque h ≥ 1, supposons R(h).
Soit (λ1 , . . . , λh+1 ) une famille de h + 1 valeurs propres deux à deux distinctes de u.
h+1
X
Soit (x1 , . . . , xh+1 ) ∈ Eλ1 × · · · × Eλh+1 tel que xj = 0.
j=1
h
X
Ainsi, (1) : −xh+1 = xj .
j=1
h
X
Prenons l’image de (1) par u. Ainsi, −λh+1 xh+1 = λj xj .
j=1
X h
Multiplions (1) par λh+1 . Ainsi, −λh+1 xh+1 = λh+1 xj .
j=1
h
X
Effectuons la différence des deux égalités précédentes. 0 = (λj − λh+1 )xj .
j=1
Or, pour tout j ∈ Nh , (λj − λh+1 )xj ∈ Eλj , et, d’après R(h), la famille (Eλj )1≤j≤h
constitue une somme directe. Ainsi, si j ∈ Nh , (λj − λh+1 )xj = 0, or λj − λh+1 6= 0,
donc xj = 0.
L’égalité (1) prouve alors que xh+1 = 0, ce qui montre R(h + 1).
Corollaire. Si (xi )i∈I est une famille de vecteurs propres de u associés à des valeurs
propres deux à deux distinctes, alors cette famille est libre.
Démonstration.
Pour tout i ∈ I, il existe λi ∈ Sp(u) tel que u(xi ) = λi xi .
De plus, par hypothèse, pour tout (i, j) ∈ I 2 tel que i 6= j, X
λi 6= λj .
Soit (αi )i∈I une famille presque nulle de scalaires telle que αi xi = 0.
i∈I
Supposons que (αi ) est une famille non nulle. Posons J = {i ∈ I/αi 6= 0}. J étant fini
Xnon vide, les sous-espaces propres Eλi , pour i ∈ J, constituent une somme directe,
mais
or αi xi = 0 et, pour tout i ∈ J, αi xi ∈ Eλi , donc, pour tout i ∈ J, αi xi = 0.
i∈J

c Éric Merle 64 MPSI2, LLG


Algébre linéaire 4 Somme de sous-espaces vectoriels

Les xi étant des vecteurs propres, ils sont non nuls, donc, pour tout i ∈ J, αi = 0, ce
qui est faux. Ainsi la famille (αi )i∈I est nulle, ce qui prouve que la famille (xi )i∈I est
libre.
Exemple. Reprenons pour E l’ensemble des applications de classe C ∞ de R dans R et
E −→ E f : R −→ R
pour u, . En posant λ , l’étude précédente de u montre
f 7−→ f 0 x 7−→ eλx
que (fλ )λ∈R est une famille libre de E.

4.6.2 Exemples

Lemme : Si F est un sous-espace vectoriel de E tel que F ⊕ E = E, alors F = {0}.


Démonstration.
{0} = F ∩ E = F .
Propriété. Supposons que E 6= {0}.
Soient F et G deux sous-espaces vectoriels supplémentaires non nuls dans E.
• Si u est une homothétie de rapport λ, où λ ∈ K, Sp(u) = {λ} et Eλ = E.
• Si u est le projecteur sur F parallèlement à G, Sp(u) = {0, 1}, E1 = F et E0 = G.
• Si u est la symétrie par rapport à F parallèlement à G, Sp(u) = {1, −1}, E1 = F
et E−1 = G.
Démonstration.
• Supposons que u = λIdE , où λ ∈ K.
Pour tout x ∈ E \ {0}, u(x) = λx, donc x est un vecteur propre associé à λ.
Ainsi Sp(u) = {λ} et Eλ = E.
• Supposons que u est le projecteur sur F parallèlement à G.
x ∈ F ⇐⇒ u(x) = x, or F 6= {0}, donc 1 ∈ Sp(u) et F = E1 .
x ∈ G ⇐⇒ u(x) = 0, or G 6= {0}, donc 0 ∈ Sp(u) et G = E0 .
Supposons qu’il existe une troisième valeur propre λ ∈ K \ {0, 1}.
Alors Eλ ⊕ (E0 ⊕ E1 ) = E, donc d’après le lemme, Eλ = {0}, ce qui est impossible.
Ainsi, u admet 0 et 1 pour seules valeurs propres.
On a montré que Sp(u) = {0, 1}, avec E0 = G et E1 = F .
• Supposons que u est la symétrie par rapport à F parallèlement à G.
x ∈ F ⇐⇒ u(x) = x, or F 6= {0}, donc 1 ∈ Sp(u) et F = E1 .
x ∈ G ⇐⇒ u(x) = −x, or G 6= {0}, donc −1 ∈ Sp(u) et G = E−1 .
Comme dans le cas du projecteur, on montre que 1 et −1 sont les seules valeurs propres
de u.

4.6.3 Propriétés

Propriété.
Si v ∈ L(E) commute avec u, les sous-espaces propres de u sont stables par v.

c Éric Merle 65 MPSI2, LLG


Algébre linéaire 5 Changement de base

Démonstration.
Supposons que v et u commutent. Soit λ ∈ Sp(u).
Soit x ∈ Eλu . u(v(x)) = v(u(x)) = v(λx) = λv(x), donc v(x) ∈ Eλu .
Ainsi, v(Eλu ) ⊂ Eλu .
Propriété. Soit F un sous-espace vectoriel de E stable par u.
On note u/F l’endomorphisme induit par u sur F .
u
Alors Sp(u/F ) ⊂ Sp(u) et pour tout λ ∈ Sp(u/F ), Eλ /F = Eλu ∩ F .
Démonstration.
Soit λ ∈ Sp(u/F ). Il existe x ∈ F \ {0} tel que u/F (x) = λx,
or u/F (x) = u(x), donc λ ∈ Sp(u).
u
De plus, si x ∈ F , x ∈ Eλ /F ⇐⇒ u/F (x) = λx ⇐⇒ u(x) = λx ⇐⇒ x ∈ Eλu ,
u
donc Eλ /F = Eλu ∩ F .

5 Changement de base
5.1 Matrice de passage
Notation. On fixe un K-espace vectoriel E de dimension finie égale à n ∈ N∗ .
Propriété. Soit e = (e1 , . . . , en ) une base de E et f = (fj )1≤j≤n ∈ E n une famille de
n vecteurs de E. Pour tout j ∈ Nn , on pose pi,j = e∗i (fj ) : c’est la ième coordonnée dans
Xn
ème
la base e du j vecteur de la famille f . Ainsi, pour tout j ∈ Nn , fj = pi,j ei .
i=1
f est une base si et seulement si la matrice P = (pi,j ) est inversible. Dans ce cas, P
est noté Pef (ou bien Pe→f ) et on dit que Pef = (pi,j ) est la matrice de passage de
la base e vers la base f .
Démonstration.
P = mat(u, e, f ) où u est l’unique endomorphisme tel que u(e) = f . P est inversible si
et seulement si u est inversible, ce qui est vrai si et seulement si f est une base de E.

Interprétation tabulaire : Avec les notations précédentes,

 f1 ··· fn 
p1,1 ··· p1,n e1
Pef =  .. ..  .. .
. . .
pn,1 ··· pn,n en

Remarque. La notation Pef reflète cette interprétation tabulaire.


Par analogie, on notera parfois mat(u, e, f ) sous la forme mat(u)ef .
Remarque. On pourrait également définir la matrice d’une famille de p vecteurs

c Éric Merle 66 MPSI2, LLG


Algébre linéaire 5 Changement de base

f = (fj )1≤j≤p de E selon la base e = (e1 , . . . , en ) de E :


matfe = (e∗i (fj )) 1≤i≤n ∈ Mn,p (K).
1≤j≤p

Alors les colonnes de matfe sont les Ψ−1 e (fj ), donc


rg(matfe ) = dim(Vect(Ψ−1 e (f )
j 1≤j≤p ))
= dim(Ψ−1e (Vect(f j )1≤j≤p ))
= dim(Vect(fj )1≤j≤p )),
car Ψ−1
e est injective. Ainsi, rg(matfe ) = rg(f ).
On retrouve ainsi que f est une base si et seulement si matfe est inversible.
Exemple. Notons E= Vect(cos, sin), f = (x 7−→ eix ) et g = (x 7−→ e−ix ). Alors
(f,g) 1 1
mat(cos,sin) = . Le déterminant de cette matrice est non nul, donc elle est
i −i  
(f,g) 1 1
inversible. Ainsi (f, g) est une base de E et P(cos,sin) = .
i −i
Propriété. Soit e une base de E : Pour toute matrice P inversible d’ordre n, il existe
une unique base f de E telle que P = Pef .
Démonstration.
Soit P ∈ GLn (K). Si f est une base telle que P = Pef , alors pour tout j ∈ Nn ,
Xn
fj = Pi,j ei , ce qui prouve l’unicité de f .
i=1
Posons f = u(e), où u est l’unique automorphisme de E tel que P = mat(u, e, f ). Alors
f = u(e) est une base et P = Pef . Ceci prouve l’existence.
0 0
Propriété. Soit e et e0 deux bases de E. Alors Pee = mat(IdE , e0 , e) = mat(IdE )ee .
Remarque. ci-dessous, nous réutilisons la notation x̂ définie page 36.
Formule de changement de base pour les vecteurs :
Soit e et e0 deux bases de E. Soit x ∈ E.
On pose X = Ψ−1 e (x) le vecteur colonne des coordonnées de x dans la base e.
On notera indifféremment X = Ψ−1 1
e (x) = mat(x̂, 1, e) = mat(x̂)e = mat(x)e .
0 −1
De même on pose X = Ψe0 (x) = mat(x)e0 .
0 0
Alors, X = Pee X 0 , ou encore mat(x)e = Pee mat(x)e0 .
Démonstration.
X = mat(x̂, 1, e) = mat(IdE ◦ x̂, 1, e) = mat(IdE , e0 , e) × mat(x̂, 1, e0 )).
Remarque. Cette formule n’est pas naturelle. En effet, P étant appelée la matrice
de passage de la base (ancienne) e vers la (nouvelle) base e0 , on est plutôt en droit
d’attendre qu’elle permette d’exprimer simplement les nouvelles coordonnées X 0 en
fonction des anciennes coordonnées X, or c’est l’inverse qui se produit.
Exemple. Soit E un R-plan vectoriel muni d’une base (i, j). Soit  θ ∈ R. On pose 
cos θ − sin θ
uθ = (cos θ)i + (sin θ)j et vθ = −(sin θ)i + (cos θ)j. Posons P = :
sin θ cos θ
(u ,v )
det(P ) = 1 6= 0, donc P est inversible. Ainsi (uθ , vθ ) est une base de E et P = P(i,j)θ θ .

c Éric Merle 67 MPSI2, LLG


Algébre linéaire 5 Changement de base

Soit M un point de E. Notons (x0 , y0 )les 


coordonnées de 
Mdans  (i, j) et (xθ , yθ ) ses
x0 cos θ − sin θ xθ
coordonnées dans (uθ , vθ ). Alors = , donc en inversant
   y0  sin θ cos θ y θ
xθ cos θ sin θ x0
cette relation, = .
yθ − sin θ cos θ y0
Formule. Si e, e0 et e00 sont trois bases de E, Pee” = Pee Pee”0 et (Pee )−1 = Pee0 .
0 0

Démonstration.
0
IdE = IdE ◦ IdE et Pee × Pee0 = Pee = In .
Formule de changement de bases pour les applications linéaires :
Soient E et F deux K-espaces vectoriels de dimensions finies.
On suppose que e et e0 sont deux bases de E et que f et f 0 sont deux bases 0de F .
0 0
Soit u ∈ L(E, F ). Notons M = mat(u)ef , M 0 = mat(u)ef 0 , P = Pee et Q = Qff . Alors,
0 f 0
M 0 = Q−1 M P c’est-à-dire mat(u)ef 0 = Pf 0 × mat(u)ef × Pee .

Démonstration.
u = IdF ◦ u ◦ IdE .
Formule de changement de bases pour les endomorphismes :
Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). On suppose que e et e0
0
sont deux bases de E. Notons M = mat(u, e), M 0 = mat(u, e0 ) et P = Pee . Alors,
M 0 = P −1 M P .

5.2 Diagonalisation et trigonalisation




0 −1 2
Exemple. Considérons la matrice M =  0 1 0 .
1 1 −1  
x
Commençons par en rechercher les éléments propres : soit λ ∈ R et X = y  ∈ R3 .

 z
 −y + 2z = λx
M X = λX ⇐⇒ y = λy .
x + y − z = λz

Si λ = 1, M X = X ⇐⇒ x +y − 2z  1 ∈ Sp(M ) et
 =0, donc
1 2
E1M = Ker(M − I3 ) = Vect( −1  ,  0 ) : il s’agit d’un plan vectoriel. Si λ 6= 1,
0 1
M X = λX ⇐⇒ (y = 0, 2z = λx, x = (λ + 1)z) ⇐⇒ (y = 0, 2z = λx, 2x = (λ + 1)λx),
or 2 = (λ + 1)λ ⇐⇒ (λ − 1)(λ + 2)= 0. Si λ = −2, M X = −2X ⇐⇒ (y = 0, z = −x),
1
M
donc −2 ∈ Sp(M ) et E−2 = Vect  0 .
−1

c Éric Merle 68 MPSI2, LLG


Algébre linéaire 5 Changement de base
     
1 2 1
Ainsi Sp(M ) = {1, −2} et si l’on pose e1 =  −1 , e2 =  0  et e3 =  0 ,
0 1 −1
e = (e1 , e2 , e3 ) constitue une base de vecteurs propres de M : en effet, (e1 , e2 ) est une
base de E1M donc e est une base de E1M ⊕ E−2 M
= R3 .
Ainsi, M est diagonalisable. En effet,
 M = mat(M̃ , c), où c désigne la base canonique
1 0 0
de R3 et mat(M̃ , e) =  0 1 0 , que l’on notera D.
0 0 −2
D’après la formule de changement
 de bases pour les endomorphismes, M = P DP −1 ,
1 2 1
où P = Pce =  −1 0 0 .
0 1 −1
Définition. Soit E un K-espace vectoriel de dimension n ∈ N∗ et u ∈ L(E).
Les propriétés suivantes sont équivalentes.
i) Il existe une base e de E telle que mat(u, e) est diagonale.
ii) Il existeM une base de E constituée de vecteurs propres de u.
iii) E = Eλu .
λ∈SpK (u)
X
iv) n = dim(Eλu ).
λ∈SpK (u)
Lorsqu’elles sont vraies, on dit que u est diagonalisable.
Démonstration.
• i)=⇒ii). Supposons qu’il existe une base e = (e1 , . . . , en ) de E telle mat(u, e) est
diagonale. Soit j ∈ Nn . La j ème colonne de mat(u, e) a tous ses coefficients nuls, sauf
éventuellement le j ème , donc u(ej ) est colinéaire à ej . Ainsi, pour tout j ∈ Nn , ej est
un vecteur propre de u.
• ii)=⇒iii). Supposons qu’il existe une base e = (e1 , . . . , en ) de E constituée de vec-
teurs propres de u. M
Soit j ∈ Nn . Il existe µ ∈ Sp(u) telle que ej ∈ Eµu , donc ej ∈ Eλu .
λ∈SpK (u)
M M
Ainsi, {e1 , . . . , en } ⊂ Eλu , donc E = V ect({e1 , . . . , en }) ⊂ Eλu .
λ∈SpK (u) λ∈SpK (u)
M
• iii)=⇒iv). Supposons que E = Eλu .
λ∈SpK (u)
 
M X
Alors, n = dim(E) = dim  Eλu  = dim(Eλu ).
λ∈SpK (u) λ∈SpK (u)
X
• iv)=⇒i). Supposons que n = dim(Eλu ).
λ∈SpK (u)
Pour tout λ ∈ SpK (u), choisissons une base de Eλu , notée eλ . D’après le théorème
de la base adaptée à une décomposition en somme directe, la “réunion” des eλ pour

c Éric Merle 69 MPSI2, LLG


Algébre linéaire 5 Changement de base

∈ SpK (u) est une famille libre de E. De plus elle est de cardinal
λX
dim(Eλu ) = n = dim(E), donc c’est une base de E, constituée de vecteurs
λ∈SpK (u)
propres de u. Ainsi, la matrice de u dans cette base est diagonale.
Propriété. les homothéties, les projecteurs et les symétries sont diagonalisables.
Démonstration.
On a déjà vu que, pour chacun de ces endomorphismes, la somme des sous-espaces
propres est égale à l’espace E en entier.
Définition. Soit M ∈ Mn (K). On dit que M est diagonalisable si et seulement si son
endomorphisme canoniquement associé est diagonalisable.
Propriété. M ∈ Mn (K) est diagonalisable si et seulement si il existe P ∈ GLn (K)
telle que P −1 M P est une matrice diagonale.
Démonstration.
Notons u l’endomorphisme canoniquement associé à M et c la base canonique de Kn .
• Supposons que M est diagonalisable. Alors u est diagonalisable, donc il existe une
base e de Kn telle que mat(u, e) est diagonale.
Or mat(u, e) = P −1 M P , où P = Pce ∈ GLn (K).
• Réciproquement, supposons qu’il existe P ∈ GLn (K) et une matrice D diagonale
telles que M = P DP −1 .
Il existe une base e de Kn telle que P est la matrice de passage de c vers e. Alors,
mat(u, e) = P −1 mat(u, c)P = P −1 P DP −1 P = D, donc mat(u, e) est diagonale, ce qui
prouve que u est diagonalisable.
Définition. Soit M ∈ Mn (K) une matrice diagonalisable.
“diagonaliser” M , c’est déterminer une matrice diagonale D et une matrice inversible
P telles que M = P DP −1 .
Définition. Un endomorphisme u est trigonalisable si et seulement s’il existe une
base dans laquelle la matrice de u est triangulaire supérieure.
Définition. M ∈ Mn (K) est trigonalisable si et seulement si l’endomorphisme ca-
noniquement associé à M est trigonalisable, c’est-à-dire si et seulement si il existe
P ∈ GLn (K) telle que P −1 M P est triangulaire supérieure.
Démonstration.
Notons u l’endomorphisme canoniquement associé à M et c = (c1 , . . . , cn ) la base
canonique de Kn .
• Supposons que M est trigonalisable. Ainsi, il existe une base e = (e1 , . . . , en ) de
Kn telle que T = mat(u, e) est triangulaire supérieure. Donc, en notant P = Pce ,
P −1 M P = T est triangulaire supérieure.
• Réciproquement, supposons qu’il existe P ∈ GLn (K) telle que M = P T P −1 , où
T est triangulaire supérieure. Il existe une base e de Kn telle que P = Pce . Comme
M = P T P −1 , T = mat(u, e), donc M est trigonalisable.

c Éric Merle 70 MPSI2, LLG


Algébre linéaire 5 Changement de base

Définition. Soit M ∈ Mn (K). “Trigonaliser ” M , c’est déterminer si M est trigo-


nalisable, et dans ce cas, c’est calculer P ∈ GLn (K) et T triangulaire supérieure telles
que M = P T P −1 .

5.3 Trace d’un endomorphisme


Définition.
Soit E un K-espace vectoriel de dimension finie. La quantité Tr(mat(u, e)) ne dépend
pas du choix de la base e de E. On la note Tr(u). C’est la trace de l’endomorphisme u.
Démonstration.
Soient e et f deux bases de E.
mat(u, e) et mat(u, f ) sont deux matrices semblables, donc elles ont la même trace.
Propriété. Soit E un K-espace vectoriel de dimension finie.
Pour tout u, v ∈ L(E), Tr(uv) = Tr(vu).
Propriété. Soit E un K-espace vectoriel de dimension finie.
Si p est un projecteur de E, alors Tr(p) = rg(p).
Démonstration.
Il existe F et G avec E = F ⊕ G tels que p est le projecteur sur F parallèlement à G.
Notons rg(p) = r = dim(F ) et n = dim(E). Considérons une base (e1 , . . . , er ) de F et
une base (er+1 , . . . , en ) de G. La famille de vecteurs e = (e1 , . . . , en ) est une base de E,
adaptée à la décomposition en somme directe E = F ⊕ G.  
Ir 0r,n−r
La matrice de p dans e est égale à la matrice blocs suivante : , dont
0n−r,r 0n−r,n−r
la trace vaut r. Ainsi Tr(p) = r = rg(p).

5.4 Matrices équivalentes et matrices semblables


5.4.1 Matrices équivalentes

Définition. Deux matrices M et M 0 de MK (n, p) sont équivalentes si et seulement


s’il existe P ∈ GLp (K) et Q ∈ GLn (K) telles que M 0 = QM P −1 .
On définit ainsi une relation d’équivalence sur MK (n, p).
Propriété. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0
et n > 0, munis des bases e et f , et soit u ∈ L(E, F ). On note M = mat(u, e, f ).
Soit M 0 ∈ MK (n, p) : M 0 est équivalente à M si et seulement s’il existe des bases e0
et f 0 telles que M 0 = mat(u, e0 , f 0 ). En résumé, deux matrices sont équivalentes si et
seulement si elles représentent une même application linéaire dans des bases différentes,
autant pour la base de départ que pour la base d’arrivée.
Démonstration.
Supposons qu’il existe des bases e0 et f 0 de E et F telles que M 0 = mat(u, e0 , f 0 ).
0 0
En notant P = Pee et Q = Pff , M 0 = Q−1 M P , donc M 0 est équivalente à M .

c Éric Merle 71 MPSI2, LLG


Algébre linéaire 5 Changement de base

Réciproquement, supposons que M 0 est équivalente à M . Il existe P ∈ GLp (K) et


Q ∈ GLn (K) telles que M 0 = Q−1 M P . Il existe une base e0 de E et une base f 0 de F
0 0
telles que P = Pee et Q = Pff . Ainsi M 0 = Q−1 M P = mat(u, e0 , f 0 ).
Propriété. Deux matrices sont équivalentes si et seulement si il est possible de trans-
former l’une en l’autre par une succession d’opérations élémentaires portant sur les
lignes ou sur les colonnes.
Démonstration.
Notons M et M 0 ces deux matrices.
 ⇐= : par hypothèse, il existe deux matrices inversibles P (qui provient des opérations
élémentaires portant sur les colonnes) et Q (qui provient des opérations élémentaires
portant sur les lignes) telles que M 0 = QM P , donc M et M 0 sont équivalentes.
 =⇒ : par hypothèse, il existe deux matrices inversibles P et Q telles que M 0 = QM P .
D’après l’algorithme de Gauss-Jordan d’inversion d’une matrice, la matrice inver-
sible Q peut être transformée en la matrice identité par une succession d’opérations
élémentaires portant sur les lignes. Ces opérations élémentaires correspondent globale-
ment au fait de multiplier Q à sa gauche par une matrice Q0 , donc ces mêmes opérations
transforment M 0 en Q0 M 0 = (Q0 Q)M P = M P . On raisonne de même à droite pour la
matrice P en utilisant des opérations élémentaires portant sur les colonnes.
Théorème. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0
et n > 0, et soit u ∈ L(E, F ). Notons r le rang de u.
Il existe une base e de E et une base f de F telles que mat(u, e, f ) admet la décomposition
en blocs suivante :  
Ir 0r,p−r
mat(u, e, f ) = .
0n−r,r 0n−r,p−r
Pour la suite, cette matrice sera notée Jn,p,r .
Démonstration.
D’après la formule du rang, dim(Ker(u)) = p − r : notons (er+1 , . . . , ep ) une base de
Ker(u), que l’on complète en une base e = (e1 , . . . , en ) de E.
Posons H = Vect(e1 , . . . , er ) : d’après le théorème de la base adaptée à une décomposition
Im(u)
en somme directe, E = H ⊕ Ker(u). On sait alors que u|H est un isomorphisme,
donc (u(e1 ), . . . , u(er )) est une base de Im(u), que l’on complète en une base
f = (u(e1 ), . . . , u(er ), fr+1 , . . . , fn ) de F . Alors mat(u, e, f ) = Jn,p,r .
Propriété. Si M ∈ MK (n, p), M est équivalente à Jn,p,r , où r désigne le rang de M .
Démonstration.
Notons u l’application linéaire canoniquement associée à M .
p n
u a pour rang r, donc il existe une
 base e de K et une base f de K telles que
Ir 0r,p−r
mat(u, e, f ) = = Jn,p,r . Or, dans les bases canoniques de Kp et de
0n−r,r 0n−r,p−r
Kn , la matrice de u est M , donc M et Jn,p,r sont équivalentes.
Corollaire. Deux matrices sont équivalentes si et seulement si elles ont le même rang.

c Éric Merle 72 MPSI2, LLG


Algébre linéaire 5 Changement de base

Démonstration.
Soient M et M 0 deux matrices de MK (n, p). Si M et M 0 ont le même rang noté r, elles
sont toutes deux équivalentes à Jn,p,r , donc M est équivalente à M 0 .
Réciproquement, supposons que M est équivalente à M 0 Il existe P ∈ GLp (K) et
Q ∈ GLn (K) telles que M 0 = Q−1 M P , donc, P étant inversible, rg(M 0 ) = rg(Q−1 M ),
puis rg(M 0 ) = rg(M ).

5.4.2 Propriétés du rang d’une matrice

Propriété. Pour toute matrice M ∈ MK (n, p), rg(M ) = rg(t M ).


On en déduit que le rang de M est aussi le rang de la famille de ses vecteurs lignes.
Démonstration.
Si l’on pose r = rg(M ), on a vu qu’il existe des matrices Q et P inversibles telles que
M = QJn,p,r P , donc t M = t P Jp,n,r t Q. Mais t P et t Q sont inversibles,
donc rg(t M ) = rg(Jp,n,r ) = r.
Propriété. Si l’on effectue une série de manipulations élémentaires sur une matrice,
on ne modifie pas le rang de cette matrice.
Remarque. Pour déterminer le rang d’une matrice, une méthode consiste donc à
transformer cette matrice en une matrice dont on connaı̂t le rang par une succession
d’opérations élémentaires portant sur les lignes ou sur les colonnes. On peut en parti-
culier utiliser l’algorithme du pivot.
En particulier :
Propriété. Le rang d’une matrice est égal au nombre d’étapes dans la méthode du
pivot global.
Démonstration.
Soit M ∈MK (n, p). Par la méthode du pivot total, M est équivalente à une matrice de
T 0k,p−k
la forme , où T est une matrice triangulaire supérieure à coefficients
0n−k,k 0n−k,p−k
diagonaux non nuls (ce sont les pivots successifs) de taille k : k correspond bien au
nombre d’étapes lorsqu’on applique l’algorithme du pivot total à M .
On sait que T est une matrice inversible, donc rg(T ) = k.
Le rang d’une matrice étant égal au rang de la famille de ses colonnes, on a encore
k = rg(( T 0k,p−k )). Enfin, Lerang d’une matrice  étant égal au rang de la famille de
T 0k,p−k
ses lignes, on a encore k = rg( ) = rg(M ).
0n−k,k 0n−k,p−k
Propriété. Soit M ∈ MK (n, p).
Si P est une matrice extraite de M , alors rg(P ) ≤ rg(M ).
Démonstration.
Il existe I ⊂ Nn et J ⊂ Np tels que P = (Mi,j ) i∈I . Posons Q = (Mi,j ) i∈Nn .
j∈J j∈J
Alors, rg(Q) = dim(Vect(Mj )j∈J ) ≤ dim(Vect(Mj )j∈Np ) = rg(M ).
De même, en raisonnant sur les lignes, on montre que rg(P ) ≤ rg(Q).

c Éric Merle 73 MPSI2, LLG


Algébre linéaire 5 Changement de base
 
1 −2 3 2
0 2 1 3 
Exemple. Posons M =   0 0 −1 −1 . M n’est pas de rang 4 car sa dernière

4 5 6 15
colonne est la somme des précédentes, mais M est de rang supérieur ou égal à 3, car
la matrice extraite de M en ôtant la dernière ligne et la dernière colonne est inversible
(car triangulaire supérieure à coefficients diagonaux non nuls). Ainsi rg(M ) = 3.
Propriété. Soit A ∈ MK (n, p) une matrice non nulle.
rg(A) est égal à la taille maximale des matrices inversibles extraites de A.
Démonstration.
Posons A l’ensemble des entiers k tels qu’il existe une matrice inversible extraite de A
de taille k.
 Soit k ∈ A. Il existe une matrice inversible B extraite de A de taille k. Alors d’après
la propriété précédente, k = rg(B) ≤ rg(A). Ainsi A est majorée par rg(A). De plus
1 ∈ A car A est non nulle. Ainsi A est non vide et majoré, donc il possède un maximum
noté s et s ≤ rg(A).
 Posons r = rg(A). Vect(A1 , . . . , Ap ) est de dimension r, donc d’après le théorème
de la base extraite, il existe J ⊂ Np de cardinal r tel que (Aj )1≤j≤r est une base de
Vect(A1 , . . . , Ap ) = Im(A). Posons Q = (Ai,j ) i∈Nn . Q est une matrice extraite de A et
j∈J
rg(Q) = rg((Aj )j∈J ) = r.
Ainsi r est la dimension de l’espace F engendré par les lignes de Q. On peut donc à
nouveau extraire des lignes de Q une base de F : il existe I ⊂ Nn de cardinal r tel que
P = (Ai,j ) i∈I est de rang r.
j∈J
P est une matrice carrée de taille r et de rang r, donc elle est inversible, ce qui conclut.

5.4.3 Matrices semblables

Définition. Deux matrices carrées M et M 0 dans Mn (K) sont semblables si et


seulement s’il existe P ∈ GLn (K) tel que M 0 = P M P −1 . On définit ainsi une seconde
relation d’équivalence sur Mn (K), appelée relation de similitude.
Remarque. Si deux matrices sont semblables, elles sont équivalentes, mais la réciproque
est fausse. En particulier, l’interprétation de la relation de similitude en termes d’opé-
rations élémentaires est délicate et non productive (jusqu’à preuve du contraire).
Remarque. Les classes d’équivalence de la relation d’équivalence sont entièrement
déterminées par un entier, égal au rang des représentants de cette classe. Au contraire,
les classes d’équivalence de la relation de similitude sont nettement plus complexes.
Leur étude constitue la théorie de la réduction que vous étudierez en détail en seconde
année.
Exemple. Une matrice M de Mn (K) est diagonalisable (resp : trigonalisable) si et
seulement si elle est semblable à une matrice diagonale (resp : triangulaire supérieure).

c Éric Merle 74 MPSI2, LLG


Algébre linéaire 6 Les hyperplans

Propriété. Soit E un K-espace vectoriel de dimension n > 0, muni d’une base e, et


soit u ∈ L(E). On note M = mat(u, e). Soit M 0 ∈ Mn (K).
M 0 est semblable à M si et seulement s’il existe une base e0 telle que M 0 = mat(u, e0 ).
En résumé, deux matrices sont semblables si et seulement si elles représentent un même
endomorphisme dans des bases différentes, en imposant de prendre une même base au
départ et à l’arrivée.
Démonstration.
Il suffit d’adapter la démonstration de la propriété analogue portant sur la relation
“être équivalente à”.
Propriété. Soient (M, M 0 ) ∈ Mn (K)2 et P ∈ GLn (K) tels que M 0 = P M P −1 .
Alors, pour tout n ∈ N, M 0n = P M n P −1 et pour tout Q ∈ K[X], Q(M 0 ) = P Q(M )P −1 .
Si M 0 et M sont inversibles, pour tout n ∈ Z, M 0n = P M n P −1 .
Démonstration.
• Pour n = 0, P M 0 P −1 = P P −1 = In = M 0 0 .
Pour n ≥ 0, supposons que M 0n = P M n P −1 .
Alors M 0n+1 = M 0n M 0 = P M n P −1 P M P −1 = P M n+1 P −1 .
On a donc montré par récurrence que, pour tout n ∈X N, M 0n = P M n P −1 .
• Soit Q ∈ K[X]. Il existe (an ) ∈ K(N) tel que Q = an X n .
X  n∈N
X X
−1 n −1
−1
P Q(M )P = P n
an M P = an P M P = an M 0n = Q(M 0 ).
n∈N n∈N n∈N
• Supposons que M et M 0 sont inversibles.
Soit n ∈ N. M 0−n = (M 0n )−1 = (P M n P −1 )−1 = (P −1 )−1 M −n P −1 = P M −n P −1 .
Ainsi, pour tout n ∈ Z, M 0n = P M n P −1 .

6 Les hyperplans
Dans tout ce chapitre, on fixe un K-espace vectoriel E, où K est un corps.

6.1 En dimension quelconque


Définition. Soit H un sous-espace vectoriel de E. On dit que H est un hyperplan si
et seulement si il existe une droite vectorielle D telle que H ⊕ D = E.
Ainsi, les hyperplans sont les supplémentaires des droites vectorielles.
Propriété. Soit H un hyperplan et D une droite non incluse dans H. Alors H⊕D = E.
Démonstration.
Il existe x1 ∈ E \ H tel que D = Kx1 .
 Si x ∈ H ∩ D, il existe λ ∈ K tel que x = λx1 . Si λ 6= 0, alors x1 = λ1 x ∈ H ce qui
est faux, donc λ = 0 puis x = 0, ce qui prouve que la somme H + D est directe.

c Éric Merle 75 MPSI2, LLG


Algébre linéaire 6 Les hyperplans

 Soit x ∈ E. H étant un hyperplan, il existe une droite vectorielle D0 telle que


E = H ⊕ D0 . Il existe x0 ∈ E \ H tel que D0 = Kx0 .
Ainsi, il existe h ∈ H et λ ∈ K tel que x = h + λx0 .
De plus x1 ∈ E = H ⊕ Kx0 , donc il existe également λ1 ∈ K et h1 ∈ H tels que
x1 = h1 + λ1 x0 . λ1 6= 0 car x1 6∈ H, donc x0 = λ11 (x1 − h1 ).
Alors x = (h − λλ1 h1 ) + λλ1 x1 ∈ H ⊕ Kx1 , ce qui prouve que E = H ⊕ D.
Propriété. Soit H une partie de E. H est un hyperplan de E si et seulement si il est
le noyau d’une forme linéaire non nulle.
De plus, si H = Ker(ϕ) = Ker(ψ), alors ϕ et ψ sont colinéaires. Ainsi H est le noyau
d’une forme linéaire non nulle, unique à un coefficient multiplicatif près.
Démonstration.
• Supposons que H = Ker(ϕ), où ϕ ∈ L(E, K) \ {0}.
Il existe x0 ∈ E tel que ϕ(x0 ) 6= 0. x0 6∈ H donc H ∩Kx0 = {0} (raisonnement identique
à celui de la démonstration précédente).
ϕ(x)
De plus, si x ∈ E, en posant λ = , on a ϕ(x) = ϕ(λx0 ), donc x = (x − λx0 ) + λx0
ϕ(x0 )
et x − λx0 ∈ Ker(ϕ) = H, ce qui prouve que E = H ⊕ Kx0 , donc que H est un
hyperplan.
• Réciproquement, supposons que H est un hyperplan de E.
Il existe donc x ∈ E \ {0} tel que E = H ⊕ Kx.
Notons ϕ l’unique forme linéaire telle que ϕ/H = 0 et ϕ(x) = 1. ϕ est non nulle.
De plus, si y = h + λx ∈ E, où h ∈ H et λ ∈ K,
y ∈ Ker(ϕ) ⇐⇒ ϕ(h) + λϕ(x) = 0 ⇐⇒ λ = 0 ⇐⇒ y = h ⇐⇒ y ∈ H, donc
Ker(ϕ) = H.
Soit ψ ∈ L(E, K) telle que H = Ker(ψ). Posons λ = ψ(x).
Soit y = h + αx ∈ E, où h ∈ H et α ∈ K. ψ(y) = αλ = λϕ(y), donc ψ = λϕ.
Définition. Soient H un hyperplan de E et ϕ ∈ L(E, K) \ {0} tel que H = Ker(ϕ).
Alors x ∈ H ⇐⇒ [(E) : ϕ(x) = 0]. On dit que (E) est équation de H.
n Z 1 o
Exemples. f ∈ C([0, 1], R) / f (t) dt = 0 est un hyperplan de C([0, 1], R).
0
L’ensemble des matrices carrées de taille n et de trace nulle est un hyperplan de Mn (K).

6.2 En dimension finie


Notation. On suppose que E est un espace de dimension finie notée n, avec n > 0.
Si e = (e1 , . . . , en ) est une base de E, pour tout i ∈ {1, . . . , n}, on note e∗i l’application
qui associe à tout vecteur x de E sa ième coordonnée dans la base e.
ATTENTION : e∗i dépend non seulement de ei mais également des autres ej : si l’on
change la valeur de e1 dans la base e, on change a priori la valeur de e∗2 .
Propriété. Avec les notations précédentes, la famille e∗ = (e∗i )1≤i≤n est une base de
L(E, K) = E ∗ , que l’on appelle la base duale de e.

c Éric Merle 76 MPSI2, LLG


Algébre linéaire 6 Les hyperplans

Démonstration. n n
X X
Soit Ψ ∈ E ∗ : Pour tout x ∈ E, x = e∗i (x)ei , donc Ψ(x) = e∗i (x)Ψ(ei ).
i=1 i=1
n
X
Ainsi, Ψ = Ψ(ei )e∗i ∈ Vect(e∗1 , . . . , e∗n ).
i=1
Ceci prouve que e∗ est une famille génératrice de E ∗ . De plus
dim(L(E, K)) = dim(E) × dim(K) = n, donc e∗ est une base de E ∗ .
Remarque.
Les hyperplans de E sont les sous-espaces vectoriels de E de dimension n − 1.
Définition. Soit e = (e1 , . . . , en ) une base de E et H un hyperplan de E.
Xn

Si H = Ker(ψ), où ψ ∈ E , en notant ψ = αi e∗i , l’équation de l’hyperplan H
i=1
n
X n
X
devient x = xi ei ∈ H ⇐⇒ αi xi = 0 : (E). On dit que (E) est une équation
i=1 i=1
cartésienne de l’hyperplan H, c’est-à-dire une condition nécessaire et suffisante portant
sur les coordonnées de x dans la base e pour que x appartienne à H.
Démonstration. n n
hX iX  X

x ∈ H ⇐⇒ ψ(x) = 0, or ψ(x) = αi ei xj e j = αi xj e∗i (ej ), or e∗i (ej )
i=1 j=1 1≤i≤n
1≤j≤n
n
X
représente la i-ème coordonnée de ej , donc e∗i (ej ) = δi,j , puis ψ(x) = αi xi , ce qu’il
i=1
fallait démontrer.
Exemple. Dans un plan vectoriel rapporté à une base (~ı, ~), une droite vectorielle D
a une équation cartésienne de la forme :

−v = x~ı + y~ ∈ D ⇐⇒ ax + by = 0, où (a, b) ∈ R2 \ {0}.
Exemple. Dans un espace vectoriel de dimension 3 rapporté à une base (~ı, ~, ~k), un
plan vectoriel P a une équation cartésienne de la forme :


v = x~ı + y~ + z~k ∈ P ⇐⇒ ax + by + cz = 0, où (a, b, c) ∈ R3 \ {0}.

6.3 Les hyperplans affines


Notation. Soit E un espace affine de direction E. On fixe un point O ∈ E.
Définition. On appelle hyperplan affine de E tout sous-espace affine de E dont la
direction est un hyperplan de E.
Propriété. Soit H une partie de E.
H est un hyperplan affine de E si et seulement si il existe ϕ ∈ L(E, K) \ {0} et a ∈ K
−−→
tel que, pour tout M ∈ E, [M ∈ H ⇐⇒ ϕ(OM ) = a].

c Éric Merle 77 MPSI2, LLG


Algébre linéaire 6 Les hyperplans
−−→
Dans ce cas, la condition ϕ(OM ) = a est appelée une équation de H.
De plus, la direction de H est l’hyperplan Ker(ϕ), d’équation ϕ(x) = 0 en l’inconnue
x ∈ E.
Démonstration.
 Supposons que H est un hyperplan affine de direction H.
On sait qu’il existe ϕ ∈ L(E, K) \ {0} tel que H = Ker(ϕ).
Il existe A ∈ H. Ainsi, pour tout M ∈ E,
−−→ −−→ −−→ −→
M ∈ H ⇐⇒ AM ∈ H ⇐⇒ ϕ(AM ) = 0 ⇐⇒ ϕ(OM ) = ϕ(OA).
 Réciproquement, supposons qu’il existe ϕ ∈ L(E, K) \ {0} et a ∈ K tel que, pour
−−→
tout M ∈ E, [M ∈ H ⇐⇒ ϕ(OM ) = a].
ϕ 6= 0, donc rg(ϕ) ≥ 1, mais Im(ϕ) ⊂ K, donc Im(ϕ) = K. Ceci prouve que ϕ est
surjective. En particulier, il existe →

x0 ∈ E tel que ϕ(→

x0 ) = a. De plus il existe A ∈ E

− −→
tel que x0 = OA.
−−→ −→ −−→ −−→
Ainsi, M ∈ H ⇐⇒ ϕ(OM ) = ϕ(OA) ⇐⇒ ϕ(AM ) = 0 ⇐⇒ AM ∈ Ker(ϕ), donc
H = A + Ker(ϕ), ce qui prouve que H est un hyperplan affine de direction Ker(ϕ).


Remarque. Dans le cas particulier où E = E et où O = 0 , l’équation devient
ϕ(M ) = a, donc les hyperplans affines de E sont exactement les ϕ−1 ({a}), avec
ϕ ∈ L(E, K) \ {0} et a ∈ K.
Exemple. {M ∈ Mn (K) / T r(M ) = 2} est un hyperplan affine de Mn (K).
Propriété. Supposons que E est de dimension finie égale à n ∈ N∗ et que E est muni
d’une base e = (e1 , . . . , en ), dont la base duale est notée e∗ = (e∗1 , . . . , e∗n ).
−−→
Soit H un hyperplan affine de E, dont une équation est Ψ(OM ) = a.
Notons (α1 , . . . , αn ) les coordonnées de Ψ dans e∗ . Si M a pour coordonnées (x1 , . . . , xn )
X n
dans le repère affine (O, e), alors M ∈ H ⇐⇒ αi xi = a.
i=1
Cette dernière condition est donc la forme générale d’une équation cartésienne d’hy-
perplan affine en dimension n.
Pour n = 2, on obtient la forme générale d’une équation de droite, et pour n = 3, il
s’agit de la forme générale d’une équation de plan.

6.4 Application aux systèmes linéaires


Notation. On fixe (n, p) ∈ N∗ 2 et on considère un système linéaire de n équations à
p inconnues de la forme :

 α1,1 x1 + ··· + α1,p xp = b1
 . ..
 ..

.


(S) : αi,1 x1 + ··· + αi,p xp = bi ,
. ..
 ..



 .
+ · · · + αn,p xp

αn,1 x1 = bn

c Éric Merle 78 MPSI2, LLG


Algébre linéaire 6 Les hyperplans

où, pour tout (i, j) ∈ {1, . . . , n} × {1, . . . , p}, αi,j ∈ K, pour tout i ∈ {1, . . . , n}, bi ∈ K,
les p inconnues étant x1 , . . . , xp , éléments de K.

Propriété. Notons M = (αi,j ) 1≤i≤n ∈ MK (n, p) la matrice de (S).


1≤j≤p
Ainsi (S) ⇐⇒ M X = B, où B = (bi )1≤i≤n ∈ Kn . Si (S) est compatible, l’ensemble des
solutions de (S) est un sous-espace affine de Kp de dimension p − r, où r désigne le
rang de M et dont la direction est Ker(M ).
Démonstration.
Supposons que (S) est compatible. Il existe X0 ∈ Kp tel que M X0 = B.
Ainsi, (S) ⇐⇒ M X = M X0 ⇐⇒ X − X0 ∈ Ker(M ) ⇐⇒ X ∈ (X0 + Ker(M )).
Notation. Soient E et F des K-espaces vectoriels de dimensions p et n munis de bases
e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ). On note u l’unique application linéaire de L(E, F )
telle que mat(u, e, f ) = M , x le vecteur de E dont les coordonnées dans e sont X et b
le vecteur de F dont les coordonnées dans f sont B. Alors (S) ⇐⇒ u(x) = b.
Propriété. L’ensemble des solutions de (S) est soit vide, soit un sous-espace affine
de E de direction Ker(u).
Quatrième interprétation d’un système linéaire : A l’aide de formes linéaires.
Notons e∗ = (e∗1 , . . . , e∗p ) la base duale de e. Pour tout i ∈ {1, . . . , n}, posons
p
X
li = αi,j e∗j . Ainsi, (l1 , . . . , ln ) est une famille de formes linéaires telles que
j=1
n
\
(S) ⇐⇒ [∀i ∈ {1, . . . , n} li (x) = bi ] et l’ensemble des solutions de (S) est li −1 ({bi }).
i=1
C’est donc une intersection d’hyperplans affines, si pour tout i ∈ Nn , li 6= 0.
Propriété. Si E est un K-espace vectoriel de dimension p, l’intersection de r hyper-
plans vectoriels de E est un sous-espace vectoriel de dimension supérieure à p − r.
Réciproquement tout sous-espace vectoriel de E de dimension p − r où r ≥ 1 est une
intersection de r hyperplans de E, donc est caractérisé par un système de r équations
linéaires.
Démonstration.
 Considérons r (avec r ≥ 1) hyperplans de E, notés H1 , . . . , Hr .
Pour chaque i ∈ {1, . . . , r}, il existe une forme linéaire non nulle `i telle que
\r
Hi = Ker(`i ). Notons F = Hi . Fixons une base e = (e1 , . . . , ep ) de E et notons à
i=1
nouveau e∗ = (e∗1 , . . . , e∗p ) la base duale de e.
p
X
p
Pour tout i ∈ {1, . . . , r}, il existe (αi,j )1≤j≤p ∈ K telle que `i = αi,j e∗j .
j=1
Ainsi, pour tout x ∈ E,
p p
X X
x= xj ej ∈ F ⇐⇒ ∀i ∈ {1, . . . , r} li (x) = 0 ⇐⇒ ∀i ∈ {1, . . . , r} αi,j xj = 0.
j=1 j=1

c Éric Merle 79 MPSI2, LLG


Algébre linéaire 7 Déterminants

Alors avec les notations précédentes, F = Ker(u) et dim(F ) = p − rg(u) ≥ p − r, car


la matrice de u possède r lignes.
 Pour la réciproque, soit F un sous-espace vectoriel de E de dimension p − r
avec r ≥ 1. Notons (fr+1 , . . . , fp ) une base de F , que l’on complète en une base
f = (f1 , . . . , fp ) de E. Notons f ∗ = (f1∗ , . . . , fp∗ ) la base duale de f .
p
X
Si x = xj fj ∈ E, x ∈ F ⇐⇒ x1 = · · · = xr = 0 ⇐⇒ ∀i ∈ {1, . . . , r}, fi∗ (x) = 0.
j=1
Ainsi, F est caractérisé par un système de r équations linéaires.
De plus, en notant Hi = Ker(fi∗ ), [x ∈ F ⇐⇒ ∀i ∈ {1, . . . , r}, x ∈ Hi ], donc F est
l’intersection des r hyperplans H1 , . . . , Hr .
Exemple. Dans un espace vectoriel de dimension 3 rapporté à une base (~ı, ~, ~k), une
droite vectorielle D est caractérisée par un système de 2 équations cartésiennes de la
forme :    0 
 a a

− ~ ax + by + cz = 0
v = x~ı + y~ + z k ∈ D ⇐⇒ , où b , b0  est une
a0 x + b 0 y + c 0 z = 0
   
c c0
3
famille libre dans K .
Propriété. Soit E un espace affine de direction E et F un sous-espace affine de
E dirigé par F 6= E. On sait que F est l’intersection de r hyperplans vectoriels (où
r = dim(E) − dim(F )) H1 , . . . , Hr , qui sont chacun le noyau d’une forme linéaire non
nulle, notée ϕ1 , . . . , ϕr .
Il existe A ∈ E tel que F = A + F , donc
−−→ −−→ −→
M ∈ F ⇐⇒ AM ∈ F ⇐⇒ (∀i ∈ {1, . . . , r} ϕi (OM ) = ϕi (OA)).
Cette dernière condition constitue un système d’équations de F.
Ainsi, tout sous-espace affine de E peut être caractérisé par un système d’équations
linéaires.
Corollaire. Tout sous-espace affine strictement inclus dans E est une intersection
d’un nombre fini d’hyperplans affines.

7 Déterminants
7.1 Applications multilinéaires
Définition. Soient p ∈ N∗ et (E1 , . . . , Ep ) une famille de p K-espaces vectoriels.
Soient F un K-espace vectoriel et f une application de E1 × · · · × Ep dans F .
f est une application p-linéaire si et seulement si, pour tout j ∈ Np
et pour tout (a1 , . . . , aj−1 , aj+1 , . . . , ap ) ∈ E1 × · · · × Ej−1 × Ej+1 × . . . × Ep ,
E −→ F
l’application j est linéaire.
xj 7−→ f (a1 , . . . , aj−1 , xj , aj+1 , . . . , ap )
Définition. Une application bilinéaire est une application 2-linéaire.
Notation.

c Éric Merle 80 MPSI2, LLG


Algébre linéaire 7 Déterminants

— Lp (E1 , . . . , Ep ; F ) désigne l’ensemble des applications p-linéaires de E1 ×· · ·×Ep


dans F . C’est un sous-espace vectoriel de F(E1 × · · · × Ep , F ).
— On note Lp (E, F ) = Lp (E, . . . , E ; F ).
| {z }
p fois
— Enfin, on note Lp (E) = Lp (E, K).
Les éléments de Lp (E) sont appelés des formes p-linéaires sur E.
(R2 )3 −→ R
Exemple. L’application
((x, x0 ), (y, y 0 ), (z, z 0 )) 7−→ xy 0 z 0 − 2x0 yz 0 + 3x0 yz
est une forme trilinéaire sur R2 .
Notation. Pour la suite de ce paragraphe, on fixe p ∈ N∗
et deux K-espaces vectoriels E et F .
Propriété. Soit u1 , . . . , up p applications linéaires de E dans K.
u: E p −→ Kp
Alors l’application ui (xi ) est une forme p-linéaire.
Y
(x1 , . . . , xp ) 7−→
i=1
Démonstration.
Soient j ∈ Np et (a1 , . . . , aj−1 , aj+1 , . . . , ap ) ∈ E p−1 .
v : E −→ K
Notons .
x 7−→ u(x 1 , . . . , xj−1 , x,
 xj+1 , . . . , xp )
Y
Pour tout x ∈ E, v(x) =  ui (xi ) uj (x), or uj est linéaire, donc v est linéaire.

1≤i≤p
i6=j
Ainsi, u est une forme p-linéaire.
Propriété. On suppose que E est de dimension finie n ∈ N∗ et on note
e = (e1 , . . . , en ) une base de E. Une application f de E p dans F est p-linéaire si
et seulement s’il existe une famille (αu )u∈Npn de vecteurs de F telle que, pour tout
Xn X
(x1 , . . . , xp ) = ( ai,j ei )1≤j≤p ∈ E p , f (x1 , . . . , xp ) = ai1 ,1 . . . aip ,p αu .
i=1 u=(i1 ,...,ip )∈Npn
Démonstration. n
X
• Supposons que f ∈ Lp (E, F ). Soit (x1 , . . . , xp ) = ( ai,j ei )1≤j≤p ∈ E p .
i=1
Xn
f (x1 , . . . , xp ) = f ( ai,1 ei , x2 , . . . , xp ),
i=1
donc en utilisant la linéarité selon la première variable,
n
X
f (x1 , . . . , xp ) = ai,1 f (ei , x2 , . . . , xp ), puis
i=1
n
X n
X
f (x1 , . . . xp ) = ai,1 aj,2 f (ei , ej , x3 , . . . , xp ).
i=1 j=1

c Éric Merle 81 MPSI2, LLG


Algébre linéaire 7 Déterminants

Le développement de x1 a nécessité l’utilisation d’une variable notée i, puis le développement


de x2 a nécessité l’utilisation d’une seconde variable notée j. Pour développer x1 , x2 ,
. . ., xp , nous avons besoin de p variables. Nous allons les noter i1 , i2 , . . ., ip , ce qui
impose de renommer i et j en i1 et i2 . Ainsi,
n X
X n
f (x1 , . . . xp ) = ai1 ,1 ai2 ,2 f (ei1 , ei2 , x3 , . . . , xp ). En poursuivant ce calcul, on ob-
i1 =1 i2 =1
X
tient f (x1 , . . . , xp ) = ai1 ,1 . . . aip ,p f (ei1 , . . . , eip ).
u=(i1 ,...,ip )∈Npn
• Réciproquement, Lp (E, F ) étant un K-espace vectoriel , il suffit de montrer que pour
n
E p −→ K
tout u = (i1 , . . . , ip ) ∈ Npn , l’application ( est p-
X
a e) 7−→ a . . . a i,j i 1≤j≤p i1 ,1 ip ,p
i=1
−→ Kp Ep
linéaire, mais il s’agit de l’application (x , . . . , x ) 7−→ e∗ij (xj ) , or les applications
Y
1 p
j=1
coordonnées e∗j sont des formes linéaires, donc d’après une propriété précédente, cette
application est bien une forme p-linéaire.
Définition. Soient σ ∈ Sp et f ∈ Lp (E, F ).
σ(f ) : E p −→ F
On note .
(x1 , . . . , xp ) 7−→ f (xσ(1) , . . . , xσ(p) )
On vérifie que σ(f ) est une application p-linéaire de E dans F .
Sp × Lp (E, F ) −→ Lp (E, F )
Propriété. L’application , est une opération du groupe
(σ, f ) 7−→ σ(f )
(Sp , ◦) sur l’ensemble Lp (E, F ).
Démonstration.
Soient (σ, σ 0 ) ∈ Sp2 , f ∈ Lp (E, F ) et (x1 , . . . , xp ) ∈ E p .
σ 0 (σ(f ))(x1 , . . . , xp ) = σ(f )(xσ0 (1) , . . . , xσ0 (p) ).
Notons (y1 , . . . , yp ) = (xσ0 (1) , . . . , xσ0 (p) ). Ainsi, pour tout i ∈ Np , yi = xσ0 (i) , donc
σ 0 (σ(f ))(x1 , . . . , xp ) = f (yσ(1) , . . . , yσ(p) ) = f (xσ0 (σ(1)) , . . . , xσ0 (σ(p)) ), ce qui prouve que

∀(σ, σ 0 ) ∈ Sp2 ∀f ∈ Lp (E, F ) σ 0 (σ(f )) = (σ 0 σ)(f ).

De plus, IdNp (f ) = f , donc (σ, f ) 7−→ σ(f ) est bien une opération de groupe.
Définition. Soit f ∈ Lp (E, F ). f est une application p-linéaire symétrique si et
seulement si pour tout σ ∈ Sp , σ(f ) = f .
f est une application p-linéaire antisymétrique si et seulement si pour tout
σ ∈ Sp , σ(f ) = ε(σ)f , où ε(σ) désigne la signature de la permutation σ.
Propriété. Soit f ∈ Lp (E, F ).
f est symétrique si et seulement si pour toute transposition τ de Sp , τ (f ) = f .
f est antisymétrique si et seulement si pour toute transposition τ de Sp , τ (f ) = −f .

c Éric Merle 82 MPSI2, LLG


Algébre linéaire 7 Déterminants

Démonstration.
Supposons que pour toute transposition τ de Sp , τ (f ) = −f .
Soit n ∈ N∗ . Notons R(n) l’assertion suivante :
pour toute famille de n transpositions (τ1 , . . . , τn ), (τ1 ◦ · · · ◦ τn )(f ) = (−1)n f .
Par récurrence sur n, il est simple de montrer que R(n) est vraie pour tout n ∈ N∗ .
Soit σ ∈ Sp . L’ensemble des transpositions engendre Sp , donc il existe un nombre fini
de transpositions, notées τ1 , . . .,τn , telles que σ = τ1 ◦ · · · ◦ τn .
D’après R(n), σ(f ) = (−1)n f = ε(σ)f .
Ainsi, f est une application p-linéaire antisymétrique.
La réciproque est simple à prouver.
Pour démontrer que f est symétrique si et seulement si pour toute transposition τ de
Sp , τ (f ) = f , il suffit d’adapter la démonstration précédente.
Exemples.
Kp −→ K
— L’application est p-linéaire symétrique.
(x1 , . . . , xp ) 7−→ x1 × · · · × xp
2 2
  (K ) −→ K    
— L’application a c a c est une forme
( , ) 7−→ ad − bc = det( , )
b d b d
bilinéaire antisymétrique.
Définition. Soit f ∈ Lp (E, F ). f est une application p-linéaire alternée si et
seulement si elle annule tout p-uplet de vecteurs de E contenant au moins deux vecteurs
égaux.
Propriété. Soit f ∈ Lp (E, F ).
Si f est alternée, alors elle est antisymétrique.
Lorsque car(K) 6= 2, alternée ⇐⇒ antisymétrique.
Démonstration.
Pour simplifier, on se limite au cas où p = 2, mais le principe de la démonstration est
valable dans le cas général : il suffit d’adapter au prix de notations plus lourdes.
 Supposons que f est alternée. Soit x, y ∈ E.
0 = f (x + y, x + y) = f (x, x) + f (y, y) + f (x, y) + f (y, x) = f (x, y) + f (y, x),
donc f (x, y) = −f (y, x).
 On suppose que f est antisymétrique et que car(K) 6= 2. Soit x ∈ E.
f (x, x) = −f (x, x), donc (2.1K )f (x, x) = 0, or 2.1K 6= 0, donc f (x, x) = 0.
Remarque. Lorsque K est de caractéristique 2, l’équivalence n’est plus vraie. Par
exemple l’application f : (Z/2Z)2 −→ Z/2Z définie par f (x, y) = xy est dans
L2 (Z/2Z), mais elle n’est pas alternée car f (1, 1) = 1 6= 0. Pourtant elle est symétrique,
donc antisymétrique, car dans K = Z/2Z, 1K = −1K .
Propriété. f ∈ Lp (E, F ) est alternée si et seulement si pour tout (x1 , . . . , xp ) ∈ E p ,
f (x1 , . . . , xp ) ne varie pas lorsque l’on ajoute à l’un des xi une combinaison linéaire des
autres xj .

c Éric Merle 83 MPSI2, LLG


Algébre linéaire 7 Déterminants

Plus formellement, f est alternée si et seulement si

∀(x1 , . . . , xp ) ∈ E1 × · · · × Ep ∀i ∈ Np ∀(αj )j∈Np \{i} ∈ Kp−1


X
f (x1 , . . . , xp ) = f (x1 , . . . , xi−1 , xi + αj xj , xi+1 , . . . , xp ) .
j6=i

Propriété. f ∈ Lp (E, F ) est alternée si et seulement si l’image par f de toute famille


liée de vecteurs est nulle.
Démonstration.
 Supposons que f est alternée.
p
X
p
Si (x1 , . . . , xp ) est lié, il existe (α1 , . . . , αp ) ∈ K tel que αi xi = 0, avec
i=1
−1 X
(α1 , . . . , αp ) 6= 0. Il existe j ∈ {1, . . . , p} tel que αj 6= 0. Ainsi, xj = αi xi , donc
αj 1≤i≤p
j6=i

f (x1 , . . . , xp ) = f (x1 , . . . , xj−1 , 0, xj+1 , . . . , xp ) = 0.


 Réciproquement, supposons que l’image par f de toute famille liée de vecteurs est
nulle. Tout p-uplet de vecteurs de E contenant au moins deux vecteurs égaux est lié,
donc son image par f est nulle. Ceci prouve que f est alternée.
Corollaire. Si E est de dimension n ∈ N∗ et si p > n, toute forme p-linéaire alternée
sur E est nulle.

7.2 Les trois notions de déterminants


Au sein de ce paragraphe, E désignera un K-espace vectoriel de dimension finie égale
à n, avec n > 0.

7.2.1 Volume
Supposons temporairement que K = R.
Enoncé du problème :
Pour tout x = (x1 , . . . , xn ) ∈ E n , on note Hx l’hyperparallélépipède
Xn
Hx = { ti xi / t1 , . . . , tn ∈ [0, 1]} : c’est l’unique hyperparallélépipède de E dont les
i=1
côtés issus de l’origine sont x1 , . . . , xn .
On souhaite définir une fonction vol : E n −→ R telle que, pour tout
x = (x1 , . . . , xn ) ∈ E n , |vol(x)| soit égal au volume de Hx , en s’appuyant sur l’idée
intuitive que l’on a de la notion de volume d’une partie de E (vu comme un espace
affine). On souhaite de plus que le signe de vol(x) corresponde à l’orientation du n-
uplet x, en s’appuyant également sur une idée intuitive de la notion d’orientation. On
dira que vol(x) est le volume algébrique de Hx et par opposition, que |vol(x)| est son
volume absolu.

c Éric Merle 84 MPSI2, LLG


Algébre linéaire 7 Déterminants

Cas d’un hyperparallélépipède plat :


Si x est lié, Hx est “plat”, donc on impose vol(x) = 0 dès que x est une famille liée de
n vecteurs.

Homogénéité de la fonction vol :


Supposons maintenant que x est libre. Ainsi, x est une base de E.
Si l’on remplace l’un des xi par λxi , où λ ∈ R, le volume de Hx doit être multiplié
par ±λ, car le volume absolu de Hx est intuitivement proportionnel à la longueur de
chacun de ses côtés. Plutôt que de parler d’intuition, on peut dire que cette propriété
est un axiome que doit vérifier toute notion de volume. De même, nous conviendrons
que l’orientation d’un n-uplet de vecteurs de E est positive ou négative (il n’y a que
deux valeurs possibles pour l’orientation) et que le fait de remplacer l’un des vecteurs
xi par λxi avec λ < 0 change l’orientation du n-uplet. Alors la fonction vol doit vérifier
la propriété suivante : pour tout x = (x1 , . . . , xn ) ∈ E n , pour tout i ∈ Nn , pour tout
λ ∈ R, vol(x1 , . . . , xi−1 , λxi , xi+1 , . . . , xn ) = λvol(x1 , . . . , xi−1 , xi , xi+1 , . . . , xn ).
Lorsque x est lié, cette propriété est vraie car elle se réduit à 0 = 0.

n-linéarité de vol :
Fixons i, j ∈ Nn ainsi que (xk )k∈Nn \{i,j} une famille de n − 2 vecteurs (si n = 1, E est
de dimension 1 et vol est clairement linéaire d’après le point précédent, donc on peut
supposer que n ≥ 2). Pour tout xi , xj ∈ E 2 , posons f (xi , xj ) = vol(xk )k∈Nn .
1◦ ) Soit a, b ∈ E 2 . Commençons par établir que f (a + b, b) = f (a, b).
Notons égalementX a = xi et b = xj .
Posons G = { tk xk / ∀k, tk ∈ [0, 1]}.
1≤k≤n
k∈{i,j}
/

Alors Hx = {xa + yb / (x, y) ∈ [0, 1]2 } + G. Il s’agit de montrer que Hx a le même


volume absolu que K = {x(a + b) + yb / (x, y) ∈ [0, 1]2 } + G et que x a la même
orientation que le n-uplet x0 obtenu à partir de x en remplaçant xi par xi + xj .
Figure

Conformément à la figure, posons A = {xa + yb / x, y ∈ [0, 1] ∧ y ≤ x} + G,


B = {xa + yb / x, y ∈ [0, 1] ∧ y ≥ x} + G et notons C l’image de A par la translation
de vecteur b, c’est-à-dire C = b + A.
Selon la figure, Hx = A ∪ B et vol(A ∩ B) = 0, K = B ∪ C et vol(B ∩ C) = 0.
On peut le démontrer formellement :
1.1] A ∩ B = {x(a + b) / x ∈ [0, 1]} + G : c’est l’hyperparallélépipède associé à x0
xi + xj 0
déduit de x en remplaçant xi et xj par . x est lié, donc vol(A ∩ B) = 0.
2
1.2] C = {xa + (1 + y)b / x, y ∈ [0, 1] ∧ y ≤ x} + G,
donc B ∩ C = {xa + b / x ∈ [0, 1]} = b + {xa / x ∈ [0, 1]} + G.
Il est raisonnable d’imposer à la notion de volume d’être invariante par translation.
Alors |vol(B ∩ C)| = |vol(Hx00 )| où x00 se déduit de x en remplaçant xi et xj par x2i .
Ainsi, on a bien vol(B ∩ C) = 0.

c Éric Merle 85 MPSI2, LLG


Algébre linéaire 7 Déterminants

1.3] Si x, y ∈ [0, 1], on a bien sûr, x ≤ y ou bien y ≤ x, donc Hx = A ∪ B.


K = S {xa + (x + y)b / (x, y) ∈ [0, 1]2 ∧ x + y ≤ 1} + G
{xa + (x + y)b / (x, y) ∈ [0, 1]2 ∧ x + y ≥ 1} + G
= S {xa + zb / x, z ∈ [0, 1] ∧ x ≤ z} + G
[b + {xa + (x − z)b / x, z ∈ [0, 1] ∧ x − z ≥ 0} + G]
= B ∪ (b + A) = B ∪ C.
Ainsi, on a montré qu’on peut passer de l’hyperparallélépipède Hx à l’hyperparallélé-
pipède K en découpant Hx en deux morceaux disjoints (au sens que l’intersection de
ces deux morceaux est de volume nul), en translatant l’un des deux morceaux puis
en effectuant à nouveau la réunion disjointe des deux morceaux. Il est raisonnable
d’imposer aux notions de volume absolu et d’orientation d’être invariantes par cette
opération. Alors Hx et K ont le même volume algébrique, ce qui montre que
f (a + b, b) = f (a, b), pour tout a, b ∈ E 2 .
2◦ ) Soit maintenant λ ∈ R∗ . Alors f (a + λb, b) = λ1 f (a + λb, λb) = λ1 f (a, λb) = f (a, b).
Ainsi vol(x) n’est pas modifié si l’on ajoute à l’un des xi le vecteur λxj , où λ ∈ R et
j ∈ Nn \ {i}. Donc, pour tout x ∈ E n , vol(x) n’est pas modifié si l’on ajoute à l’un des
xi une combinaison linéaire des autres xj .
3◦ ) On reprend les notations du 1◦ ).
a) pour tout λ ∈ R, f (a + λa, b) = (1 + λ)f (a, b) = f (a, b) + f (λa, b), donc lorsque c
est colinéaire à a, f (a + c, b) = f (a, b) + f (c, b) (c’est évident lorsque a est nul).
b) Si maintenant c est quelconque dans E, lorsque x est une base de E, on peut écrire
c = λa + d, où d est une combinaison linéaire des autres vecteurs xj .
Alors d’après 2◦ ), f (a + c, b) = f (a + λa, b) = f (a, b) + f (λa, b) = f (a, b) + f (c, b).
c) Lorsque {b} ∪ {xk / k ∈ Nn \ {i, j}} est liée, alors f (a + c, b) = 0 = f (a, b) + f (c, b).
d) Il reste à étudier le cas où x n’est pas une base mais où les n − 1 vecteurs
{b} ∪ {xk / k ∈ Nn \ {i, j}} sont libres. Alors a = xi est une combinaison linéaire des
autres xj , donc f (a + c, b) = f (c, b) = f (a, b) + f (c, b).
4◦ ) Ainsi, pour tout a, b, c ∈ E, f (a + c, b) = f (a, b) + f (c, b), puis d’après la propriété
d’homogénéité de vol, pour tout a, b, c ∈ E et λ ∈ R, f (a + λc, b) = f (a, b) + λf (c, b).
Ceci prouve que vol est bien n-linéaire. De plus elle est alternée, car elle s’annule sur
tout n-uplet lié de vecteurs de E.

Conclusion :
Si vol est une application de E n dans R telle que, pour tout x ∈ E n , |vol(x)| représente
le volume de Hx et le signe de vol(x) représente l’orientation du n-uplet x, alors en
imposant des contraintes raisonnables aux notions de volume absolu et d’orientation,
l’application vol est nécessairement une forme n-linéaire alternée.
En particulier, il suffit d’appeler orientation toute application O définie sur l’en-
semble B des bases de E à valeurs dans {1, −1} telle que, pour tout x ∈ E n :
— si l’on change l’un des vecteurs de x par son opposé, alors O(x) est remplacé
par son opposé.

c Éric Merle 86 MPSI2, LLG


Algébre linéaire 7 Déterminants

— On ne change pas O(x) si l’on multiplie l’un des vecteurs de x par un réel
strictement positif, ou bien si l’on ajoute à l’un des vecteurs de x un autre
vecteur de x.

7.2.2 Déterminant d’un système de n vecteurs

Notation. Notons An (E) l’ensemble des formes n-linéaires alternées.


On choisit une base e de E. Soit f : E n −→ K une forme n-linéaire alternée. Alors,
d’après un calcul présenté page 82,
X n
pour tout x = (x1 , . . . , xn ) = ( pi,j ei )1≤j≤n ∈ E n ,
X i=1
f (x1 , . . . , xn ) = pi1 ,1 . . . pin ,n f (ei1 , . . . , ein ), ou, avec d’autres notations,
u=(i1 ,...,in )∈Nn
n
X
f (x1 , . . . , xn ) = pu(1),1 . . . pu(n),n f (eu(1) , . . . , eu(n) ).
u∈F (Nn ,Nn )
Si u est une injection de Nn dans Nn , alors on sait que u est une bijection, donc lorsque
u ∈ F(Nn , Nn ) \ Sn , u n’est pas injective : il existe (i, j) ∈ Nn 2 avec i 6= j tel que
u(i) = u(j). Alors, eu(i) = eu(j) , or f est alternée, donc f (eu(1) , . . . , eu(n) ) = 0.
X
Ainsi, f (x1 , . . . , xn ) = pu(1),1 . . . pu(n),n f (eu(1) , . . . , eu(n) ). De plus, f étant alternée,
u∈Sn
X
elle est antisymétrique, donc f (x1 , . . . , xn ) = pu(1),1 . . . pu(n),n ε(u)f (e1 , . . . , en ).
u∈Sn
dete : En −→ K
n
Posons, pσ(1),1 . . . pσ(n),n ε(σ) .
X X
(x1 , . . . , xn ) = ( pi,j ei )1≤j≤n 7−→
i=1 σ∈Sn
On a montré que, pour tout f ∈ An (E), (1) : f = f (e1 , . . . , en )dete .
Définition. Soit e = (e1 , . . . , en ) une base de E et x = (x1 , . . . , xn ) un système de n
vecteurs de E. On pose P = mate (x), de sorte que Pi,j désigne la i-ème coordonnée
dans la base e de xj . On appelle déterminant du système de vecteurs x dans la
base e la quantité suivante :
n

X Y
dete (x1 , . . . , xn ) = ε(σ) Pσ(j),j .
σ∈Sn j=1

   
a c
Exemple. Prenons E = K2 et x = ( , ). Alors detc (x) = ad − bc. Ainsi,
b d
cette définition est cohérente avec nos précédentes définitions de déterminants.
Théorème. Soit e une base de E.
Si f est une forme n-linéaire alternée sur E, alors f = f (e)dete .

c Éric Merle 87 MPSI2, LLG


Algébre linéaire 7 Déterminants

Démonstration.
Il s’agit de la formule (1).
Propriété. Avec les notations précédentes, on a aussi
X n
Y X n
Y
dete (x1 , . . . , xn ) = ε(σ) Pj,σ(j) = ε(σ) e∗j (xσ(j) ).
σ∈Sn j=1 σ∈Sn j=1
Démonstration.
Posons x = (x1 , . . . , xn ).
X Y n
dete (x) = ε(σ) Pσ(j),σ−1 (σ(j)) , donc en posant k = σ(j) dans le produit,
σ∈Sn j=1
X Yn
dete (x) = ε(σ) Pk,σ−1 (k) . De plus, l’application σ 7−→ σ −1 étant une bijection
σ∈Sn k=1
X n
Y
−1 −1
de Sn dans lui-même, on peut poser s = σ . Ainsi, dete (x) = ε(s ) Pj,s(j) .
s∈Sn j=1
Mais ε est un morphisme de groupes à valeurs dans {1, −1}, donc pour tout s ∈ Sn ,
X n
Y
ε(s−1 ) = ε(s)−1 = ε(s). Ainsi, dete (x) = ε(σ) Pj,σ(j) .
σ∈Sn j=1

Formule de Sarrus : En notant c la base canonique de K3 ,


     
p1,1 p1,2 p1,3
detc ( p2,1  ,  p2,2  ,  p2,3 ) = p1,1 p2,2 p3,3 + p2,1 p3,2 p1,3 + p3,1 p1,2 p2,3
p3,1 p3,2 p3,3
−p1,3 p2,2 p3,1 − p2,3 p3,2 p1,1 − p3,3 p1,2 p2,1 .

Démonstration.
S3 = {IdN3 , (1 3 2), (1 2 3), (1 3), (2 3), (1 2)}.
Propriété. dete est une forme n-linéaire alternée.
Démonstration.
 Soit σ ∈ Sn . Posons fσ l’application de E n dans K définie par
n
Y n
Y

fσ (x1 , . . . , xn ) = ej (xσ(j) ) = e∗σ−1 (j) (xj ). D’après une propriété du paragraphe
j=1 j=1
X
précédent, fσ est une forme n-linéaire, donc dete = ε(σ)fσ est aussi une forme
σ∈Sn
n-linéaire.
 Soit x = (x1 , . . . , xn ) ∈ E n . On suppose qu’il existe h, k ∈ {1, . . . , n} tels que h < k
et xh = xk . Il s’agit de montrer que dete (x) = 0.
Notons τ la transposition (h k) et An le groupe alterné de degré n, c’est-à-dire le
sous-groupe des permutations paires de Sn . On sait que Sn = An t τ An .
X Yn XY n XY n
∗ ∗
Ainsi, dete (x) = ε(σ) ej (xσ(j) ) = ej (xσ(j) ) − e∗j (xτ σ(j) ),
σ∈Sn j=1 σ∈An j=1 σ∈An j=1

c Éric Merle 88 MPSI2, LLG


Algébre linéaire 7 Déterminants
n
XY n
XY
ou encore dete (x) = e∗σ−1 (j) (xj ) − e∗σ−1 (j) (xτ (j) ).
σ∈An j=1 σ∈An j=1
Or, pour tout j ∈ Nn , xj = xτ (j) , donc dete (x) = 0.
Propriété. dete (e) = 1.
Démonstration. n
X Y
dete (e) = ε(σ) δj,σ(j) = ε(IdNn ) = 1.
σ∈Sn j=1

Propriété. An (E) est une droite vectorielle dirigée par dete .


Démonstration.
D’après le théorème précédent, tout élément f de An (E) est colinéaire à dete ,
donc An (E) ⊂ Vect(dete ).
De plus, dete ∈ An (E), donc Vect(dete ) ⊂ An (E). Ainsi, An (E) = Vect(dete ).
Or dete 6= 0, car dete (e) = 1 6= 0, donc (dete ) est un système libre qui engendre An (E).

Remarque. Ainsi, à un coefficient multiplicatif non nul prés, il n’y a qu’une forme
n-linéaire alternée sur un K-espace vectoriel de dimension n.
Dans un R-espace vectoriel de dimension n, la seule façon raisonnable de définir le
volume algébrique de l’hyperparallélépipède Hx associé à un n-uplet x de n vecteurs
est donc de choisir une base e et de convenir que ce volume est égal à dete (x). L’unité
de volume est alors le volume de He . Changer le choix de la base e se limite à multiplier
cette notion de volume par un réel non nul, ce qui change l’orientation si et seulement
si ce réel est négatif.
En résumé, dete est la seule définition raisonnable du volume algébrique de Hx .

7.2.3 Déterminant d’une matrice

Définition. Soit M ∈ Mn (K). Le déterminant de M , noté det(M ) est le déterminant


des vecteurs colonnes de M dans la base canonique de Kn .
Représentation tabulaire.
Si M = (αi,j ) ∈ Mn (K). On note

α1,1 ··· α1,n


det(M ) = ... ..
. .
αn,1 · · · αn,n

Propriété. Soit M = (mi,j ) ∈ Mn (K).

X n
Y X n
Y
det(M ) = ε(σ) mj,σ(j) = ε(σ) mσ(j),j = det(t M ).
σ∈Sn j=1 σ∈Sn j=1

c Éric Merle 89 MPSI2, LLG


Algébre linéaire 7 Déterminants

Ainsi det(M ) est aussi le déterminant des vecteurs lignes de M dans la base canonique
de Kn .
Formule de Sarrus :
p1,1 p1,2 p1,3
p2,1 p2,2 p2,3 = p1,1 p2,2 p3,3 + p2,1 p3,2 p1,3 + p3,1 p1,2 p2,3
p3,1 p3,2 p3,3
−p1,3 p2,2 p3,1 − p2,3 p3,2 p1,1 − p3,3 p1,2 p2,1 .

7.2.4 Déterminant d’un endomorphisme

Définition. Soit u ∈ L(E). Le déterminant de l’endomorphisme u est l’unique


scalaire, noté det(u), vérifiant ∀f ∈ An (E) ∀x ∈ E n f (u(x)) = (det(u))f (x) .
Démonstration.
Si f ∈ An (E), notons fu l’application de E n dans K définie par
f (x1 , . . . , xn ) = f (u(x1 ), . . . , u(xn )). On vérifie que fu est n-linéaire et alternée. Ainsi
ϕu : f 7−→ fu est une application de An (E) dans lui-même. On vérifie que ϕu est
linéaire. Mais An (E) est une droite vectorielle, donc dim(L(An (E)) = 1 et
An (E) = Vect{IdAn (E) } : il existe un unique scalaire, noté det(u) tel que
ϕu = det(u).IdAn (E) , c’est-à-dire tel que, pour tout f ∈ An (E), fu = det(u).f .
Propriété. Soient e une base de E et u ∈ L(E).
Pour tout (x1 , . . . , xn ) ∈ E n , dete (u(x1 ), . . . , u(xn )) = det(u)dete (x1 , . . . , xn ).
En particulier, det(u) = dete (u(e1 ), . . . , u(en )) .
Cependant, det(u) ne dépend pas du choix de la base e.
Propriété. Pour toute base e de E et pour tout u ∈ L(E), det(u) = det(M at(u, e)).
Démonstration.
det(u) = dete (u(e1 ), . . . , u(en )), mais si l’on note M at(u, e) = M = (mi,j ), par définition
X Yn
de dete , det(u) = ε(σ) mσ(j),j , donc det(u) = det(M ).
σ∈Sn j=1

Exemple. Si σ ∈ Sn , on note Pσ = (δi,σ(j) ) ∈ Mn (K). Alors det(Pσ ) = ε(σ).


Démonstration.
Notons e = (e1 , . . . , en ) la base canonique de Kn . Si s ∈ Sn , notons us l’endomorphisme
canoniquement associé à la matrice Ps : Pour tout j ∈ {1, . . . , n}, us (ej ) = es(j) .
Alors det(Pσ ) = dete (uσ (e1 ), . . . , uσ (en )) = ε(σ)dete (e) = ε(σ).

7.3 Propriétés du déterminant


Notation.
On fixe n ∈ N∗ , E un K-espace vectoriel de dimension n et e une base de E.
Propriété. dete est n-linéaire alternée, donc antisymétrique. dete (e) = 1.

c Éric Merle 90 MPSI2, LLG


Algébre linéaire 7 Déterminants

dete (x1 , . . . , xn ) n’est pas modifié si l’on ajoute à l’un des xi une combinaison linéaire
des autres xj .
Propriété. Le déterminant d’une matrice M de Mn (K) est modifié en :
— det(M ) pour une opération élémentaire du type Li ←− Li + λLj
ou Ci ←− Ci + λCj ;
— αdet(M ) pour une opération élémentaire du type Li ←− αLi ou Ci ←− αCi ;
— −detM pour un échange entre deux lignes ou deux colonnes.
ATTENTION : En général, det(αM + N ) 6= αdet(M ) + det(N ).
Méthode : Pour calculer le déterminant d’une matrice, on tente de modifier la matrice
par des manipulations élémentaires, afin de se ramener à une matrice dont on connait
le rang ou le déterminant.
Propriété. det(IdE ) = 1, det(In ) = 1.
Pour tout λ ∈ K et u ∈ L(E), det(λu) = λn det(u).
Pour tout λ ∈ K et A ∈ Mn (K), det(λA) = λn det(A).
Théorème. Si f, g ∈ L(E), alors det(f g) = det(f ) × det(g) .
Pour tout A, B ∈ Mn (K), det(AB) = det(A)det(B).
Démonstration.
det(f ◦ g) = dete (f ◦ g(e1 ), . . . , f ◦ g(en ))
= det(f )dete (g(e1 ), . . . , g(en ))
= det(f )det(g).
Formule de changement de base : Soient e et e0 deux bases de E, et soit x une
famille de n vecteurs de E. Alors, dete0 (x) = dete0 (e)dete (x) .
Démonstration.
C’est la formule (1) appliquée avec f = dete0 .
Théorème. x est une base si et seulement si dete (x) 6= 0.
Démonstration.
Supposons que x est une base, alors 1 = detx (x) = detx (e) × dete (x), donc dete (x) 6= 0.
Réciproquement, si x n’est pas une base, alors x est une famille liée de n vecteurs, or
dete est alternée, donc dete (x) = 0.
Corollaire. Soit u ∈ L(E) et A ∈ Mn (K).
1
u ∈ GL(E) si et seulement si det(u) 6= 0 et dans ce cas, det(u−1 ) = .
det(u)
1
A ∈ GLn (K) si et seulement si det(A) 6= 0 et dans ce cas, det(A−1 ) = .
det(A)
Démonstration.
u ∈ GL(E) si et seulement si u(e) est une base de E, donc si et seulement si
det(u) = dete (u(e)) 6= 0.
Lorsque u est inversible, det(u) × det(u−1 ) = det(u ◦ u−1 ) = det(IdE ) = 1.

c Éric Merle 91 MPSI2, LLG


Algébre linéaire 7 Déterminants

Remarque. det est donc un morphisme du groupe GL(E) vers (K∗ , ×). Son noyau
est un sous-groupe (distingué) de GL(E), noté SL(E). C’est le groupe spécial linéaire
de E : SL(E) = {u ∈ L(E) / det(u) = 1}.
On dispose en particulier de SLn (K) = {M ∈ Mn (K) / det(M ) = 1} : c’est le groupe
spécial linéaire de degré n.
Propriété. Deux matrices carrées semblables ont le même déterminant.
Ainsi le déterminant, comme la trace et le rang, est un invariant de similitude.

7.4 Calcul des déterminants


Notation. c = (c1 , . . . , cn ) désigne la base canonique de Kn .
Lemme. On suppose que n ≥ 2. Soit A une matrice de Mn (K) dont la dernière colonne
est cn . Alors det(A) est égal au déterminant de la matrice extraite de A en ôtant la
dernière colonne et la dernière ligne.
Démonstration.
X n
Y X n−1
Y
det(A) = ε(σ) Aσ(j),j , or Aσ(n),n = δσ(n),n , donc det(A) = ε(σ) Aσ(j),j .
σ∈Sn j=1 σ∈Sn j=1
σ(n)=n

Or l’application ϕ : {σ ∈ Sn / σ(n) = n} −→ Sn−1 définie par ϕ(σ) = σ|Nn−1 est


une bijection et pour tout σ ∈ Sn telle que σ(n) = n, ε(ϕ(σ)) = ε(σ) : en effet, la
décomposition de ϕ(σ) en produit de transpositions de Sn−1 donne immédiatement
une décompostion de σ en produit de transpositions de Sn . Ainsi, en posant s = ϕ(σ),
X n−1
Y
on obtient det(A) = ε(s) As(j),j . Il s’agit bien du déterminant de la matrice
s∈Sn−1 j=1
extraite de A en ôtant la dernière colonne et la dernière ligne.
Remarque. Le lemme est encore vrai lorsque n = 1 si l’on convient que le déterminant
de la matrice vide est égal à 1.
Définition. Soit M = (mi,j ) ∈ Mn (K).
Pour tout (i, j) ∈ N2n , notons i,j M la matrice extraite de M en ôtant la ième ligne et la
j ème colonne. La quantité det(i,j M ) s’appelle le (i, j)ème mineur de M
La quantité Ci,j = (−1)i+j det(i,j M ) s’appelle le (i, j)ème cofacteur de M .
 
11 12 13
Exemple. Pour A =  21 22 23 , les cofacteurs de la première colonne sont
31 32 33
C1,1 = 22 × 33 − 32 × 23 = −10, C2,1 = −(12 × 33 − 32 × 13) = 20
et C3,1 = 12 × 23 − 22 × 13 = −10.
Théorème. Avec ces notations,
n
X
— Pour tout j ∈ Nn , det(M ) = mi,j Ci,j : c’est le développement de det(M )
i=1
selon sa j ème colonne.

c Éric Merle 92 MPSI2, LLG


Algébre linéaire 7 Déterminants

n
X
— Pour tout i ∈ Nn , det(M ) = mi,j Ci,j : c’est le développement de det(M )
j=1

selon sa ième ligne.


Démonstration.
La seconde partie du théorème s’obtient en appliquant la première partie à t M .
n
X
Notons M1 , . . . , Mn les colonnes de M et fixons j ∈ Nn . Mj = Mi,j ci , donc
i=1
n
X
det(M ) = detc (M1 , . . . , Mn ) = detc (M1 , . . . , Mj−1 , Mi,j ci , Mj+1 , . . . , Mn ), puis
i=1
n
X
det(M ) = Mi,j detc (M1 , . . . , Mj−1 , ci , Mj+1 , . . . , Mn ). Il reste donc à montrer que,
i=1
pour tout i ∈ Nn , detc (M1 , . . . , Mj−1 , ci , Mj+1 , . . . , Mn ) = Ci,j .
Soit i ∈ Nn . En effectuant n − j échanges de colonnes, on obtient
detc (M1 , . . . , Mj−1 , ci , Mj+1 , . . . , Mn ) = (−1)n−j detc (M1 , . . . , Mj−1 , Mj+1 , . . . , Mn , ci ),
puis en effectuant n − i échanges de lignes, on obtient
0
..
i+j i,j M . et le lemme permet de
detc (M1 , . . . , Mj−1 , ci , Mj+1 , . . . , Mn ) = (−1)
0
∗···∗ 1
conclure.
Définition. On appelle comatrice de M la matrice (Ci,j ) 1≤i≤n des cofacteurs de M .
1≤j≤n
On la notera Com(M ) ou bien Cof (M ).
La transposée de la comatrice s’appelle la matrice complémentaire de M .
Théorème. ∀M ∈ Mn (K) M t Cof (M ) = t Cof (M )M = det(M )In .
Démonstration. n
X
t
Soit i ∈ Nn . [M Cof (M )]i,i = Mi,j Ci,j = det(M ) d’après la formule de développement
j=1
de det(M ) selon sa i-ème ligne.
Xn
t
De même [ Cof (M )M ]i,i = Cj,i Mj,i = det(M ) d’après la formule de développement
j=1
de det(M ) selon sa i-ème colonne.
n
X
t
Soit i, j ∈ Nn avec i 6= j : [M Cof (M )]i,j = Mi,k Cj,k .
k=1
Notons L1 , . . . , Ln les lignes de M et notons A la matrice dont les lignes sont
n
X
L1 , . . . , Lj−1 , Li , Lj+1 , . . . , Ln . Alors [M t Cof (M )]i,j = Aj,k Cj,k est le développement
k=1
de det(A) selon sa j-ème ligne, car Cj,k est bien le cofacteur de A de position (j, k).
Ainsi, [M t Cof (M )]i,j = det(A) = 0, car A possède deux lignes égales.
En raisonnant sur les colonnes, on montre de même que [t Cof (M )M ]i,j = 0.

c Éric Merle 93 MPSI2, LLG


Algébre linéaire 7 Déterminants

1 t
Corollaire. Lorsque M est inversible, M −1 = Cof (M ).
det(M )
Exemple.
 −1 Avec n =   que, lorsque ad − bc 6= 0,
2, on retrouve
a b 1 d −b
= .
c d ad − bc −c a
Théorème. Soit M = (Mi,j ) 1≤i≤a une matrice décomposée en blocs, où, pour tout
1≤j≤a
i, j ∈ Na , Mi,j ∈ Mni ,nj (K).
a
Y
Si M est triangulaire supérieure (ou inférieure) par blocs, alors, det(M ) = det(Mi,i )
i=1

Démonstration.
Au prix d’une récurrence, il suffit de montrer que, pour tout p, q ∈ N∗ , pour tout
A B
A ∈ MK (p, p), B ∈ MK (p, q) et C ∈ MK (q, q), = det(A)det(C).
0q,p C  
A B
Si A n’est pas inversible, les colonnes de A sont liées, donc les colonnes de
0q,p C
A B
sont également liées. Ainsi, = 0 = det(A)det(C).
0 q,p C
Ip A−1 B
     
A B A 0
Si A est inversible, alors = × , donc
0q,p C 0 Iq 0 C
A B A 0 I A−1 B
= × p , ce qui permet de conclure, car en développant
0q,p C 0 Iq 0 C
I A−1 B
plusieurs fois selon la première colonne, on montre que p = det(C) et, en
0 C
A 0
développant plusieurs fois selon la dernière colonne, que = det(A).
0 Iq
−3 −7 54 1 0
2 4 5 7 0 1 0 2
−3 −7
Exemple. 0 0 1 0 2 = × 5 −3 4 = 2 × (−9) = −18.
2 4
0 0 5 −3 4 0 1 5
0 0 0 1 5
Exemple. Posons ∆n = det((min(i, j))1≤i,j≤n ). Si l’on effectue les opérations élémentaires
1 1 ··· 1
0
Li ←− Li − L1 pour tout i ≥ 2, on obtient ∆n = .. , donc
. [min(i, j)]1≤i,j≤n−1
0
∆n = ∆n−1 = D1 = 1.
Corollaire. Le déterminant d’une matrice triangulaire supérieure ou inférieure est
égal au produit de ses éléments diagonaux.
Remarque. On retrouve ainsi qu’une matrice triangulaire supérieure est inversible si
et seulement si ses coefficients diagonaux sont non nuls.

c Éric Merle 94 MPSI2, LLG


Algébre linéaire 7 Déterminants

Exemple. Supposons que E = F ⊕ G. Notons s la symétrie par rapport à F pa-


rallèlement à G. Alors det(s) = (−1)dim(G) .
Démonstration.
Soit (e1 , . . . , er ) une base de F et (er+1 , . . . , en ) une base de G. Notons e = (e1 , . . . , en ).
C’est une base de e et mat(u, e) est diagonale, les r premiers coefficients diagonaux
étant égaux à 1 et les suivants à −1. On conclut facilement.
Conclusion : Pour calculer un déterminant, le plus souvent, on ajoute à une ligne (ou
à une colonne) une combinaison linéaire des autres lignes (ou des autres colonnes), ou
bien on effectue un développement selon une ligne (ou selon une colonne), dans le but
de se ramener à un déterminant que l’on sait calculer, ou dont la valeur est connue :
déterminants d’ordre 2 ou 3, déterminants triangulaires, ou bien des déterminants
classiques étudiés plus loin.

7.5 Formules de Cramer


Propriété. Considérons un système linéaire de Cramer (S) : M X = B,
x1
.
où M ∈ GLn (K), B ∈ Kn , dont l’unique solution est notée X =  ..  ∈ Kn .
xn
det(j M )
Alors, pour tout j ∈ {1, . . . , n}, xj = , où j M est la matrice dont les colonnes
det(M )
sont celles de M , sauf la j ème qui est égale à B.
Démonstration.
Soit j ∈ {1, . . . , n}. Notons Mj la j-ème colonne de M .
det(j M ) = detc (M1 , . . . , Mj−1 , B, Mj+1 , . . . , Mn )
n
X
= detc (M1 , . . . , Mj−1 , xi Mi , Mj+1 , . . . , Mn )
i=1
n
X
= xi detc (M1 , . . . , Mj−1 , Mi , Mj+1 , . . . , Mn )
i=1
= xj det(M ),
car detc est une application n-linéaire alternée.

Remarque. Ces formules de Cramer sont utiles sur le plan théorique. Pour résoudre un
système de Cramer, ces formules sont idéales lorsque n = 2, mais elles sont inadaptées
lorsque n ≥ 3. En effet, l’utilisation de ces formules nécessite n divisions et le calcul de
n + 1 déterminants d’ordre n.
X Yn
Mais, pour A = (ai,j ) ∈ Mn (K), det(A) = ε(σ) aj,σ(j) , donc le calcul d’un
σ∈Sn j=1
déterminant d’ordre n, en procédant de manière naı̈ve demande n! − 1 additions ou
soustractions et n!(n − 1) multiplications.

c Éric Merle 95 MPSI2, LLG


Algébre linéaire 7 Déterminants

Ainsi, résoudre (S) par application directe des formules de Cramer demande à peu près
(n + 2)! multiplications, (n + 1)! additions et n divisions.
Supposons que nous utilisons un ordinateur d’une puissance de 1GHz (= 109 cycles par
seconde). Le nombre de multiplications qu’il peut effectuer pendant une durée égale à
l’age de l’univers est de l’ordre de 10 × 109 × 365 × 24 × 602 × 109 ≈ 1027 . La résolution
d’un système d’ordre 30 nécessite environ 1035 multiplications. Ainsi, en supposant que
notre ordinateur travaille à cette tâche depuis la création de l’univers, il n’aura à notre
époque réalisé que 10 milliardièmes des calculs nécessaires !
Il faut donc se tourner vers des algorithmes plus efficaces : on peut montrer que l’al-
n3
gorithme du pivot de Gauss nécessite de l’ordre de multiplications et additions et
3
n2
de l’ordre de divisions. La résolution d’un système d’ordre 30 ne demandera plus
2
qu’environ 18000 opérations, ce qui sera effectué en 2 × 10−5 secondes. . .

7.6 Exemples de déterminants.


7.6.1 Déterminant de Vandermonde

Définition. Soient n ∈ N et (a0 , . . . , an ) ∈ Kn+1 .


La matrice de Vandermonde est V(a0 , . . . , an ) = (aj−1i−1 ) ∈ Mn+1 (K),
et le déterminant de Vandermonde est V (a0 , . . . , an ) = det(V(a0 , . . . , an )). Ainsi,

1 a0 a20 · · · an0
1 a1 a21 · · · an1
. .. .. ..
V (a0 , . . . , an ) = .. . . . .
.. .. .. ..
. . . .
1 an a2n · · · ann

Propriété. Soient n ∈ N∗ et (a0 , . . . , an ) ∈ Kn+1 .


n−1
Y
V (a0 , . . . , an ) = V (a0 , . . . , an−1 ) (an − ai ).
i=0
Démonstration.
Afin d’illustrer les différentes techniques relatives au calcul des déterminants, nous
allons présenter 4 démonstrations de ce résultat.
Première démonstration. par combinaison linéaire de colonnes.
Effectuons sur le déterminant de Vandermonde de (a0 , . . . , an ) les opérations élémentaires
suivantes : Cj ←− Cj − an Cj−1 dans l’ordre suivant : j varie de n + 1 à 2 (en effet, au
rang j, on a besoin de Cj−1 , donc, au rang j, la colonne d’indice j − 1 ne doit pas avoir
été modifiée).
On obtient

c Éric Merle 96 MPSI2, LLG


Algébre linéaire 7 Déterminants

1 a0 − an ··· an−2
0 (a0 − an ) a0n−1 (a0 − an )
n−2
1 a1 − an ··· a1 (a1 − an ) an−1
1 (a1 − an )
.. .. .. ..
V (a0 , . . . , an ) = .. .
..
.
..
.
.. .
.. . . .
1 an−1 − an · · · an−2 n−1
n−1 (an−1 − an ) an−1 (an−1 − an )
1 0 ··· 0 0
Développons selon sa dernière ligne ce déterminant
! de taille n + 1. On obtient
n−1
Y
V (a0 , . . . , an ) = (−1)(n+1)+1 (ai − an ) V (a0 , . . . , an−1 ).
i=0
Deuxième démonstration, utilisant des combinaisons linéaires de colonnes et des po-
lynômes.
n
X
Soit P un polynôme unitaire de degré n à coefficients dans K, noté P = X n + bj X j−1 .
j=1
Effectuons sur le déterminant de Vandermonde de (a0 , . . . , an ) l’opération élémentaire
Xn
suivante : Cn+1 ←− Cn+1 + bj C j .
j=1
n
X
Le i ème
coefficient de la dernière colonne devient alors ani + bj aj−1
i = P (ai ).
j=1
n−1
Y
En particulier, si l’on choisit P = (X − ai ) (qui est bien un polynôme unitaire de
i=0
degré n), les coefficients de la dernière colonne sont tous nuls, sauf le dernier, qui vaut
n−1
Y
(an − ai ). Ainsi, en développant par rapport à la dernière colonne,
i=0
n−1
Y
V (a0 , . . . , an ) = V (a0 , . . . , an−1 ) (an − ai ).
i=0
Pour les deux démonstrations suivantes, on supposera que a0 , . . . , an sont deux à deux
distincts. Ce n’est pas restrictif car lorsque, parmi a0 , . . . , an , deux scalaires au moins
sont égaux, le déterminant V (a0 , . . . , an ) contient au moins deux lignes égales, donc il
n−1
Y
est nul, ainsi que la quantité V (a0 , . . . , an−1 ) (ai − an ).
i=0
Troisième démonstration, utilisant des polynômes.
1 a0 a20 · · · an0
1 a1 a21 · · · an1
.
Soit x ∈ K. V (a0 , . . . , an−1 , x) = .. .
.. .
.. .. .
.
2 n
1 an−1 an−1 · · · an−1
1 x x 2 · · · xn
Si l’on développe ce déterminant selon sa dernière ligne, on obtient un polynôme en x
de degré inférieur ou égal à n, dont le coefficient de degré n vaut V (a0 , . . . , an−1 ).

c Éric Merle 97 MPSI2, LLG


Algébre linéaire 7 Déterminants

Soit i ∈ {0, . . . , n − 1}. La matrice V(a0 , . . . , an−1 , ai ) possède deux lignes identiques,
donc V (a0 , . . . , an−1 , ai ) est nul. Ainsi, le polynôme V (a0 , . . . , an−1 , x) admet au moins
n racines deux à deux distinctes, qui sont a0 , . . . , an−1 . C’est donc un multiple de
n−1
Y
(x − ai ).
i=0
n−1
Y
Il existe Q ∈ K[X] tel que V (a0 , . . . , an−1 , x) = Q(x) (x − ai ).
i=0
Nécessairement, deg(Q) ≤ 0, donc Q est une constante, et, en égalant les coefficients
de degré n, on obtient que cette constante vaut V (a0 , . .! . , an−1 ).
n−1
Y
Ainsi, V (a0 , . . . , an−1 , x) = V (a0 , . . . , an−1 ) (x − ai ) .
i=0
Quatrième démonstration, utilisant les polynômes d’interpolation de Lagrange.
Reprenons les notations de la page 24 et notons c = (1, X, . . . , X n ) la base canonique
de Kn [X]. Soit j ∈ {0, . . . , n}.
Dans la base L = (L0 , . . . , Ln ) de Kn [X], les coordonnées du polynôme X j sont
aj0 , aj1 , . . . , ajn , donc la matrice V(a0 , . . . , an ) est la matrice de passage de la base L
vers la base c, notée PLc .
Remarquons, même si ce n’est pas exactement le but de la démonstration, que ce qui
précède montre sans calcul que la matrice V(a0 , . . . , an ) est inversible si et seulement
si a0 , . . . , an sont deux à deux distincts.
De plus, ce qui précède permet d’inverser rapidement V(a0 , . . . , an ). En effet,
V −1 (a0 , . . . , an ) = PcL , donc le (i, j)ème coefficient de V −1 (a0 , . . . , an ) est le coefficient
de degré i − 1 du polynôme Lj−1 , que l’on pourrait exprimer en fonction de a0 , . . . , an
en utilisant les relations entre coefficients et racines d’un polynôme.
Cependant, pour le calcul du déterminant de Vandermonde, on peut se contenter de
calculer le coefficient de position (n+1, n+1) de V −1 (a0 , . . . , an ). Il s’agit du coefficient
n−1
Y X − ai n−1
Y 1
dominant de Ln+1 = , donc il est égal à .
a − ai
i=0 n
a − ai
i=0 n
1 t
D’autre part, V −1 (a0 , . . . , an ) = Cof (V(a0 , . . . , an )), donc le coefficient
V (a0 , . . . , an )
Cn+1,n+1
de position de (n + 1, n + 1) de V −1 (a0 , . . . , an ) est aussi égal à , où
V (a0 , . . . , an )
Cn+1,n+1 désigne le cofacteur de V(a0 , . . . , an ) de position de (n + 1, n + 1).
n−1
Y 1 V (a0 , . . . , an−1 )
On en déduit que = .
a − ai
i=0 n
V (a0 , . . . , an )
Y
Propriété. Soient n ∈ N et (a0 , . . . , an ) ∈ K n+1
: V (a 0 , . . . , a n ) = (aj − ai ) .
0≤i<j≤n

Ainsi V(a0 , . . . , an ) est inversible si et seulement si a0 , . . . , an sont deux à deux distincts.

c Éric Merle 98 MPSI2, LLG


Algébre linéaire 7 Déterminants

Démonstration.
Soit n ∈ N. Notons R(n) l’assertion suivante Y :
n+1
∀(a0 , . . . , an ) ∈ K V (a0 , . . . , an ) = (aj − ai ).
0≤i<j≤n
Démontrons par récurrence sur n que R(n) est vraieY
pour tout n.
Pour n = 0, soit a0 ∈ K. V (a0 ) = det(1) = 1 = (aj − ai ), car l’ensemble des
0≤i<j≤0
indices de ce produit est l’ensemble vide.
Pour n ≥ 1, supposons R(n − 1).
Soit (a0 , . . . , an ) ∈ Kn+1 . On a établi que
n−1
Y
V (a0 , . . . , an ) = V (a0 , . . . , an−1 ) (an − ai ), donc, d’après l’hypothése de récurrence,
i=0 ! !
Y n−1
Y Y
V (a0 , . . . , an ) = (aj − ai ) (an − ai ) = (aj −ai ), ce qui démontre
0≤i<j≤n−1 i=0 0≤i<j≤n
R(n).

7.6.2 Déterminants tridiagonaux

Définition. Soient n un entier supérieur ou égal à 2 et M = (mi,j ) ∈ Mn (K).


M est une matrice tridiagonale si et seulement si , pour tout (i, j) ∈ N2n ,
|i − j| ≥ 2 =⇒ mi,j = 0. Un déterminant tridiagonal est le déterminant d’une
matrice tridiagonale.
Notation. Fixons un entier n supérieur ou égal à 3 et M = (mi,j ) ∈ Mn (K) une
matrice tridiagonale.
Pour tout k ∈ Nn , notons Mk = (mi,j ) 1≤i≤k . Ainsi, pour tout k ∈ Nn , Mk est une
1≤j≤k
matrice de taille k, extraite de M en ne retenant que ses k premières colonnes et ses k
premières lignes. En particulier, M = Mn .
Pour tout k ∈ Nn , notons ∆k le déterminant de Mk .
Propriété. Pour tout k ≥ 3, ∆k = mk,k ∆k−1 − mk−1,k mk,k−1 ∆k−2
Démonstration.
Soit k ≥ 3.
m1,1 m1,2 0 ··· ··· ··· 0
... ... ..
m2,1 m2,3 .
.. .. .. ..
0 m3,2 . . . .
∆k = .. .. .. .. .. .. .. ,
. . . . . . .
.. ... ... ... ...
. 0
.. ... ... ..
. .
mk−1,k
0 ··· · · · · · · 0 mk,k−1 mk,k
donc, en développant selon la dernière colonne, on obtient

c Éric Merle 99 MPSI2, LLG


Algébre linéaire 7 Déterminants

m1,1 m1,2 0 ··· ··· ··· 0


.. .. ..
m2,1 . m2,3 . .
... ... ... ..
0 m3,2 .
∆k = mk,k ... ... ... ... ... ... ..
.
.. .. .. .. ..
. . . . . 0
.. .. .. ..
. . . . mk−2,k−1
0 ··· · · · · · · 0 mk−1,k−2 mk−1,k−1
m1,1 m1,2 0 ··· ··· ··· 0
.. . ..
m2,1 . m2,3 . . .
.. .. .. ..
0 m3,2 . . . .
−mk−1,k .. . . .. . .. . .. . .. . .. .
.. .
.. ... ... ... ...
. 0
.. ...
. mk−2,k−3 mk−2,k−2 mk−2,k−1
0 ··· ··· ··· 0 0 mk,k−1
Dans le membre de droite, le premier déterminant est ∆k−1 et, en développant le second
déterminant selon la dernière ligne, on montre que ce dernier est égal à mk,k−1 ∆k−2 .
On obtient ainsi la relation annoncée.
Remarque. (∆k ) est ainsi une suite récurrente linéaire d’ordre 2.
En particulier lorsque les suites (mk,k ) et (mk−1,k mk,k−1 ) sont constantes, on sait en
déduire une expression de ∆k en fonction de k.
Exemple. Pour n ≥ 2, notons Mn = (mi,j ) la matrice de taille n dont les coefficients
sont définis par les relations suivantes : pour tout i ∈ Nn , mi,i = 2, pour tout i ∈ Nn−1 ,
mi,i+1 = 1 et mi+1,i = 3, et, pour tout (i, j) ∈ N2n tel que |i − j| ≥ 2, mi,j = 0.
D’après la propriété précédente, si l’on note ∆n le déterminant de Mn , pour tout n ≥ 4,
∆n = 2∆n−1 − 3∆n−2 .
Ainsi, (∆n )n≥2 est une suite récurrente linéaire d’ordre 2 à coefficients constants. Le
2
polynôme√ √ associé à cette suite est P2 (X) = X −2X +3, dont les racines
caractéristique
sont 1 + i 2 et 1 − i 2, donc il existe √ (λ, µ) ∈ C tel√ que,
pour tout n ≥ 2, (1) : ∆n = λ(1 + i 2) + µ(1 − i 2)n .
n

Déterminons λ et µ. On pourrait dans ce but calculer ∆2 et ∆3 et substituer leurs


valeurs dans la relation (1), mais il y a plus simple. Nous allons prolonger la suite
(∆n )n≥2 en l’unique suite (∆n )n≥0 qui vérifie la même relation de récurrence linéaire
d’ordre 2.
2 1
Or, en posant ∆1 = 2, ∆3 = 2∆2 − 3∆1 , et ∆2 = = 2 × 2 − 3, donc il suffit de
3 2
poser ∆0 = 1.
Substituons successivement n par 0 et par 1 dans √ la relation (1). On√obtient : λ + µ = 1
√ 2 1 2
et λ + µ + i 2(λ − µ) = 2. Ainsi, λ − µ = −i , donc λ = − i et µ = λ.
2 2 4

c Éric Merle 100 MPSI2, LLG


Algébre linéaire 7 Déterminants
√ !
1 2 √ n
On en déduit que, pour tout n ∈ N, ∆n = 2Re ( − i )(1 + i 2) .
2 4
En développant à l’aide de la formule du binôme de Newton, on obtient :
√ n   ! bnc  
2
b n−1
2
c 
2 X n k k2
X n k k
X n
∆n = Re (1 − i ) i 2 = (−1) 2 + (−1)k 2k .
2 k=0 2k 2k 2k + 1
k=0 k=0

7.6.3 Déterminants circulants

Notation. Fixons un entier n strictement positif.


Si σ ∈ Sn et x = (a1 , . . . , an ) ∈ Kn , on note σ(x) = (aσ(1) , . . . , aσ(n) ).
Enfin, notons c le cycle de longueur n suivant : c = (n, n − 1, . . . , 2, 1).
Définition. Soit M ∈ Mn (K) une matrice dont les lignes sont notées L1 , . . . , Ln .
On dit que M est circulante si et seulement si, pour tout i ∈ Nn , Li = ci−1 (L1 ).
Ainsi, on passe d’une ligne à la suivante selon la permutation circulaire c.
Remarque. On peut calculer le déterminant d’une matrice circulante quelconque au
moyen de la théorie de la réduction des matrices. Cependant, dans des cas simples, il
n’est pas utile de faire appel au calcul général. Il est souvent suffisant de commencer
par remplacer la première ligne par la somme de toutes les lignes. En effet, la somme
de toutes les lignes est un vecteur de Kn colinéaire à (1, 1, . . . , 1). Ainsi, après mise en
facteur, la première ligne ne contient que des “1”. On peut alors, pour j variant de n
à 2, effectuer les opérations Cj ←− Cj − Cj−1 .
Exemple. Soit n ≥ 2. Calculez le déterminant ∆ de la matrice d’ordre n dont le
coefficient de position (i, j) vaut j − i + 1 si i ≤ j et n + j − i + 1 si i ≥ j.
1 2 3 ··· ··· ··· n
...
n 1 2 n−1
.. . . . . . . . . ..
. . . . . .
. .. .. .. .. ..
∆ = .. . . . . . .
.. ... ... ...
. 3
...
3 n 2
2 ··· ··· ··· n 1
On vérifie qu’il s’agit bien du déterminant d’une matrice circulante.
1 1 1 ··· ··· ··· 1
n 1 2 3 n−1
.. . . . . . . . . ..
n . . . . . .
X n(n + 1) .. ... ... ... ... ..
L’opération L1 ←− Li donne ∆ = . . .
i=1
2 .
.. . .
.. .. ...
3
..
3 n . 2
2 3 ··· ··· n 1
Pour j variant de n à 2, effectuons les opérations Cj ←− Cj − Cj−1 . Ainsi,

c Éric Merle 101 MPSI2, LLG


Algébre linéaire 7 Déterminants

1 0 0 ··· ··· ··· 0


n 1 − n 1 ··· ··· ··· 1
.. ... ... ..
. 1 .
n(n + 1) .. .. . . . . . . ..
∆= . . . . . . .
2 .. .. .. .. .. ..
. . . . . .
3 1 1 1−n 1
2 1 ··· ··· 1 1 1−n
Développons selon la première ligne et, sur le déterminant de taille n − 1 ainsi obtenu,
n−1
X
effectuons l’opération L1 ←− Li . On obtient :
i=1
−1 −1 · · · · · · ··· −1
1 1 − n 1 ··· ··· 1
. .. .. .. ..
n(n + 1) .. . . . .
∆= .. .. .. .. .. .
2 . . . . .
1 1 1−n 1
1 ··· ··· 1 1 1−n
Pour i variant de 2 à n − 1, effectuons Li ←− Li + L1 . Ainsi,
−1 −1 · · · · · · · · · −1
0 −n 0 · · · · · · 0
. .. .. .. ..
n(n + 1) .. . . . . n(n + 1)
∆= .. .. .. .. .. = − (−n)n−2 .
2 . . . . . 2
0 0 −n 0
0 ··· ··· 0 0 −n

7.7 Le polynôme caractéristique


Notation. On fixe un K-espace vectoriel E de dimension n ∈ N∗ et u ∈ L(E).

7.7.1 Définition

Définition. Soit M ∈ Mn (K). On appelle polynôme caractéristique la quantité


χM = det(XIn − M ). C’est le déterminant d’une matrice dont les coefficients sont dans
le corps K(X). χM est un élément de K[X].
De plus, pour tout λ ∈ K, χM (λ) = det(λIn − M ).
Démonstration. n
X Y
En posant M = (mi,j ), χM = ε(σ) (Xδj,σ(j) − mj,σ(j) ).
σ∈Sn j=1
X n
Y
On en déduit que, si λ ∈ K, χM (λ) = ε(σ) (λδj,σ(j) − mj,σ(j) ) = det(λIn − M ).
σ∈Sn j=1

Remarque.

c Éric Merle 102 MPSI2, LLG


Algébre linéaire 7 Déterminants

Vous rencontrerez parfois une définition légèrement différente du polynôme caractéristique.


Il s’agit de det(M − XIn ). On passe de cette dernière convention à celle que nous avons
adoptée en multipliant par (−1)n . Dans un problème ou au sein d’un exercice, il est
bon de se demander quelle est la convention (parfois implicitement) utilisée.
m1,1 · · · m1,n
 

Représentation tabulaire. Si M =  ... .. ,


.
mn,1 · · · mn,n
λ − m1,1 −m1,2 ··· −m1,n
.. ..
−m2,1 λ − m2,2 . .
χM (λ) = .. .. .. .
. . . −mn−1,n
−mn,1 ··· −mn,n−1 λ − mn,n
Remarque. Souvent, le corps est de cardinal infini, ce qui permet d’identifier le
polynôme χM avec l’application polynômiale λ 7−→ χM (λ) de K dans K.
Propriété. Pour tout M ∈ Mn (K), χt M = χM .
Démonstration.
χt M = det(XIn − t M ) = det(t (XIn − M )) = det(XIn − M ) = χM .
Propriété. Si M est une matrice triangulaire supérieure (ou inférieure) dont les
n
Y
coefficients diagonaux sont λ1 , . . . , λn , alors χM (X) = (X − λi ).
i=1
Propriété. Deux matrices semblables ont le même polynôme caractéristique.
Démonstration.
Soit M ∈ Mn (K) et P ∈ GLn (K).
χP M P −1 = det(XIn − P M P −1 ) = det(P (XIn − M )P −1 ) = det(XIn − M ) = χM .
Remarque. La réciproque est fausse.
Démonstration.
 
1 1
Posons M = . χM (X) = (X − 1)2 = χI2 (X).
0 1
Supposons que M et I2 sont semblables. Ainsi, il existe P ∈ GL2 (R) tel que
M = P I2 P −1 = P P −1 = I2 . C’est faux, donc M et I2 ne sont pas semblables alors
qu’elles ont le même polynôme caractéristique.
Définition. On déduit de la propriété précédente que la quantité χmat(u,e) ne dépend
pas du choix de la base e de E. Cette quantité s’appelle le polynôme caractéristique
de u.
Propriété. (λ ∈ Sp(u)) ⇐⇒ (λ ∈ K et χu (λ) = 0).
Démonstration.
Soit λ ∈ K. λ ∈ Sp(u) si et seulement si λIdE −u n’est pas injectif, donc si et seulement
si det(λIdE − u) = 0.
Corollaire. Pour toute M ∈ Mn (K), Sp(t M ) = Sp(M ).

c Éric Merle 103 MPSI2, LLG


Algébre linéaire 7 Déterminants

Corollaire. Le spectre d’une matrice triangulaire supérieure est égal l’ensemble de


ses coefficients diagonaux.
 
0 1 0
Exemple. Choisissons M =  0 0 1  ∈ M3 (R).
1 −1 1
λ −1 0
Soit λ ∈ R. χM (λ) = 0 λ −1 . On effectue L1 ← L1 + L3 . On obtient
−1 1 λ − 1
λ−1 0 λ−1
χM (λ) = 0 λ −1 . On effectue C3 ← C3 − C1 . On obtient
−1 1 λ−1
1 0 0
χM (λ) = (λ − 1) 0 λ −1 , donc
−1 1 λ
χM (λ) = (λ − 1)(λ2 + 1). Ainsi Sp(M ) = {1}.
Cependant, on peut aussi considérer M comme une matrice à coefficients complexes,
auquel cas, Sp(M ) = {1, i, −i}.
Remarque. Si M ∈ Mn (R), le spectre de M considérée comme matrice à coefficients
dans R (noté SpR (M )) n’est pas en général égal au spectre de M considérée comme
matrice à coefficients complexes (noté SpC (M )). On dispose seulement de la relation
SpR (M ) = SpC (M ) ∩ R. Il est donc important de préciser de quel spectre de M on
parle.
De même, si u ∈ E (où E est un R-espace vectoriel), les valeurs propres de u sont dans
R, mais parfois, on appelle valeurs propres de u toutes les racines de χu , même celles
appartenant à C \ R. Ici aussi, il est important de préciser quelle définition d’une valeur
propre on utilise.
Par exemple, au sein d’un problème ou d’un exercice, la question “toutes les valeurs
propres de u sont-elles dans R ?” n’a d’intérêt que si l’on considère que les valeurs
propres de u sont toutes les racines complexes de χu .
Définition. Soit λ ∈ Sp(u).
On appelle multiplicité de λ sa multiplicité en tant que racine de χu .
Elle est notée m(λ).
Si m(λ) = 1, on dit que λ est une valeur propre simple de u.
Si m(λ) = 2, on dit que λ est une valeur propre double de u.
Si m(λ) = 3, on dit que λ est une valeur propre triple de u.
Remarque. Lorsque λ ∈
/ Sp(u), on convient que m(λ) = 0.

7.7.2 Propriétés du polynôme caractéristique

Propriété. χu est un polynôme unitaire de degré n tel que


χu (X) = X n − T r(u)X n−1 + · · · + (−1)n det(u).

c Éric Merle 104 MPSI2, LLG


Algébre linéaire 7 Déterminants

Remarque. Dans la formule ci-dessus, les “+ · · · +” indiquent qu’il y a des termes


intermédiaires, mais il n’y a pas de formule simple donnant ces termes.
Démonstration.
Fixons une base e de E et notons M = (mi,j ) = mat(u, e).
X Yn
χu = χM = det(XIn − M ) = ε(σ) (Xδj,σ(j) − mj,σ(j) ).
σ∈Sn j=1
n
Y
• Soit σ ∈ Sn . (Xδj,σ(j) − mj,σ(j) ) est un polynôme en X de degré inférieur à n.
j=1
De plus, son degré est égal à n si et seulement si , pour tout j ∈ Nn , σ(j) = j,
c’est-à-dire si et seulement si σ = IdNn .
Ainsi χu est un polynôme de degré n dont le coefficient dominant vaut ε(IdNn ) = 1.
• Soit σ ∈ Sn \ {IdNn }. Il existe i ∈ Nn tel que σ(i) 6= i. Posons j = σ(i). Si σ(j) = j,
σ étant injective, j = i, ce qui est faux. Ainsi {k ∈ Nn /σ(k) 6= k} est de cardinal
Yn
supérieur ou égal à 2. Donc (Xδj,σ(j) − mj,σ(j) ) est un polynôme en X de degré
j=1
inférieur à n − 2.
Y n
Ainsi χu (X) = (X − mj,j ) + Q(X) où Q est un polynôme de degré inférieur ou
j=1
n
!
X
égal à n − 2. On en déduit que χu (X) = X n − mj,j X n−1 + R(X) où R est un
j=1
polynôme de degré inférieur ou égal à n − 2.
D’autre part, le terme constant de χu est χu (0) = det(−u) = (−1)n det(u).
Corollaire. Si K = C, u admet au moins un vecteur propre.
Démonstration.
χu est un polynôme de C[X] de degré supérieur à 1, or C est algébriquement clos, donc
χu admet au moins une racine dans C.
Exercice. Soit E un C-espace vectoriel de dimension n ≥ 1 et u, v ∈ L(E) tels
que uv = vu. Montrer que u et v possèdent au moins un vecteur propre commun.
Résolution. u possède au moins une valeur propre λ ∈ C. Eλu est un C-espace
vectoriel non nul et stable par v, donc v/Eλu possède un vecteur propre x ∈ Eλu .
Alors x est un vecteur propre commun à u et v.
Contrexemple en dimension quelconque.
u : E −→ E
Choisissons E = C[X] et .
P 7−→ XP (X)
Soit P ∈ E \ {0}. deg(u(P )) = 1 + deg(P ), donc il n’existe aucun λ ∈ K tel que
u(P ) = λP .
Ainsi le spectre de u est égal à l’ensemble vide.

c Éric Merle 105 MPSI2, LLG


Algébre linéaire 7 Déterminants

Corollaire. Si χu est scindé sur K (c’est toujours le cas lorsque K = C),


X Y
T r(u) = m(λ)λ, et det(u) = λm(λ) .
λ∈SpK (u) λ∈SpK (u)

Démonstration.
D’après les relations entre coefficients et racines d’un polynôme, T r(u) est égal à la
somme des racines de χu , comptées avec multiplicité, or χu est scindé dans K, donc
l’ensemble des racines
X de χu est SpK (u).
Ainsi, T r(u) = m(λ)λ.
λ∈SpK (u)
Le raisonnement est similaire pour la seconde formule.
Remarque. En pratique, pour déterminer les éléments propres d’une matrice M , on
peut commencer par calculer χM . On détermine les racines de χM et, pour chacune
d’entre elles, notée λ, on recherche
  une base du sous-espace propre en résolvant le
x1
.. 
système linéaire (λIn − M )  . = 0.
xn
Parfois, on n’a pas besoin de déterminer précisément les sous-espaces propres, mais
seulement de calculer leurs dimensions. Dans ce cas, il est commode d’utiliser la formule
suivante :
∀λ ∈ Sp(M ) dim(Eλ ) = n − rg(λIn − M ).
Démonstration.
D’après la formule du rang,
dim(Eλ ) = dim(Ker(λIn − M )) = n − dim(Im(λIn − M )) = n − rg(λIn − M ).
Propriété. Soit F un sous-espace vectoriel de E stable par u.
Si u/F est l’endomorphisme induit par u sur F , alors χu/F |χu .
Démonstration.
Choisissons e0 = (e1 , . . . , ep ) une base de F que l’on complète en une base
e = (e1 , . . . , en ) de E. Si l’on note M = M at(u, e) et M 0 = M at(u 0
 /F ,0e ), il existe
 deux
M A
matrices A ∈ Mp,n−p (K) et B ∈ Mn−p,n−p (K) telles que M = .
0n−p,p B
XIp − M 0
 
−A
Soit λ ∈ K. χu (X) = det(XIn −M ) = det = χu/F (X)χB (X).
0n−p,p XIn−p − B

Propriété. Soit (E1 , . . . , Ep ) une famille de sous-espaces vectoriels de E telle que


p
M
E = Ei . On suppose que u stabilise la famille (E1 , . . . , Ep ). Pour tout i ∈ Np , on
i=1
p
Y
note ui l’endomorphisme induit par u sur Ei . Alors χu = χui .
i=1

c Éric Merle 106 MPSI2, LLG


Algébre linéaire 7 Déterminants

Démonstration.
Pour tout i ∈ Np , on choisit une base de Ei notée ei .
Notons e la “réunion” des ei , pour i variant de 1 à p. e est une base de E.
On sait que M at(u, e) est diagonale par blocs, la “diagonale” étant constituée des p
blocs suivants :
M1 = mat(u1 , e1 ), . . ., Mp = mat(up , ep ).
Le déterminant d’une matrice diagonale par blocs étant égal au produit des déterminants
des blocs diagonaux, pour tout λ ∈ K,
p
Y
χu (X) = det(XIn − M ) = det(XIni − Mi ), où pour tout i ∈ Np , ni = dim(Ei ).
i=1
p
Y
Ainsi, χu (X) = χui (X).
i=1

Notation. Pour tout λ ∈ Eλ , on note q(λ) = dim(Eλ ).


Propriété. ∀λ ∈ Sp(u) 1 ≤ q(λ) ≤ m(λ).
Démonstration.
• Soit λ ∈ Sp(u). Eλ 6= {0}, donc 1 ≤ q(λ).
• u commute avec lui-même, donc Eλ est stable par u. Notons u0 l’endomorphisme
induit par u sur Eλ .
Pour tout x ∈ Eλ , u(x) = λx, donc u0 = λIdEλ .
Soit µ ∈ K. χu0 (µ) = det(µIdEλ − u0 ) = det(µIq(λ) − λIq(λ) ) = (µ − λ)q(λ) .
Ainsi, χu0 (X) = (X − λ)q(λ) . Or χu0 |χu , donc m(λ) ≥ q(λ).
Cas particulier. Si λ est une valeur propre simple de u, 1 = q(λ) = m(λ).

7.7.3 Caractérisation des endomorphismes diagonalisables

Théorème. u est diagonalisable si et seulement si χu est scindé sur K et, pour tout
λ ∈ Sp(u), m(λ) = q(λ).
Démonstration.
• Supposons que u est diagonalisable. Ainsi, il existe une base e de E dans laquelle
la matrice de u est diagonale. Notons λ1 , . . . , λn les coefficients diagonaux de cette
matrice. n
Y
 χu = χM at(u,e) = (X − λi ), donc χu est scindé sur K.
i=1
 Soit λ ∈ Sp(u). L’égalité précédente montre que m(λ) = Card({i ∈ Nn /λi = λ}).
Or, pour tout i ∈ Nn , ei ∈ Eλi , donc V ect({ei /λi = λ}) ⊂ Eλ .
Ainsi, m(λ) = dim(V ect({ei /λi = λ})) ≤ dim(Eλ ) = q(λ).
L’inégalité contraire étant vraie pour tout endomorphisme, on a montré que, pour tout
λ ∈ Sp(u), m(λ) = q(λ).
• Réciproquement, supposons que χu est scindé sur K et que, pour tout λ ∈ Sp(u),
m(λ) = q(λ).

c Éric Merle 107 MPSI2, LLG


Algébre linéaire 7 Déterminants
X X
Alors, q(λ) = m(λ) = deg(χu ) = n, car χu est scindé sur K, ce qui
λ∈SpK (u) λ∈SpK (u)
prouve que u est diagonalisable.
Cas particulier.
Si χu est scindé sur K et si toutes ses racines sont simples, alors u est diagonalisable.
Démonstration.
Lorsqu’une valeur propre λ est simple, on a déjà établi que m(λ) = q(λ).

c Éric Merle 108 MPSI2, LLG

Vous aimerez peut-être aussi