Académique Documents
Professionnel Documents
Culture Documents
2 Familles de vecteurs 17
2.1 Familles libres et génératrices . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Base canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5 Application linéaire associée à une famille de vecteurs . . . . . . . . . . 27
2.6 Image d’une famille par une application linéaire . . . . . . . . . . . . . 27
2.7 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . 32
2.8 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . 32
1
Algébre linéaire 0
5 Changement de base 66
5.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.2 Diagonalisation et trigonalisation . . . . . . . . . . . . . . . . . . . . . 68
5.3 Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.4 Matrices équivalentes et matrices semblables . . . . . . . . . . . . . . . 71
5.4.1 Matrices équivalentes . . . . . . . . . . . . . . . . . . . . . . . . 71
5.4.2 Propriétés du rang d’une matrice . . . . . . . . . . . . . . . . . 73
5.4.3 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . 74
6 Les hyperplans 75
6.1 En dimension quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.2 En dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.3 Les hyperplans affines . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.4 Application aux systèmes linéaires . . . . . . . . . . . . . . . . . . . . . 78
7 Déterminants 80
7.1 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.2 Les trois notions de déterminants . . . . . . . . . . . . . . . . . . . . . 84
7.2.1 Volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.2.2 Déterminant d’un système de n vecteurs . . . . . . . . . . . . . 87
7.2.3 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . 89
7.2.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . 90
7.3 Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.4 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 92
7.5 Formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.6 Exemples de déterminants. . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.6.1 Déterminant de Vandermonde . . . . . . . . . . . . . . . . . . . 96
7.6.2 Déterminants tridiagonaux . . . . . . . . . . . . . . . . . . . . . 99
1 Les matrices
1.1 Vocabulaire
Définition. Soit (n, p) ∈ N∗ 2 . On appelle matrice à n lignes et à p colonnes (à
coefficients dans K) toute famille de scalaires indexée par Nn × Np .
Si M = (mi,j )(i,j)∈Nn ×Np = (mi,j ) 1≤i≤n , on représente M sous la forme suivante :
1≤j≤p
M = ... .. ,
.
mn,1 · · · mn,p
où le (i, j)ème coefficient est situé à l’intersection de la ième ligne et de la j ème colonne.
Une matrice est donc un tableau de scalaires.
Notation.
— L’ensemble des matrices à coefficients dans K, à n lignes et p colonnes est noté
MK (n, p) ou Mn,p (K).
— De plus, MK (n, n) est souvent noté MK (n) ou Mn (K).
Définitions :
— Une matrice ligne est une matrice ne possédant qu’une ligne.
— Une matrice colonne est une matrice ne possédant qu’une colonne.
— Une matrice carrée est une matrice possédant autant de lignes que de co-
lonnes.
— Soit M = (mi,j ) ∈ MK (n, p).
M est une matrice triangulaire supérieure si et seulement si
∀(i, j) ∈ Nn × Np (i > j =⇒ mi,j = 0).
— M est une matrice triangulaire inférieure si et seulement si
∀(i, j) ∈ Nn × Np (i < j =⇒ mi,j = 0).
— M est une matrice diagonale si et seulement si
∀(i, j) ∈ Nn × Np (i 6= j =⇒ mi,j = 0).
On note alors M = diag(m1,1 , . . . , mn,n ).
— Soit M une matrice diagonale et carrée. On dit que M est une matrice scalaire
si et seulement si tous ses coefficients diagonaux sont égaux.
En particulier, lorsque tous ses coefficients diagonaux sont égaux à 1, on obtient
la matrice identité, notée In .
Ainsi, M est une matrice scalaire si et seulement s’il existe λ ∈ K tel que
M = λIn .
Démonstration.
Soit (i, h) ∈ Nn × Np . !
Xl l
X m
X m X
X l
[(AB)C]i,h = [AB]i,k Ck,h = Ai,j Bj,k Ck,h = Ai,j Bj,k Ck,h .
k=1 k=1 j=1 j=1 k=1
∆
Im(M ) = Im(M̃ ) = {M X / X ∈ Kp }.
(∀X ∈ Kp M X = M 0 X) ⇐⇒ M = M 0 .
Démonstration.
Si ∀X ∈ Kp M X = M 0 X, alors M̃ = M
f0 , donc par injectivité, M = M 0 .
Corollaire. Soit A ∈ MK (n). A est inversible dans MK (n) si et seulement si, pour
tout Y ∈ Kn , il existe un unique X ∈ Kn tel que AX = Y .
a b
Formule : Dans M2 (K), M = est inversible si et seulement si
c d
∆
det(M ) = ad − cb 6= 0, et dans ce cas
−1
a b 1 d −b
= .
c d det(M ) −c a
Démonstration.
Supposons que ) 6= 0.
det(M
a b d −b ad − bc 0
On calcule × = = det(M )I2 ,
c d −c
a 0 −cb + ad
a b 1 d −b
donc × = I2 .
c d det(M ) −c a
1 d −b a b
De même on vérifie que × = I2 ,
det(M ) −c a c d
1 d −b
donc M est inversible et M −1 = .
det(M ) −c a
Supposons
ad− bc = 0.
que
a b d a b b d b
Alors = 0 et = 0, donc , ∈ Ker(M̃ ).
c d −c c d −a −c −a
On en déduit que Ker(M̃ ) 6= {0} lorsque M 6= 0, donc que M̃ n’est pas inversible, puis
que M n’est pas inversible. Lorsque M = 0, comme dans tout anneau non nul, M n’est
pas inversible.
−1
1 5 1 2 −5
Exemple. = .
−3 2 17 3 1
On en déduit les formules de Cramer pour la résolution d’un système linéaire de deux
équations à deux inconnues :
Formule de Cramer : Soit a, b, c, d, e, f ∈ K4 . On considère le système linéaire (S) :
ax + by = e
, en les inconnues (x, y) ∈ K2 .
cx + dy = f
e b
f d
x =
∆ a b det
Lorsque det = ad − cb = 6= 0, (S) ⇐⇒ a e .
c d
c f
y =
det
Démonstration.
a b x e
Posons M = ,X= et Y = . Alors (S) ⇐⇒ M X = Y .
c d y f
On suppose que det(M ) 6= 0, donc M est inversible.
−1 1 d −b e
Alors (S) ⇐⇒ X = M Y = .
det(M ) −c a f
3
x + 5y =1 x = − 17
Exemple. ⇐⇒ 4 .
−3x + 2y = 1 y = 17
à montrer qu’il est stable pour le produit. Or, si A, B ∈ T , pour tout i ∈ {1, . . . , n},
] i ) = Ã(B̃(Fi )) ⊂ Ã(Fi ), car B ∈ T donc B̃(Fi ) ⊂ Fi , donc (AB)(F
(AB)(F ] i ) ⊂ Fi , ce
qui prouve que AB ∈ T .
Soit j ∈ {1, . . . , n}. Acj est la j-ème colonne de A et A ∈ T , donc Acj = Aj,j cj + d,
où d ∈ Fj−1 . De même, Bcj = Bj,j cj + d0 , où d0 ∈ Fj−1 .
Ainsi, (AB)cj = A(Bj,j cj + d0 ) = Bj,j Acj + Ad0 = Aj,j Bj,j cj + Bj,j d + Ad0 .
Or A ∈ T et d0 ∈ Fj−1 , donc Ad0 ∈ Fj−1 et d ∈ Fj−1 . Ceci démontre que le coefficient
de position (j, j) de AB est égal à Aj,j Bj,j .
Seconde démonstration : Par calcul matriciel direct.
Soient A = (ai,j ) et B = (bi,j ) deux matrices triangulaires supérieures.
Xn
2
Soit (i, j) ∈ Nn avec i > j. Le coefficient de position (i, j) de AB vaut ai,k bk,j . Mais,
k=1
pour tout k ∈ Nn , i > k ou k > j (sinon, i ≤ k ≤ j, donc i ≤ j, ce qui est faux). Or A
et B sont triangulaires supérieures, donc, pour tout k ∈ Nn , ai,k = 0 ou bk,j = 0, ce qui
prouve que le (i, j)ème coefficient de AB est nul. Ainsi AB est une matrice triangulaire
supérieure.
X n
De plus, le coefficient de position (i, i) de AB vaut ai,k bk,i . Mais, pour tout
k=1
k ∈ Nn , ai,k bk,i est non nul si et seulement si i ≤ k et k ≤ i, donc si et seulement si
k = i. Ainsi, le (i, i)ème coefficient de AB vaut ai,i bi,i .
Exercice. Soit M ∈ MK (n) une matrice triangulaire supérieure stricte, c’est-à-
dire triangulaire supérieure et de diagonale nulle.
Montrer que pour tout k ∈ {1, . . . , n}, M k est une matrice triangulaire supérieure
dont les k diagonales supérieures (en partant de la diagonale principale) sont
nulles. En déduire que M est nilpotente.
Solution : En adaptant ce qui précède, on montre que pour tout i ∈ {1, . . . , n},
M̃ (Fi ) ⊂ Fi−1 , puis par récurrence sur k que, pour tout k ∈ {1, . . . , n},
et i ∈ {1, . . . , n}, M̃ k (Fi ) ⊂ Fi−k en convenant que pour tout h ∈ Z\N, Fh = {0}.
Exemples.
— t In = In . Plus généralement, pour toute matrice diagonale D ∈ MK (n), t D = D.
Soit A une matrice inversible. Si t A = A, alors t (A−1 ) = (t A)−1 = A−1 donc A−1 est
symétrique.
C’est analogue si A est antisymétrique.
nA n AB
Démonstration.
En transposant l’égalité A × B1 B2 · · · Bq = AB1 AB2 · · · ABq ,
t t t
B1 B1 A
.. t ..
on obtient . × A = .
.
t t t
Bq Bq A
En décomposant la matrice de gauche en blocs de lignes :
Soit A ∈ MK (n, p) et B ∈ MK (p, q). Soit r ∈ {1, . . . , n − 1}.
Notons A0 la matrice constituée des r premières lignes de A et A00 celle qui est constituée
des lignes suivantes : A0 = (Ai,j ) 1≤i≤r et A00 = (Ai+r,j ) 1≤i≤n−r .
1≤j≤p
0 1≤j≤p 0
A AB
Ainsi, on peut décomposer A en blocs : A = 00
. Alors AB = .
A A00 B
0 0
A AB
En résumé, 00
×B = .
A A00 B
Au niveau des lignes de la matrice de droite :
— Si M ∈ MK (n, p) et X ∈ M1,n , XM est une combinaison linéaire des lignes de
M . Plus précisément, si l’on note 1 M, . . . , n M les lignes de M et X = (x1 · · · xn ),
XM = x1 × 1 M + · · · + xn × n M .
— Soient A ∈ MK (n, p) et B ∈ MK (p, q). Les lignes de AB sont des combinaisons
linéaires des lignes de B : en notant 1 B, . . . , p B les lignes de B et A = (ai,j ),
la ième ligne de AB est égale à ai,1 × 1 B + · · · + ai,p × p B .
Exemple. Notons U ∈ Kn le vecteur Attila, dont toutes les composantes sont égales
à 1. Pour tout A ∈ Mn (K), AU est un vecteur colonne, obtenu en sommant toutes les
Exemple. Tr(In ) = n.
Propriété. La trace est une forme linéaire de Mn (K).
Propriété. Soit A ∈ Mn,p (K) et B ∈ Mp,n (K). Alors, Tr(AB) = Tr(BA).
Démonstration.
Notons A = (ai,j ) et B = (b !i,j ).
p p
n n
!
X X X X X
Tr(AB) = ai,k bk,i = bk,i ai,k = bk,i ai,k = Tr(BA).
i=1 k=1 1≤i≤n k=1 i=1
1≤k≤p
x1 n
. X
Exemple. Soit X = .. ∈ K . Alors Tr(X X) = XX =
n t t
x2i .
xn i=1
p n
X X
Remarque. Si A ∈ Mn,p (R), Tr( AA) = t
A2j,i , donc A = 0 ⇐⇒ Tr(t AA) = 0.
i=1 j=1
ATTENTION : Si (A, B, C) ∈ Mn (K)3 , on peut écrire
Tr(ABC) = Tr((AB)C) = Tr(C(AB) = Tr(CAB), ou Tr(ABC) = Tr(BCA), mais en
général Tr(ABC) 6= Tr(ACB).
Définition. Soit A, B ∈ Mn (K). On dit que A et B sont semblables si et seulement
si il existe P ∈ GLn (K) telle que B = P AP −1 .
La relation de similitude (“être semblable à”) est une relation d’équivalence sur Mn (K).
Remarque. Pour une matrice A donnée dans Mn (K), “réduire A”, c’est trouver une
matrice semblable à A aussi simple que possible.
La théorie de la réduction des matrices est au centre du programme d’algèbre de seconde
année.
Définition. Une matrice de Mn (K) est diagonalisable (resp : trigonalisable) si et
seulement si elle est semblable à une matrice diagonale (resp : triangulaire supérieure).
Propriété. Deux matrices semblables ont la même trace, mais la réciproque est fausse.
Démonstration.
Soient (M, M 0 ) ∈ Mn (K) un couple de matrices semblables. Il existe P ∈ GLn (K)
tel que M 0 = P −1 M P . Ainsi Tr(M 0 ) = Tr((P −1 M )P ) = Tr(P (P −1 M )) = Tr(M ).
Démonstration.
Notons M = (mα,β ) 1≤α≤n et N = (nα,β ) 1≤α≤n .
1≤β≤p 1≤β≤p
Soit α ∈ Nn et β ∈ Np . Il existe un unique (i, j) ∈ Na × Nb tel que α ∈ Ii et β ∈ Jj .
Alors mα,β = [Mi,j ]α,β et nα,β = [Ni,j ]α,β , donc u mα,β + v nα,β = [u Mi,j + v Ni,v ]α,β .
Produit matriciel de deux matrices décomposées en blocs : soit n, p, q ∈ N∗ .
Soit M = (Mi,j ) 1≤i≤a une matrice décomposée en blocs selon les partitions (Ii )1≤i≤a et
1≤j≤b
(Jj )1≤j≤b respectivement de Nn et de Np .
Soit N = (Nj,k ) 1≤j≤b une matrice décomposée en blocs selon la même partition
1≤k≤c
(Jj )1≤j≤b de Np et une partition (Kk )1≤k≤c de Nq .
Alors M N peut être vue comme une matrice décomposée en blocs selon les partitions
(Ii )1≤i≤a de Nn et (Kk )1≤k≤c de Nq et :
b
X
MN = Mi,j Nj,k 1≤i≤a
.
j=1 1≤k≤c
En résumé, le produit de deux matrices par blocs se comporte comme le produit ma-
triciel usuel.
Démonstration.
Notons M = (mα,β ) 1≤α≤n et N = (nβ,γ ) 1≤β≤p . Soit α, γ ∈ Nn × Nq .
1≤β≤p 1≤γ≤q
p hX b i
X
Il s’agit de montrer que mα,β nβ,γ = Mi,j Nj,k , où (i, k) est l’unique couple
α,γ
β=1 j=1
tel que α ∈ Ii et γ ∈ Kk . Or,
hX b i Xb b X
X
Mi,j Nj,k = [Mi,j Nj,k ]α,γ = [Mi,j ]α,β [Nj,k ]β,γ , donc
α,γ
j=1 j=1 j=1 β∈Jj
hXb i b p
X X X
Mi,j Nj,k = mα,β nβ,γ = mα,β nβ,γ .
α,γ
j=1 j=1 β∈Jj β=1
2 Familles de vecteurs
Notation. Pour ce chapitre, on fixe un K-espace vectoriel E et un ensemble quelconque
I (éventuellement infini).
• Elle est liée si et seulement si elle n’est pas libre, c’est-à-dire si et seulement si
X
∃(αi )i∈I ∈ K(I) \ {0} αi xi = 0.
i∈I
Dans ce cas, pour x ∈ E, on appelle coordonnées deX x dans la base (ei )i∈I l’unique
famille presque nulle de scalaire (αi )i∈I telle que x = αi ei .
i∈I
Démonstration.
Soit n ∈ N. On note R(n) l’assertion : pour tout e1 , . . . , en ∈ E, toute famille (x1 , . . . , xn+1 )
de n + 1 vecteurs de Vect(e1 , . . . , en ) est liée.
Pour n = 0, si x1 ∈ Vect(∅) = {0}, x1 est nul, donc (x1 ) est une famille liée.
Supposons que n ≥ 1 et que R(n − 1) est vraie.
Soit e1 , . . . , en ∈ E et (x1 , . . . , xn+1 ) une famille de n + 1 vecteurs de Vect(e1 , . . . , en ).
Xn
n
Pour tout j ∈ {1, . . . , n + 1}, il existe (αi,j )1≤i≤n ∈ K tel que xj = αi,j ei .
i=1
Premier cas : si, pour tout j ∈ {1, . . . , n + 1}, αn,j = 0, alors (x1 , . . . , xn ) est une
famille de n vecteurs de Vect(e1 , . . . , en−1 ), donc d’après R(n − 1) elle est liée. Alors
(x1 , . . . , xn+1 ) est aussi liée.
Second cas : supposons maintenant qu’il existe j0 ∈ {1, . . . , n + 1} tel que αn,j0 6= 0 :
nous allons l’utiliser comme un pivot. Quitte à réordonner les vecteurs x1 , . . . , xn+1 , on
peut supposer que j0 = n + 1. Ainsi, αn,n+1 6= 0.
αn,j
Pour tout j ∈ {1, . . . , n}, posons yj = xj − xn+1 : yj ∈ Vect(e1 , . . . , en−1 ), donc
αn,n+1
d’après R(n − 1), la famille (y1 , . . . , yn ) est liée. Ainsi, il existe (β1 , . . . , βn ) ∈ Kn \ {0}
Xn Xn
tel que 0 = βj yj = βj xj +λxn+1 , où λ ∈ K. La famille de scalaires (β1 , . . . , βn , λ)
j=1 j=1
est non nulle, donc (x1 , . . . , xn+1 ) est liée.
Corollaire. Si (e1 , . . . , en ) est une famille génératrice de E, alors toute famille libre
de E est de cardinal inférieur ou égal à n.
Théorème de la base incomplète : Soient E un K-espace vectoriel de dimension
finie et (ei )i∈I une famille génératrice de E (on ne suppose pas qu’elle contient un
nombre fini d’éléments). Soit J ⊂ I tel que (ei )i∈J est une famille libre.
Alors il existe un ensemble L avec J ⊂ L ⊂ I tel que (ei )i∈L est une base de E.
Cela signifie que toute famille libre f de E peut être complétée en une base de E à
l’aide de vecteurs d’une famille génératrice de E ( Inutile : qui contient f ).
Démonstration.
On note D l’ensemble des cardinaux des familles libres (ei )i∈K , où J ⊂ K ⊂ I.
D est une partie non vide de N. De plus, E est de dimension finie, donc il possède une
famille génératrice finie. Notons n son cardinal. Alors d’après le corollaire précédent,
D est majorée par n. D possède donc un plus grand élément, noté m et il existe une
famille libre b = (ei )i∈L avec J ⊂ L ⊂ I tel que |L| = m.
Supposons que, pour tout i0 ∈ I \ L, ei0 ∈ Vect(b). Alors pour tout i ∈ I, ei ∈ Vect(b),
donc E = Vect(ei )i∈I ⊂ Vect(b), donc b est génératrice et libre, ce qui prouve que c’est
une base de E. Il suffit donc de montrer que pour tout i0 ∈ I \ L, ei0 ∈ Vect(b).
Raisonnons par l’absurde en supposant qu’il existe i0 ∈ I \ L tel que ei0 ∈ / Vect(b).
0 0
Posons L = L ∪ {i0 }. Montrons que b = (ei )i∈L∪{i0 } est libre, ce qui contredira la
X
définition de m. Soit (αi )i∈L∪{i0 } une famille de scalaires telle que αi ei = 0.
i∈L∪{i0 }
1 X
Si αi0 6= 0, on peut écrire ei0 = − αi ei , ce qui est exclu car ei0 ∈
/ Vect(b).
αi0 i∈L
X
Ainsi, αi0 = 0, donc αi ei = 0, or b est libre, donc pour tout i ∈ L, αi = 0.
i∈L
Démonstration.
1 =⇒ 2 et 1 =⇒ 3 sont claires.
2 =⇒ 1 : supposons que e est libre et de cardinal n. On peut la compléter en une base
b de E, mais b est alors de cardinal n, donc e = b et e est bien une base de E.
3 =⇒ 1 : supposons que e est génératrice et de cardinal n. On peut en extraire une
base b de E, mais b est alors de cardinal n, donc e = b et e est bien une base de E.
Propriété. Soit E un K-espace vectoriel de dimension finie égale à n.
Toute famille libre de E a au plus n éléments et
toute famille génératrice de E a au moins n éléments.
Remarque. Tout espace de dimension finie possède donc au moins une base. C’est
aussi le cas pour les espaces vectoriels de dimension infinie, si l’on accepte l’axiome
du choix. Cependant, on peut construire des modèles de ZF dans lesquels R n’admet
aucune base en tant que Q-espace vectoriel.
Exemples. Soit E un K-espace vectoriel de dimension finie ou infinie.
{0} est un sous-espace vectoriel de E de dimension 0 car ∅ est une base de {0}.
Si u ∈ E \ {0}, alors (u) est une base de Vect(u) = {λu/λ ∈ K}, donc la droite
vectorielle Vect(u) est de dimension 1.
Si (u, v) est une famille libre de vecteurs de E, Vect(u, v) = {αu + βv/α, β ∈ K}
admet comme base (u, v), donc il est de dimension 2. On dit que Vect(u, v) est le plan
vectoriel engendré par (u, v).
Exemple.
Soit I un intervalle d’intérieur non vide de R et b : I −→ C une application
continue. Alors l’ensemble des solutions de l’équation différentielle (E) : y 0 = b(t)y
est la droite vectorielle engendrée par l’application t 7−→ eB(t) , où B est une primitive
de b. C’est un sous-espace vectoriel du C-espace vectoriel C 1 (I, C).
Soit a, b ∈ R tels que a2 − 4b > 0. Alors l’ensemble des solutions de l’équation
différentielle (E) : y 00 + ay 0 + by = 0 est le plan vectoriel engendré par
(t 7−→ er1 t , t 7−→ er2 t ), où r1 et r2 sont les racines du polynôme caractéristique
X 2 + aX + b. C’est un sous-espace vectoriel du R-espace vectoriel C ∞ (R, R).
Théorème. Soit E un K-espace vectoriel de dimension quelconque.
Soit F et G deux sous-espaces vectoriels de E avec G de dimension finie et F ⊂ G.
Alors F est de dimension finie avec dim(F ) ≤ dim(G).
De plus [F = G ⇐⇒ dim(F ) = dim(G)].
Démonstration.
Toute famille libre de F est une famille libre de G, donc elle est de cardinal inférieure à
dim(G). Ainsi, l’ensemble D des cardinaux des familles libres de F est une partie non
vide et majorée de N, donc elle possède un maximum noté m. Il existe une famille libre
de vecteurs de F de cardinal m. Par construction c’est une famille libre maximale de
F , donc c’est une base de F . Ainsi F est de dimension finie et dim(F ) = m ≤ n.
Supposons que dim(F ) = dim(G). Alors la famille maximale précédente est une famille
libre de G de cardinal égal à la dimension de G, donc c’est aussi une base de G. Alors
cette famille engendre à la fois F et G, donc F = G.
Remarque. Ainsi, en dimension finie, pour montrer que deux sous-espaces vectoriels
sont égaux, il suffit de montrer une inclusion et l’égalité des dimensions.
Propriété. C est un R-espace vectoriel de dimension 2, dont (1, i) est une base.
Démonstration.
Pour tout z ∈ C, il existe x, y ∈ R tel que z = x + iy, donc la famille de complexes
(1, i) est une famille génératrice de C, vu comme un R-espace vectoriel .
De plus, si x + iy = 0 avec x, y ∈ R, on sait alors que x = y = 0, donc (1, i) est une
famille libre.
Ainsi (1, i) est une base du R-espace vectoriel C. Ceci prouve que C est un R-espace
vectoriel de dimension finie et que dimR (C) = 2.
Dans la base (1, i), les coordonnées d’un complexe sont ses parties réelle et imaginaire.
De plus, pour tout x = (αi )i∈I ∈ K(I) , x = αi ci . Ainsi, les coordonnées de x dans
i∈I
la base canonique sont exactement ses composantes.
Démonstration. X
Soit (αi ) ∈ K(I) . Pour tout i ∈ I, αi = δi,j αj ,
j∈I
X X
donc (αi )i∈I =( δi,j αj )i∈I = αj (δi,j )i∈I .
j∈I j∈I
X
Ainsi (αi )i∈I = αj cj .
j∈I
Ceci prouveXque c est une famille génératrice de K(I) .
De plus, si αj cj = 0, (αi )i∈I = 0, donc, pour tout i ∈ I, αi = 0, ce qui prouve que
j∈I
c est aussi une famille libre.
n
Corollaire. La base canonique de K[X] X est la famille (X )n∈N .
Ainsi, pour P ∈ K[X], l’écriture P = ak X k est la décomposition de P dans la base
k∈N
canonique de K[X].
Démonstration.
K[X] = K(N) et pour tout n ∈ N, X n = (δi,n )i∈N .
Corollaire. Soit n ∈ N. (1, X, . . . , X n ) est une base de Kn [X], encore appelée la base
canonique de Kn [X]. On en déduit que dim(Kn [X]) = n + 1.
Corollaire. Soit n, p ∈ N∗ . La base canonique de Mn,p (K) est la famille de matrices
(Ei,j ) 1≤i≤n définie par : Pour tout i ∈ {1, . . . , n} et j ∈ {1, . . . , p}, Ei,j = (δa,i δb,j ) 1≤a≤n .
1≤j≤m 1≤b≤p
Ei,j est appelée la (i, j)-ième matrice élémentaire de Mn,p (K). Tous ses coefficients sont
nuls, sauf celui de position (i, j) qui estX égal à 1.
Ainsi, pour tout M ∈ Mn,p (K), M = Mi,j Ei,j .
1≤i≤n
1≤j≤p
2.4 Exemples
2 u1 v1
Propriété. Dans K , deux vecteurs u = et v = forment une base de K2
u2 v2
∆
si et seulement si u1 v2 − u2 v1 = detc (u, v) 6= 0.
Démonstration.
dim(K2 ) = 2, donc
faux, donc la famille (αn )0≤n≤N est nulle. Ainsi la famille (Pn )0≤n≤N est une
famille libre de KN [X] de cardinal N + 1. Or la famille (X n )0≤n≤N est la base
canonique de KN [X], donc KN [X] est un espace vectoriel de dimension N + 1.
Ainsi (Pn )0≤n≤N est une base de KN [X].
relation (1). On peut également faire un développement limité de (1) au voisinage d’un point
bien choisi.]
Pour tout n ∈ N∗ , xn −→ 0, donc fn (x) = xn + o(xn ).
x→0
X
Ainsi, 0 = α0 sin(1) + (αn xn + o(xn )).
n≥1
On suppose qu’il existe un αn 6= 0 avec n ≥ 1.
Appelons k le plus petit n ≥ 1 tel que αn 6= 0.
Alors 0 = α0 sin(1) + αk xk + o(xk ). D’après l’unicité du développement limité (de
l’application identiquement nulle), αk = 0, ce qui est faux.
Ainsi les αn sont nuls pour n ≥ 1. On en déduit que α0 sin(1) = 0, donc que α0
est aussi nul. La famille (fn )n∈N est donc libre.
Théorème. Si E1 , . . . , En sont n sous-espaces vectoriels de dimensions finies, alors
E1 × · · · × En est de dimension finie et
Démonstration.
Le cas général se déduit du cas où n = 2 par récurrence car
E1 × · · · × En = (E1 × · · · × En−1 ) × En (Logique et vocabulaire ensembliste page 7).
Soit donc E et F deux espaces vectoriels de dimensions p et q. Notons e = (e1 , . . . , ep )
une base de E et f = (f1 , . . . , fq ) une base de F .
p q
X X
Pour tout (x, y) ∈ E × F , avec x = xi ei et y = y j fj ,
i=1 j=1
p
X q
X
(x, y) = (x, 0) + (0, y) = xi ei , 0 + (0, yj fj , donc
i=1 j=1
p q
X X
(x, y) = xi (ei , 0) + yj (0, fj ) : ceci démontre que la concaténation des familles
i=1 j=1
((e1 , 0), . . . , (ep , 0)) et ((0, f1 ), . . . , (0, fq )) est une famille génératrice de E × F .
Notons g cette famille.
p q
X X
Pour montrer qu’elle est libre, supposons que xi (ei , 0) + yj (0, fj ) = 0, où
i=1 j=1
(xi )1≤i≤p et (yj )1≤j≤q sont deux familles de scalaires. D’après le calcul précédent,
p q
X X
(x, y) = 0, où x = xi ei et y = yj fj , or e et f sont libres, donc pour tout i
i=1 j=1
et j, xi = yj = 0. Ainsi g est une base de E × F .
Alors dim(E × F ) = |g| = p + q = dim(E) + dim(F ).
Propriété. Si e = (ei )i∈I est une base de E, alors E est isomorphe à K(I) .
Démonstration.
Ψe est en effet un isomorphisme de K(I) dans E.
Théorème.
• L’image d’une famille libre par une injection linéaire est une famille libre.
• L’image d’une famille génératrice par une surjection linéaire est génératrice.
• L’image d’une base par un isomorphisme est une base.
Démonstration.
Soient E et F deux K-espaces vectoriels , u ∈ L(E, F ) et x = (xi )i∈I ∈ E I .
• Supposons que x est libre et que u est injective. Alors u et Ψx sont injectives, donc
Ψu(x) est injective en tant que composée de deux applications injectives. Ainsi u(x) est
une famille libre.
• Supposons que x est génératrice et que u est surjective. Alors u et Ψx sont surjectives,
donc Ψu(x) est surjective en tant que composée de deux applications surjectives. Ainsi
u(x) est une famille génératrice.
Théorème. Deux espaces de dimensions finies ont la même dimension si et seulement
si ils sont isomorphes.
Démonstration.
Soit E et F deux K-espaces vectoriels de dimensions finies respectives n et m.
Suppose qu’il existe un isomorphisme f de E dans F . Soit e = (e1 , . . . , en ) une base de
E. Alors (f (e1 ), . . . , f (en )) est une base de F , donc dim(F ) = n = dim(E).
Réciproquement, supposons que n = m. On sait que l’application Ψe canoniquement
associée à e est un isomorphisme de Kn dans E. De même on montre que F et Kn sont
isomorphes, donc E et F sont isomorphes.
Remarque. On dispose ainsi de deux techniques importantes pour calculer la dimen-
sion d’un espace vectoriel E : rechercher une base de E et calculer son cardinal ou bien
chercher un isomorphisme entre E et un espace de dimension connue.
Exercice. Montrer que le cardinal d’un corps fini est de la forme pn où p ∈ P
et n ∈ N∗
Solution : Soit L un corps fini. Alors car(L) 6= 0, donc en posant p = car(L),
p ∈ P. Notons K le sous-corps premier de L. On sait que K est isomorphe à Fp ,
donc il est de cardinal p.
L est un K-espace vectoriel , et (x)x∈L est une famille génératrice finie de L, donc
L est de dimension finie. Posons n = dimK (L). Alors L est un K-espace vectoriel
isomorphe à Kn , donc |L| = pn .
Propriété. Soit E et F deux espaces de dimensions finies et soit f ∈ L(E, F ).
Théorème.
On suppose que E est un K-espace vectoriel admettant une base e = (ei )i∈I .
Soit f = (fi )i∈I une famille quelconque de vecteurs d’un second K-espace vectoriel F .
Il existe une unique application linéaire u ∈ L(E, F ) telle que,
∀i ∈ I u(ei ) = fi .
libre injective
De plus, (fi )i∈I est génératrice si et seulement si u est surjective .
une base bijective
Démonstration.
Soit u ∈ L(E, F ). X X
(∀i ∈ I u(ei ) = fi ) ⇐⇒ ∀(αi ) ∈ K(I) αi u(ei ) = αi fi
i∈I i∈I
⇐⇒ Ψu(e) = Ψf ⇐⇒ u ◦ Ψe = Ψf
⇐⇒ u = Ψf ◦ Ψ−1 e
car e étant une base Ψe est un isomorphisme.
Ainsi il existe une unique application linéaire u ∈ L(E, F ) telle que ∀i ∈ I u(ei ) = fi .
Il s’agit de u = Ψf ◦ Ψ−1 e .
f est libre si et seulement si Ψf est injective, donc si et seulement si u = Ψf ◦ Ψ−1 e est
injective.
f est génératrice si et seulement si Ψf est surjective, donc si et seulement si u = Ψf ◦Ψ−1
e
est surjective.
Démonstration.
Posons n = dim(E) et notons e = (ei )1≤i≤n une base de E. D’après le précédent
corollaire, dim(L(E, F )) = dim(F {1,...,n} ) = dim(F n ) = n × dim(F ).
t
4
pour matrice dans les bases canoniques de K et K la matrice ligne (1 1 − 2 3).
Plus généralement la matrice d’une forme linéaire est toujours une matrice ligne.
u: R2 −→ R3
2x + y
Exemple. Considérons x
7−→ y .
y
3x − y
u est une application linéaire et, si l’on note B = (b1 , b2 ) et C = (c1 , c2 , c3 ) les bases
2 3
canoniques de R et de R respectivement,
2 1 2
1
mat(u, B, C) = 0 1 . En effet, u(b1 ) = u = 0
0
3 −1 3
1
0
et u(b2 ) = u = 1 .
1
−1
L(E, F ) −→ MK (n, p)
L’application est un isomorphisme d’espaces vectoriels.
u 7−→ mat(u, e, f )
Démonstration.
Soit u, v ∈ L(E, F ) et λ ∈ K.
Posons U = mat(u, e, f ), V = mat(v, e, f ) et M = mat(λu + v, e, f ).
Soit i ∈ Nn et j ∈ Np . Mi,j est la i-ème coordonnée de (λu + v)(ej ) dans la base f .
C’est donc fi∗ (λu(ej ) + v(ej )), or fi∗ est linéaire, donc Mi,j = λfi∗ (u(ej )) + fi∗ (v(ej )) =
λUi,j + Vi,j , donc M = λU + V ,
c’est-à-dire mat(λu + v, e, f ) = λmat(u, e, f ) + mat(v, e, f ). Ceci prouve la linéarité.
Soit M = (αi,j ) ∈ MK (n, p) et u ∈ L(E, F ). On a vu que M = mat(u, e, f ) si et
Xn
seulement si pour tout j ∈ Np , u(ej ) = gj , où gj = αi,j fi , or on a déjà énoncé
i=1
qu’il existe une unique u ∈ L(E, F ) telle que, pour tout j ∈ Np , u(ej ) = gj (i.e : une
application linéaire est uniquement déterminée par la donnée des images des vecteurs
d’une base de l’espace de départ). Ainsi, M possède un unique antécédent : l’application
est bijective.
Remarque. En particulier, lorsque E = Kp et F = Kn , où n, p ∈ N∗ , en notant cn et
cp les bases canoniques de Kn et de Kp , on vient de montrer que
Ψ : L(Kp , Kn ) −→ MK (n, p)
est un isomorphisme. On le savait déjà car c’est
u 7−→ mat(u, cp , cn )
MK (n, p) −→ L(Kp , Kn )
l’isomorphisme réciproque de .
M 7−→ M̃
Théorème. Soient E, F et G trois K-espaces vectoriels de dimensions respectives q, p
et n, munis de bases e, f et g. Soient u ∈ L(E, F ) et v ∈ L(F, G).
Alors, mat(v ◦ u, e, g) = mat(v, f, g) × mat(u, e, f ).
Démonstration.
Posons U = mat(u, e, f ) ∈ MK (p, q), V = mat(v, f, g) ∈ MK (n, p)
et M = mat(v ◦ u, e, g) ∈ MK (n, q). Soit k ∈ Nq et i ∈ Nn .
p
h X i X p
∗ ∗
Mi,k = gi (vu(ek )) = gi v Uj,k fj = Uj,k gi∗ [v(fj )],
j=1 j=1
p
X
donc Mi,k = Uj,k Vi,j = [V U ]i,k , ce qui prouve que M = V U .
j=1
Exemple. On peut ainsi remplacer un calcul matriciel par un calcul sur des applica-
tions linéaires. Par exemple, on peut retrouver que, dans MK (n), Ei,j Eh,k = δj,h Ei,k :
Notons e = (e1 , . . . , en ) la base canonique de Kn .
Pour (i, j) ∈ N2n , notons ui,j l’endomorphisme de Kn canoniquement associé à Ei,j .
Pour tout k ∈ Nn , ui,j (ek ) = δk,j ei .
Soit l ∈ Nn . ui,j ◦ uh,k (el ) = ui,j (δk,l eh ) = δk,l δj,h ei , donc ui,j ◦ uh,k (el ) = δj,h ui,k (el ).
Ainsi, ui,j ◦ uh,k = δj,h ui,k , puis en prenant les matrices de ces endomorphismes,
Ei,j Eh,k = δj,h Ei,k .
u(x) = y ⇐⇒ M X = Y.
Démonstration.
On pourrait bien sûr passer aux coordonnées et mener un calcul analogue à celui de
la démonstration de la propriété précédente. Essayons plutôt d’utiliser cette dernière
propriété.
x̂ : K −→ E
Si x ∈ E, notons : x̂ ∈ L(K, E).
λ 7−→ λx
E −→ L(K, E)
L’application est un isomorphisme, dont la bijection réciproque est
x 7−→ x̂
L(K, E) −→ E
. De même, à tout y ∈ F , on associe ŷ = (λ 7−→ λy) ∈ L(K, F ).
a 7−→ a(1)
d = u ◦ x̂, car pour tout λ ∈ K, u(x)(λ)
On vérifie que u(x) d = λu(x) = u(λx) = u(x̂(λ)).
Alors y 7−→ ŷ étant injective,
u(x) = y ⇐⇒ u(x) d = ŷ
⇐⇒ mat(u ◦ x̂, 1, f ) = mat(ŷ, 1, f )
⇐⇒ M × mat(x̂, 1, e) = mat(ŷ, 1, f ).
Or mat(x̂, 1, e) est une matrice colonne dont les composantes sont les coordonnées de
x̂(1) = x dans la base e, donc mat(x̂, 1, e) = X, et de même, mat(ŷ, 1, e) = Y .
Propriété.
On reprend les notations de la propriété précédente et on suppose de plus que n = p.
Alors u est un isomorphisme si et seulement si M est une matrice inversible et dans ce
cas, mat(u, e, f )−1 = mat(u−1 , f, e).
Démonstration.
u est bijective si et seulement si pour tout y ∈ F , il existe un unique x ∈ E tel que
u(x) = y, donc si et seulement si pour tout Y ∈ Kn , il existe un unique X ∈ Kn tel
que M X = Y , c’est-à-dire si et seulement si M est inversible.
Dans ce cas, posons N = mat(u−1 , f, e).
Alors M N = mat(uu−1 , f, f ) = mat(IdF , f, f ) = In , donc N = M −1 .
son inverse.
Solution : Notons u : Kn [X] −→ Kn [X] définie par u(P ) = P (X + 1).
Notons c la base canonique de Kn [X]. Pour tout j ∈ {0, . . . , n},
j
X j
j
(X + 1) = X i , donc M = mat(u, c).
i
i=0
Or u est inversible et u−1 : P 7−→ P (X − 1), donc M est une matrice inversible
et M −1 = mat(u−1 , c). Pour tout j ∈ {0, . . . , n},
j
j j
X
j i j−i −1
(X − 1) = X (−1) , donc M = (−1)j−i 1≤i≤n .
i i 1≤j≤n
i=0
où, pour tout (i, j) ∈ {1, . . . , n} × {1, . . . , p}, αi,j ∈ K, pour tout i ∈ {1, . . . , n}, bi ∈ K,
les p inconnues
étant x1 , . . . , xp , éléments de K.
b1
.
Le vecteur .. est appelé le second membre du système, ou bien le membre constant.
bn
Lorsqu’il est nul, on dit que le système est homogène.
Première interprétation.
Combinaison
linéaire
de vecteurs.
α1,1 α1,2 α1,p b1
.. .. .. ..
. . .
.
Notons C1 = αi,1 , C2 = αi,2 , . . ., Cp = αi,p , et B = bi . Il s’agit de
.
..
.
..
.
.. .
.
.
αn,1 αn,2 αn,p bn
p + 1 vecteurs de Kn . Alors
(S) ⇐⇒ x1 C1 + x2 C2 + · · · + xp Cp = B.
Définition. On dit que (S) est compatible si et seulement s’il admet au moins une
solution.
Propriété. (S) est compatible si et seulement si B ∈ Vect(C1 , . . . , Cp ).
Démonstration.
S est compatible si et seulement s’il existe (x1 , . . . , xp ) ∈ Kp tel que
B = x1 C1 + x2 C2 + · · · xp Cp , c’est-à-dire si et seulement si B ∈ Vect(C1 , . . . , Cp ).
Deuxième interprétation. Matricielle.
x1
.
Notons M la matrice de Mn,p (K) dont les colonnes sont C1 , . . ., Cp , et X = .. .
xp
Alors
(S) ⇐⇒ M X = B.
(S) ⇐⇒ u(x) = b.
Li ←→ Lj : MK (n, p) −→ MK (n, p)
M 7−→ P(i,j) M
De même, en notant (Ei,j )(i,j)∈{1,...,p}2 la base canonique de Mp (K), si λ ∈ K∗ et
(i, j) ∈ {1, . . . , p}2 avec i 6= j, alors
Ci ←→ Cj : MK (n, p) −→ MK (n, p)
M 7−→ M P(i,j)
Propriété. Si l’on effectue une série d’opérations élémentaires sur les lignes d’une
matrice M , alors on a multiplié M à gauche par une certaine matrice inversible.
Si l’on effectue une série d’opérations élémentaires sur les colonnes d’une matrice M ,
alors on a multiplié M à droite par une certaine matrice inversible.
Notation. Soit (S) : M X = B un système linéaire de matrice M ∈ Mn,p (K) et de
vecteur constant B ∈ Kn .
1 1 1 0 | 0 0 0 1
la somme des suivantes. On obtient comme nouvelle matrice :
b ··· b a
Pour simplifier les notations, si on transforme (ai,j ) par des opérations élémentaires, le
résultat sera encore noté (ai,j ) : C’est la matrice globale d’un système équivalent à (S).
But : On veut transformer la matrice globale en une matrice (ai,j ) de dimensions
(n, p + 1) telle que
La méthode du pivot permet aussi de déterminer une base de l’image d’une application
linéaire : On considère sa matrice dans des bases données et on détermine une base de
ses vecteurs colonnes en appliquant la méthode du pivot au niveau des colonnes.
Remarque. Le système final présente une matrice triangulaire supérieure, la dernière
colonne exceptée. On dit que le système est échelonné.
Cependant, comme les pivots peuvent être nuls, il est assez difficile de programmer la
résolution de ce système échelonné.
Exercice. Soit λ ∈ R. Déterminez la compatibilité et les éventuelles solutions
du système suivant :
λx +y +z +t =1
x +λy +z +t = λ
.
x +y +λz +t = λ2
x +y +z +λt = λ3
λ 1 1 1 1
1 λ 1 1 λ
Résolution : La matrice globale du système est 1 1 λ 1 λ2 .
1 1 1 λ λ3
Le pivot de la première étape est 1 (on adopte la stratégie ‘humaine’). On obtient
comme nouvelle matrice :
1 λ 1 1 λ
0 1 − λ2 1 − λ 1 − λ 1 − λ2
.
0 1 − λ λ − 1 0 λ(λ − 1)
0 1−λ 0 λ − 1 λ(λ2 − 1)
Premier cas : Si λ 6= 1, on simplifie les équations par 1 − λ. On obtient ainsi
1 λ 1 1 λ
0 1 + λ 1 1 1+λ
. Pour la seconde étape, le pivot choisi est 1.
0 1 −1 0 −λ
0 1 0 −1 −λ(1 + λ)
On
aboutit à
1 λ 1 1 λ
0 1 −1 0 −λ
0 0 2 + λ 1 (1 + λ)2 . Pour la troisième étape, le pivot choisi est 1.
0 0 1 −1 −λ2
On
aboutit à
1 λ 1 1 λ
0 1 −1 0 −λ
2
.
0 0 1 −1 −λ
2 2
0 0 0 3 + λ (1 + λ) + λ (λ + 2)
1.1 : Si λ 6= −3, le système est de Cramer et l’unique solution est donnée par :
λ3 + 3λ2 + 2λ + 1 λ3 + 3λ2 + 2λ + 1 2λ + 1
t= , z = −λ2 + = ,
λ+3 λ+3 λ+3
2λ + 1 −λ2 − λ + 1
y = −λ + = ,
λ+3 λ+3
c Éric Merle 44 MPSI2, LLG
Algébre linéaire 3 Les systèmes linéaires
Si la matrice de (S) est celle d’une application linéaire u dans des bases e et f , ces
conditions de compatibilité constituent un système d’équations de Im(u) dans la base
f.
En cas de compatibilité, le système triangulaire final peut être facilement résolu :
Définition. Résoudre un système (S) : M X = B à n équations et p inconnues, c’est
déterminer une partie I de {1, . . . , p} et une famille (bi,j )(i,j)∈({1,...,p}\I)×I telles que :
X
∀i ∈ {1, . . . , p} \ I, xi = ci + bi,j xj .
j∈I
On dit que (xj )j∈I est la famille des inconnues principales et que (xi )i∈{1,...,p}\I est la
famille des inconnues secondaires (Attention : Le choix de la partie I n’est en général
pas unique).
En résumé, résoudre un système, c’est exprimer les inconnues secondaires en fonction
des inconnues principales.
Après déroulement de l’algorithme du pivot total, la résolution du système triangulaire
final se fait en prenant naturellement comme inconnues principales xs+1 , . . . , xn .
Attention : Ces inconnues ne sont pas nécessairement les n − s dernières inconnues du
système d’origine, car d’éventuelles permutations de colonnes ont peut-être modifiées
l’ordre des inconnues.
Démonstration.
nXk o
Notons F = xi / ∀i ∈ {1, . . . , k} xi ∈ Ei .
i=1
k
X
• Pour tout i ∈ {1, . . . , k}, 0 ∈ Ei , donc 0 = 0 ∈ F . Ainsi, F 6= ∅.
i=1
Soit (α, β, x, y) ∈ K2 × F 2 . Il existe (xi )1≤i≤k ∈ E1 × · · · × Ek et
X k k
X
(yi )1≤i≤k ∈ E1 × · · · × Ek tels que x = xi et y = yi .
i=1 i=1
k
X
αx + βy = (αxi + βyi ) ∈ F , donc F est stable par combinaison linéaire.
i=1
Ainsi, F est un sous-espace vectoriel.
[k
• Soit x ∈ Ei . Il existe j ∈ {1, . . . , k} tel que x ∈ Ej .
i=1
Pour i = j, posons xi = x et pour tout i ∈ {1, . . . , k} \ {j}, posons xi = 0.
k
X
(xi )1≤i≤k ∈ E1 × · · · × Ek et x = xi , donc x ∈ F .
i=1
k
[
Ainsi F contient Ei .
i=1
k
[
• Soit G un sous-espace vectoriel qui contient Ei .
i=1
k
X
Si (x1 , . . . , xk ) ∈ E1 × · · · × Ek , xi ∈ G, donc F ⊂ G.
i=1
k
[
Ainsi F est bien le plus petit sous-espace vectoriel contenant Ei .
i=1
Exemples. Si F est un K-espace vectoriel , F + {0} = F = F + F .
k
X
Notation. On note également, E1 + · · · + Ek = Ei .
i=1
Définition. On dit que la somme précédente est directe si et seulement si
k
!
X
∀(x1 , . . . , xk ) ∈ E1 × · · · × Ek xi = 0 =⇒ (∀i ∈ {1, . . . , k} xi = 0) .
i=1
M
Dans ce cas, la somme est notée E1 ⊕ · · · ⊕ Ek ou encore Ei .
1≤i≤k
Les notions de famille libre et de somme directe sont donc très proches.
Propriété.
k
X
Reprenons les notations ci-dessus. Ei est une somme directe si et seulement si
i=1
k
X k
X
∀x ∈ Ei , ∃!(x1 , . . . , xk ) ∈ E1 × · · · × Ek x = xi .
i=1 i=1
Démonstration.
k
X k
X
Notons ϕ : E1 × · · · × Ek −→ Ei l’application définie par : ϕ(x1 , . . . , xk ) = xi .
i=1 i=1
k
X
On vérifie que ϕ est linéaire. Elle est surjective par définition de Ei .
i=1
n k
X o
De plus, Ker(ϕ) = (x1 , . . . , xk ) ∈ E1 × · · · × Ek / xi = 0 .
i=1
Ainsi, la somme est directe si et seulement si Ker(ϕ) = {0}, donc si et seulement si ϕ est
k
X
injective, c’est-à-dire bijective, ce qui est équivalent à l’existence, pour tout x ∈ Ei ,
i=1
k
X
d’un unique (x1 , . . . , xk ) ∈ E1 × · · · × Ek tel que x = xi .
i=1
∗
Exemple. Soit n ∈ N . Notons c = (c1 , . . . , cn ) la base canonique de Kn . Pour tout
n
M
n
i ∈ {1, . . . , n}, notons Ei = Vect(ci ). Alors K = Ei .
i=1
Démonstration.
Soit y ∈ F ∩ Kx. Il existe λ ∈ K tel que y = λx.
1
Si λ 6= 0, x = y ∈ F , ce qui est faux, donc λ = 0, ce qui prouve que y = 0.
λ
Ainsi, F ∩ Kx = {0}, donc la somme de F et de Kx est directe.
Corollaire. Deux droites vectorielles distinctes sont en somme directe.
Démonstration.
Soient E un K-espace vectoriel et D et D0 deux droites vectorielles distinctes de E.
Il existe (x, x0 ) ∈ (E \ {0})2 tel que D = Vect(x) et D0 = Vect(x0 ).
Si x0 ∈ D, on montre que D0 = D, ce qui est faux, donc x0 ∈ D0 \ D. Ainsi D et
D0 = Kx0 sont en somme directe.
Définition. On dit que deux sous-espaces vectoriels F et G de E sont
supplémentaires (dans E) si et seulement si ils vérifient l’une des conditions
équivalentes suivantes :
i) E = F ⊕ G.
ii) E = F + G et F ∩ G = {0}.
iii) ∀x ∈ E ∃!(x1 , x2 ) ∈ F × G x = x1 + x2 .
Démonstration.
rg(vu) = dim(v(Im(u))) ≤ dim(Im(u)), avec égalité lorsque v est injective.
rg(vu) = dim(v(u(E))) ≤ dim(v(E)), avec égalité lorsque u est surjective.
∆
Définition. Si M ∈ MK (n, p), le rang de M est rg(M ) = rg(M̃ ) = dim(Im(M )).
Le rang d’une matrice est aussi le rang de la famille de ses vecteurs colonnes.
Démonstration.
On a déjà vu que Im(M ) est l’espace vectoriel engendré par les colonnes de M .
1 1 2 2
Exemple. Le rang de 0 1 2 1 est 2, car les deux premières colonnes sont
1 1 2 2
libres et les suivantes sont des combinaisons linéaires des deux premières.
Propriété. Soient E et F deux K-espaces vectoriels de dimensions finies, munis de
bases e et f et soit u ∈ L(E, F ). Alors rg(mat(u, e, f )) = rg(u).
Démonstration.
Notons e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ).
Alors les colonnes de mat(u, e, f ) sont les Ψ−1 f (u(ej )), donc
−1
rg(mat(u, e, f )) = rg(Ψf (u(ej ))1≤j≤p ) = rg(u(e)) car Ψ−1 f est injective.
De plus, e étant une base de E, on a déjà vu que rg(u(e)) = rg(u).
Propriété. M ∈ Mn (K) est inversible si et seulement si rg(M ) = n.
Propriété. Soit (A, B) ∈ MK (n, p) × MK (p, q). Alors, rg(AB) ≤ min(rg(A), rg(B)).
On ne modifie pas le rang d’une matrice en la multipliant à gauche ou à droite par une
matrice inversible.
Théorème.
M Soit (Ei )1≤i≤k une famille de k sous-espaces vectoriels de E telle que
E= Ei . Soit F un second K-espace vectoriel et, pour tout i ∈ {1, . . . , k}, soit ui
1≤i≤k
une application linéaire de Ei dans F .
Il existe une unique application linéaire u de E dans F telle que,
pour tout i ∈ {1, . . . , k}, la restriction de u à Ei est égale à ui .
Ainsi, pour définir une application linéaire u de E dans F , on peut se contenter de
préciser ses restrictions aux sous-espaces vectoriels Ei .
Démonstration.
Unicité. Supposons qu’il existe une application linéaire u de E dans F telle que,
pour tout i ∈ {1, . . . , k}, la restriction de u à Ei est égale à ui .
k
X
Soit x ∈ E. Il existe un unique (xi )1≤i≤k tel que, pour tout i, xi ∈ Ei et x = xi .
i=1
k
X k
X
Alors u(x) = u(xi ) = ui (xi ), ce qui prouve l’unicité : u est nécessairement
i=1 i=1
k
X k
X
l’application qui à x ∈ E associe ui (xi ) où xi est l’unique décomposition de x
M i=1 i=1
dans Ei .
1≤i≤k
Existence. Notons u l’application ainsi définie. Il est clair que pour tout i, u|Ei = ui .
Il reste à montrer que u est linéaire.
k
X X k
Soit x, y ∈ E et α ∈ K. Ecrivons x = xi et y = yi , avec pour tout i, xi , yi ∈ Ei .
i=1 i=1
k
X
Alors αx + y = (αxi + yi ), donc par définition de u,
i=1
k
X k
X
u(αx + y) = ui (αxi + yi ) = [αui (xi ) + u(yi )],
i=1 i=1
k
X Xk
donc u(αx + y) = α ui (xi ) + ui (yi ) = αu(x) + u(y).
i=1 i=1
k
Y
L(E, F ) −→ L(Ei , F )
Remarque. La propriété précédente signifie que est un
i=1
u 7−→ (u/Ei )1≤i≤k
isomorphisme, la linéarité étant simple à démontrer.
Il suffit en effet de prendre 3 droites deux à deux distinctes d’un plan vectoriel.
i) ∀i
M ∈ {1,. . . , p} (Ej )j∈Ii forment une somme directe,
et ii) Ej forment une somme directe.
i∈{1,...,p}
j∈Ii
k p M
X X
0 = xh = yi et d’après ii), Ej forment une somme directe, donc,
1≤i≤p
h=1 i=1 j∈Ii
pour tout i ∈ {1, . . . , p}, yi =X
0.
Soit i ∈ {1, . . . , p}. 0 = yi = xj et (Ej )j∈Ii forment une somme directe, donc pour
j∈Ii
tout j ∈ Ii , xj = 0.
Ainsi, pour tout h ∈ {1, . . . , k}, xh = 0, ce qui prouve que E1 , . . . , Ek forment une
somme directe.
Théorème. Soient k un entier supérieur ou égal à 2, et (Ei )1≤i≤k une famille de
k sous-espaces vectoriels de E. E1 , . . . , Ek sont en somme directe si et seulement si
i−1
\X
∀i ∈ {2, . . . , k} Ei Ej = {0}.
j=1
Démonstration.
Effectuons une démonstration par récurrence.
Soit k ≥ 2. Notons R(k) l’assertion suivante : pour tout k-uplet (E1 , . . . , Ek ) de sous-
espaces vectoriels de E, E1 , . . . , Ek forment une somme directe si et seulement si
i−1
\X
∀i ∈ {2, . . . , k} Ei Ej = {0}.
j=1
Pour k = 2, on a déjà montré R(2) page 49, au début du paragraphe 4.2.
Pour k ≥ 2, supposons R(k).
Soit (E1 , . . . , Ek+1 ) un (k + 1)-uplet de sous-espaces vectoriels de E.
D’après l’associativité de la somme directe, (E1 , . . . , Ek+1 ) forment une somme directe
X k
si et seulement si (E1 , . . . , Ek ) forment une somme directe et si Ek+1 et Ej forment
j=1
une somme directe, c’est-à-dire si et seulement si pour tout i ∈ {2, . . . , k},
\X i−1 k
TX
Ei Ej = {0} (d’après R(k)) et si Ek+1 Ej = {0} (d’après R(2)).
j=1 j=1
Ceci prouve R(k + 1).
Figure.
@
@
@
@
@
@
@
@
→
−@
0 @
@
@
@
@
@
@
D1 D2 D3@@
Remarque. Une erreur fréquente est de croire que (Ei )1≤i≤k constitue une somme
directe si et seulement si, pour tout (i, j) ∈ {1, . . . , k}, avec i 6= j, Ei ∩ Ej = {0}.
C’est faux. En effet, la figure représente trois droites vectorielles d’un plan vectoriel
P , notées D1 , D2 et D3 . On sait qu’elles sont deux à deux en somme directe, donc
D1 ∩ D2 = D1 ∩ D3 = D2 ∩ D3 = {0}. Cependant, D1 , D2 et D3 ne sont pas en somme
directe, car il est facile de dessiner sur la figure ci-dessus 3 vecteurs non nuls sur D1 , D2
et D3 dont la somme est nulle.
Théorème. Soit E un K-espace vectoriel muni d’une base (ei )i∈I . Soit (Ik )1≤k≤n une
n
M
partition de I. Pour tout k ∈ {1, . . . , n}, on pose Ek = Vect(ei )i∈Ik . Alors E = Ek .
k=1
Démonstration. X
• Soit x ∈ E. il existe (αi )i∈I ∈ K(I) telle que x = αi ei .
! i∈I
Xn X X n X n
x= αi e i ∈ Ek , ainsi E = Ek .
k=1 i∈Ik k=1 k=1
Xn
• Soit (xk )1≤k≤n ∈ E1 × · · · × En tel que xk = 0.
k=1 X
Pour tout k ∈ {1, . . . , n}, il existe (αi )i∈Ik ∈ K(Ik ) telle que xk = αi ei .
i∈Ik
n
X X
Ainsi 0 = xk = αi ei , or (ei ) est une famille libre, donc, pour tout i ∈ I, αi = 0.
k=1 i∈I
Ainsi, pour tout k ∈ {1, . . . , n}, xk = 0, ce qui prouve que la somme est directe.
Théorème réciproque. Soit (Ek )1≤k≤n une famille de sous-espaces vectoriels d’un
Démonstration.
Soit x, y ∈ E et α ∈ K.
Alors x = p(x) + q(x) et y = p(y) + q(y), donc αx + y = (αp(x) + p(y)) + (αq(x) + q(y))
et ((αp(x)+p(y)), (αq(x)+q(y))) ∈ F ×G. D’autre part, αx+y = p(αx+y)+q(αx+y)
avec (p(αx + y), q(αx + y)) ∈ F × G, donc d’après l’unicité de la décomposition d’un
vecteur selon F ⊕ G, p(αx + y) = αp(x) + p(y) et q(αx + y) = αq(x) + q(y).
On a montré que p, q ∈ L(E).
Soit x ∈ E. p(x) ∈ F , donc p(p(x)) = p(x). De même, q(q(x)) = q(x). Ainsi, p et q
sont des projecteurs.
Par définition, pour tout x ∈ E, x = p(x) + q(x), donc p + q = IdE .
Soit x ∈ E. p(x) ∈ F , donc q(p(x)) = 0. Ainsi, q ◦ p = 0. De même, p ◦ q = 0.
Exemples.
— IdE est le projecteur sur E parallèlement à {0}.
— 0L(E) est le projecteur sur {0} parallèlement à E.
2 2 x x
— L’application p1 : K −→ K définie par p1 = est la projection sur
y 0
1 0
la droite engendrée par parallèlement à celle engendrée par .
0 1
— Soit Q ∈ K[X] un polynôme de degré n ∈ N∗ . L’application qui à P ∈ K[X]
associe son reste pour la division euclidienne de P par Q est la projection sur
Kn−1 [X] parallèlement à l’idéal engendré par Q.
Propriété réciproque. Soit p un projecteur de E. Alors
p est le projecteur sur Im(p) parallèlement à Ker(p).
Pour tout x ∈ E, la décomposition de x selon la somme directe E = Im(p) ⊕ Ker(p)
est x = p(x) + (x − p(x)), avec p(x) ∈ F = Im(p) et x − p(x) ∈ G = Ker(p).
Pour tout x ∈ E, x = p(x) ⇐⇒ x ∈ F : F = Ker(IdE − p).
Démonstration.
Posons F = Im(p) et G = Ker(p).
Soit x ∈ E tel que p(x) = x. Alors x ∈ Im(p) = F .
Réciproquement, si x ∈ F = Im(p), il existe y ∈ E tel que x = p(y),
donc p(x) = p ◦ p(y) = p(y) = x car p est un projecteur.
Ainsi x ∈ F ⇐⇒ p(x) = x et Im(p) = F = Ker(IdE − p).
Soit x ∈ E. p(x − p(x)) = p(x) − p2 (x) = 0, car p est un projecteur,
donc x − p(x) ∈ Ker(p). De plus p(x) ∈ Im(p), donc x = p(x) + (x − p(x)).
|{z} | {z }
∈F ∈G
Ceci démontre que E = F + G.
Soit x ∈ F ∩ G. Alors p(x) = x et p(x) = 0, donc x = 0. Ainsi F ∩ G = {0}.
On a montré que E = F ⊕ G.
On peut donc considérer le projecteur u sur F parallèlement à G.
Soit x ∈ E. On a vu que x = p(x) + (x − p(x)) avec p(x) ∈ F et x − p(x) ∈ G, donc
u(x) = p(x). Ainsi, p = u.
Exercice. On note p : R2 −→ R2 l’application définie par
4.6.1 Définitions
Démonstration.
Effectuons une récurrence portant sur le nombre de sous-espaces propres.
Soit h ∈ N∗ . Notons R(h) l’assertion suivante :
pour toute famille (λ1 , . . . , λh ) de h valeurs propres deux à deux distinctes de u, la
Xh
somme Eλj est directe.
j=1
• Supposons que h = 1. Toute famille (Ei )1≤i≤1 constituée d’un seul sous-espace
vectoriel de E forme une somme directe, car, pour tout x1 = (xi )1≤i≤1 ∈ E1 ,
1
X
si xi = 0, alors x1 = 0.
i=1
Ainsi, la propriété R(1) est vraie.
• Lorsque h ≥ 1, supposons R(h).
Soit (λ1 , . . . , λh+1 ) une famille de h + 1 valeurs propres deux à deux distinctes de u.
h+1
X
Soit (x1 , . . . , xh+1 ) ∈ Eλ1 × · · · × Eλh+1 tel que xj = 0.
j=1
h
X
Ainsi, (1) : −xh+1 = xj .
j=1
h
X
Prenons l’image de (1) par u. Ainsi, −λh+1 xh+1 = λj xj .
j=1
X h
Multiplions (1) par λh+1 . Ainsi, −λh+1 xh+1 = λh+1 xj .
j=1
h
X
Effectuons la différence des deux égalités précédentes. 0 = (λj − λh+1 )xj .
j=1
Or, pour tout j ∈ Nh , (λj − λh+1 )xj ∈ Eλj , et, d’après R(h), la famille (Eλj )1≤j≤h
constitue une somme directe. Ainsi, si j ∈ Nh , (λj − λh+1 )xj = 0, or λj − λh+1 6= 0,
donc xj = 0.
L’égalité (1) prouve alors que xh+1 = 0, ce qui montre R(h + 1).
Corollaire. Si (xi )i∈I est une famille de vecteurs propres de u associés à des valeurs
propres deux à deux distinctes, alors cette famille est libre.
Démonstration.
Pour tout i ∈ I, il existe λi ∈ Sp(u) tel que u(xi ) = λi xi .
De plus, par hypothèse, pour tout (i, j) ∈ I 2 tel que i 6= j, X
λi 6= λj .
Soit (αi )i∈I une famille presque nulle de scalaires telle que αi xi = 0.
i∈I
Supposons que (αi ) est une famille non nulle. Posons J = {i ∈ I/αi 6= 0}. J étant fini
Xnon vide, les sous-espaces propres Eλi , pour i ∈ J, constituent une somme directe,
mais
or αi xi = 0 et, pour tout i ∈ J, αi xi ∈ Eλi , donc, pour tout i ∈ J, αi xi = 0.
i∈J
Les xi étant des vecteurs propres, ils sont non nuls, donc, pour tout i ∈ J, αi = 0, ce
qui est faux. Ainsi la famille (αi )i∈I est nulle, ce qui prouve que la famille (xi )i∈I est
libre.
Exemple. Reprenons pour E l’ensemble des applications de classe C ∞ de R dans R et
E −→ E f : R −→ R
pour u, . En posant λ , l’étude précédente de u montre
f 7−→ f 0 x 7−→ eλx
que (fλ )λ∈R est une famille libre de E.
4.6.2 Exemples
4.6.3 Propriétés
Propriété.
Si v ∈ L(E) commute avec u, les sous-espaces propres de u sont stables par v.
Démonstration.
Supposons que v et u commutent. Soit λ ∈ Sp(u).
Soit x ∈ Eλu . u(v(x)) = v(u(x)) = v(λx) = λv(x), donc v(x) ∈ Eλu .
Ainsi, v(Eλu ) ⊂ Eλu .
Propriété. Soit F un sous-espace vectoriel de E stable par u.
On note u/F l’endomorphisme induit par u sur F .
u
Alors Sp(u/F ) ⊂ Sp(u) et pour tout λ ∈ Sp(u/F ), Eλ /F = Eλu ∩ F .
Démonstration.
Soit λ ∈ Sp(u/F ). Il existe x ∈ F \ {0} tel que u/F (x) = λx,
or u/F (x) = u(x), donc λ ∈ Sp(u).
u
De plus, si x ∈ F , x ∈ Eλ /F ⇐⇒ u/F (x) = λx ⇐⇒ u(x) = λx ⇐⇒ x ∈ Eλu ,
u
donc Eλ /F = Eλu ∩ F .
5 Changement de base
5.1 Matrice de passage
Notation. On fixe un K-espace vectoriel E de dimension finie égale à n ∈ N∗ .
Propriété. Soit e = (e1 , . . . , en ) une base de E et f = (fj )1≤j≤n ∈ E n une famille de
n vecteurs de E. Pour tout j ∈ Nn , on pose pi,j = e∗i (fj ) : c’est la ième coordonnée dans
Xn
ème
la base e du j vecteur de la famille f . Ainsi, pour tout j ∈ Nn , fj = pi,j ei .
i=1
f est une base si et seulement si la matrice P = (pi,j ) est inversible. Dans ce cas, P
est noté Pef (ou bien Pe→f ) et on dit que Pef = (pi,j ) est la matrice de passage de
la base e vers la base f .
Démonstration.
P = mat(u, e, f ) où u est l’unique endomorphisme tel que u(e) = f . P est inversible si
et seulement si u est inversible, ce qui est vrai si et seulement si f est une base de E.
f1 ··· fn
p1,1 ··· p1,n e1
Pef = .. .. .. .
. . .
pn,1 ··· pn,n en
Démonstration.
0
IdE = IdE ◦ IdE et Pee × Pee0 = Pee = In .
Formule de changement de bases pour les applications linéaires :
Soient E et F deux K-espaces vectoriels de dimensions finies.
On suppose que e et e0 sont deux bases de E et que f et f 0 sont deux bases 0de F .
0 0
Soit u ∈ L(E, F ). Notons M = mat(u)ef , M 0 = mat(u)ef 0 , P = Pee et Q = Qff . Alors,
0 f 0
M 0 = Q−1 M P c’est-à-dire mat(u)ef 0 = Pf 0 × mat(u)ef × Pee .
Démonstration.
u = IdF ◦ u ◦ IdE .
Formule de changement de bases pour les endomorphismes :
Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). On suppose que e et e0
0
sont deux bases de E. Notons M = mat(u, e), M 0 = mat(u, e0 ) et P = Pee . Alors,
M 0 = P −1 M P .
∈ SpK (u) est une famille libre de E. De plus elle est de cardinal
λX
dim(Eλu ) = n = dim(E), donc c’est une base de E, constituée de vecteurs
λ∈SpK (u)
propres de u. Ainsi, la matrice de u dans cette base est diagonale.
Propriété. les homothéties, les projecteurs et les symétries sont diagonalisables.
Démonstration.
On a déjà vu que, pour chacun de ces endomorphismes, la somme des sous-espaces
propres est égale à l’espace E en entier.
Définition. Soit M ∈ Mn (K). On dit que M est diagonalisable si et seulement si son
endomorphisme canoniquement associé est diagonalisable.
Propriété. M ∈ Mn (K) est diagonalisable si et seulement si il existe P ∈ GLn (K)
telle que P −1 M P est une matrice diagonale.
Démonstration.
Notons u l’endomorphisme canoniquement associé à M et c la base canonique de Kn .
• Supposons que M est diagonalisable. Alors u est diagonalisable, donc il existe une
base e de Kn telle que mat(u, e) est diagonale.
Or mat(u, e) = P −1 M P , où P = Pce ∈ GLn (K).
• Réciproquement, supposons qu’il existe P ∈ GLn (K) et une matrice D diagonale
telles que M = P DP −1 .
Il existe une base e de Kn telle que P est la matrice de passage de c vers e. Alors,
mat(u, e) = P −1 mat(u, c)P = P −1 P DP −1 P = D, donc mat(u, e) est diagonale, ce qui
prouve que u est diagonalisable.
Définition. Soit M ∈ Mn (K) une matrice diagonalisable.
“diagonaliser” M , c’est déterminer une matrice diagonale D et une matrice inversible
P telles que M = P DP −1 .
Définition. Un endomorphisme u est trigonalisable si et seulement s’il existe une
base dans laquelle la matrice de u est triangulaire supérieure.
Définition. M ∈ Mn (K) est trigonalisable si et seulement si l’endomorphisme ca-
noniquement associé à M est trigonalisable, c’est-à-dire si et seulement si il existe
P ∈ GLn (K) telle que P −1 M P est triangulaire supérieure.
Démonstration.
Notons u l’endomorphisme canoniquement associé à M et c = (c1 , . . . , cn ) la base
canonique de Kn .
• Supposons que M est trigonalisable. Ainsi, il existe une base e = (e1 , . . . , en ) de
Kn telle que T = mat(u, e) est triangulaire supérieure. Donc, en notant P = Pce ,
P −1 M P = T est triangulaire supérieure.
• Réciproquement, supposons qu’il existe P ∈ GLn (K) telle que M = P T P −1 , où
T est triangulaire supérieure. Il existe une base e de Kn telle que P = Pce . Comme
M = P T P −1 , T = mat(u, e), donc M est trigonalisable.
Démonstration.
Soient M et M 0 deux matrices de MK (n, p). Si M et M 0 ont le même rang noté r, elles
sont toutes deux équivalentes à Jn,p,r , donc M est équivalente à M 0 .
Réciproquement, supposons que M est équivalente à M 0 Il existe P ∈ GLp (K) et
Q ∈ GLn (K) telles que M 0 = Q−1 M P , donc, P étant inversible, rg(M 0 ) = rg(Q−1 M ),
puis rg(M 0 ) = rg(M ).
4 5 6 15
colonne est la somme des précédentes, mais M est de rang supérieur ou égal à 3, car
la matrice extraite de M en ôtant la dernière ligne et la dernière colonne est inversible
(car triangulaire supérieure à coefficients diagonaux non nuls). Ainsi rg(M ) = 3.
Propriété. Soit A ∈ MK (n, p) une matrice non nulle.
rg(A) est égal à la taille maximale des matrices inversibles extraites de A.
Démonstration.
Posons A l’ensemble des entiers k tels qu’il existe une matrice inversible extraite de A
de taille k.
Soit k ∈ A. Il existe une matrice inversible B extraite de A de taille k. Alors d’après
la propriété précédente, k = rg(B) ≤ rg(A). Ainsi A est majorée par rg(A). De plus
1 ∈ A car A est non nulle. Ainsi A est non vide et majoré, donc il possède un maximum
noté s et s ≤ rg(A).
Posons r = rg(A). Vect(A1 , . . . , Ap ) est de dimension r, donc d’après le théorème
de la base extraite, il existe J ⊂ Np de cardinal r tel que (Aj )1≤j≤r est une base de
Vect(A1 , . . . , Ap ) = Im(A). Posons Q = (Ai,j ) i∈Nn . Q est une matrice extraite de A et
j∈J
rg(Q) = rg((Aj )j∈J ) = r.
Ainsi r est la dimension de l’espace F engendré par les lignes de Q. On peut donc à
nouveau extraire des lignes de Q une base de F : il existe I ⊂ Nn de cardinal r tel que
P = (Ai,j ) i∈I est de rang r.
j∈J
P est une matrice carrée de taille r et de rang r, donc elle est inversible, ce qui conclut.
6 Les hyperplans
Dans tout ce chapitre, on fixe un K-espace vectoriel E, où K est un corps.
Démonstration. n n
X X
Soit Ψ ∈ E ∗ : Pour tout x ∈ E, x = e∗i (x)ei , donc Ψ(x) = e∗i (x)Ψ(ei ).
i=1 i=1
n
X
Ainsi, Ψ = Ψ(ei )e∗i ∈ Vect(e∗1 , . . . , e∗n ).
i=1
Ceci prouve que e∗ est une famille génératrice de E ∗ . De plus
dim(L(E, K)) = dim(E) × dim(K) = n, donc e∗ est une base de E ∗ .
Remarque.
Les hyperplans de E sont les sous-espaces vectoriels de E de dimension n − 1.
Définition. Soit e = (e1 , . . . , en ) une base de E et H un hyperplan de E.
Xn
∗
Si H = Ker(ψ), où ψ ∈ E , en notant ψ = αi e∗i , l’équation de l’hyperplan H
i=1
n
X n
X
devient x = xi ei ∈ H ⇐⇒ αi xi = 0 : (E). On dit que (E) est une équation
i=1 i=1
cartésienne de l’hyperplan H, c’est-à-dire une condition nécessaire et suffisante portant
sur les coordonnées de x dans la base e pour que x appartienne à H.
Démonstration. n n
hX iX X
∗
x ∈ H ⇐⇒ ψ(x) = 0, or ψ(x) = αi ei xj e j = αi xj e∗i (ej ), or e∗i (ej )
i=1 j=1 1≤i≤n
1≤j≤n
n
X
représente la i-ème coordonnée de ej , donc e∗i (ej ) = δi,j , puis ψ(x) = αi xi , ce qu’il
i=1
fallait démontrer.
Exemple. Dans un plan vectoriel rapporté à une base (~ı, ~), une droite vectorielle D
a une équation cartésienne de la forme :
→
−v = x~ı + y~ ∈ D ⇐⇒ ax + by = 0, où (a, b) ∈ R2 \ {0}.
Exemple. Dans un espace vectoriel de dimension 3 rapporté à une base (~ı, ~, ~k), un
plan vectoriel P a une équation cartésienne de la forme :
→
−
v = x~ı + y~ + z~k ∈ P ⇐⇒ ax + by + cz = 0, où (a, b, c) ∈ R3 \ {0}.
où, pour tout (i, j) ∈ {1, . . . , n} × {1, . . . , p}, αi,j ∈ K, pour tout i ∈ {1, . . . , n}, bi ∈ K,
les p inconnues étant x1 , . . . , xp , éléments de K.
7 Déterminants
7.1 Applications multilinéaires
Définition. Soient p ∈ N∗ et (E1 , . . . , Ep ) une famille de p K-espaces vectoriels.
Soient F un K-espace vectoriel et f une application de E1 × · · · × Ep dans F .
f est une application p-linéaire si et seulement si, pour tout j ∈ Np
et pour tout (a1 , . . . , aj−1 , aj+1 , . . . , ap ) ∈ E1 × · · · × Ej−1 × Ej+1 × . . . × Ep ,
E −→ F
l’application j est linéaire.
xj 7−→ f (a1 , . . . , aj−1 , xj , aj+1 , . . . , ap )
Définition. Une application bilinéaire est une application 2-linéaire.
Notation.
De plus, IdNp (f ) = f , donc (σ, f ) 7−→ σ(f ) est bien une opération de groupe.
Définition. Soit f ∈ Lp (E, F ). f est une application p-linéaire symétrique si et
seulement si pour tout σ ∈ Sp , σ(f ) = f .
f est une application p-linéaire antisymétrique si et seulement si pour tout
σ ∈ Sp , σ(f ) = ε(σ)f , où ε(σ) désigne la signature de la permutation σ.
Propriété. Soit f ∈ Lp (E, F ).
f est symétrique si et seulement si pour toute transposition τ de Sp , τ (f ) = f .
f est antisymétrique si et seulement si pour toute transposition τ de Sp , τ (f ) = −f .
Démonstration.
Supposons que pour toute transposition τ de Sp , τ (f ) = −f .
Soit n ∈ N∗ . Notons R(n) l’assertion suivante :
pour toute famille de n transpositions (τ1 , . . . , τn ), (τ1 ◦ · · · ◦ τn )(f ) = (−1)n f .
Par récurrence sur n, il est simple de montrer que R(n) est vraie pour tout n ∈ N∗ .
Soit σ ∈ Sp . L’ensemble des transpositions engendre Sp , donc il existe un nombre fini
de transpositions, notées τ1 , . . .,τn , telles que σ = τ1 ◦ · · · ◦ τn .
D’après R(n), σ(f ) = (−1)n f = ε(σ)f .
Ainsi, f est une application p-linéaire antisymétrique.
La réciproque est simple à prouver.
Pour démontrer que f est symétrique si et seulement si pour toute transposition τ de
Sp , τ (f ) = f , il suffit d’adapter la démonstration précédente.
Exemples.
Kp −→ K
— L’application est p-linéaire symétrique.
(x1 , . . . , xp ) 7−→ x1 × · · · × xp
2 2
(K ) −→ K
— L’application a c a c est une forme
( , ) 7−→ ad − bc = det( , )
b d b d
bilinéaire antisymétrique.
Définition. Soit f ∈ Lp (E, F ). f est une application p-linéaire alternée si et
seulement si elle annule tout p-uplet de vecteurs de E contenant au moins deux vecteurs
égaux.
Propriété. Soit f ∈ Lp (E, F ).
Si f est alternée, alors elle est antisymétrique.
Lorsque car(K) 6= 2, alternée ⇐⇒ antisymétrique.
Démonstration.
Pour simplifier, on se limite au cas où p = 2, mais le principe de la démonstration est
valable dans le cas général : il suffit d’adapter au prix de notations plus lourdes.
Supposons que f est alternée. Soit x, y ∈ E.
0 = f (x + y, x + y) = f (x, x) + f (y, y) + f (x, y) + f (y, x) = f (x, y) + f (y, x),
donc f (x, y) = −f (y, x).
On suppose que f est antisymétrique et que car(K) 6= 2. Soit x ∈ E.
f (x, x) = −f (x, x), donc (2.1K )f (x, x) = 0, or 2.1K 6= 0, donc f (x, x) = 0.
Remarque. Lorsque K est de caractéristique 2, l’équivalence n’est plus vraie. Par
exemple l’application f : (Z/2Z)2 −→ Z/2Z définie par f (x, y) = xy est dans
L2 (Z/2Z), mais elle n’est pas alternée car f (1, 1) = 1 6= 0. Pourtant elle est symétrique,
donc antisymétrique, car dans K = Z/2Z, 1K = −1K .
Propriété. f ∈ Lp (E, F ) est alternée si et seulement si pour tout (x1 , . . . , xp ) ∈ E p ,
f (x1 , . . . , xp ) ne varie pas lorsque l’on ajoute à l’un des xi une combinaison linéaire des
autres xj .
7.2.1 Volume
Supposons temporairement que K = R.
Enoncé du problème :
Pour tout x = (x1 , . . . , xn ) ∈ E n , on note Hx l’hyperparallélépipède
Xn
Hx = { ti xi / t1 , . . . , tn ∈ [0, 1]} : c’est l’unique hyperparallélépipède de E dont les
i=1
côtés issus de l’origine sont x1 , . . . , xn .
On souhaite définir une fonction vol : E n −→ R telle que, pour tout
x = (x1 , . . . , xn ) ∈ E n , |vol(x)| soit égal au volume de Hx , en s’appuyant sur l’idée
intuitive que l’on a de la notion de volume d’une partie de E (vu comme un espace
affine). On souhaite de plus que le signe de vol(x) corresponde à l’orientation du n-
uplet x, en s’appuyant également sur une idée intuitive de la notion d’orientation. On
dira que vol(x) est le volume algébrique de Hx et par opposition, que |vol(x)| est son
volume absolu.
n-linéarité de vol :
Fixons i, j ∈ Nn ainsi que (xk )k∈Nn \{i,j} une famille de n − 2 vecteurs (si n = 1, E est
de dimension 1 et vol est clairement linéaire d’après le point précédent, donc on peut
supposer que n ≥ 2). Pour tout xi , xj ∈ E 2 , posons f (xi , xj ) = vol(xk )k∈Nn .
1◦ ) Soit a, b ∈ E 2 . Commençons par établir que f (a + b, b) = f (a, b).
Notons égalementX a = xi et b = xj .
Posons G = { tk xk / ∀k, tk ∈ [0, 1]}.
1≤k≤n
k∈{i,j}
/
Conclusion :
Si vol est une application de E n dans R telle que, pour tout x ∈ E n , |vol(x)| représente
le volume de Hx et le signe de vol(x) représente l’orientation du n-uplet x, alors en
imposant des contraintes raisonnables aux notions de volume absolu et d’orientation,
l’application vol est nécessairement une forme n-linéaire alternée.
En particulier, il suffit d’appeler orientation toute application O définie sur l’en-
semble B des bases de E à valeurs dans {1, −1} telle que, pour tout x ∈ E n :
— si l’on change l’un des vecteurs de x par son opposé, alors O(x) est remplacé
par son opposé.
— On ne change pas O(x) si l’on multiplie l’un des vecteurs de x par un réel
strictement positif, ou bien si l’on ajoute à l’un des vecteurs de x un autre
vecteur de x.
a c
Exemple. Prenons E = K2 et x = ( , ). Alors detc (x) = ad − bc. Ainsi,
b d
cette définition est cohérente avec nos précédentes définitions de déterminants.
Théorème. Soit e une base de E.
Si f est une forme n-linéaire alternée sur E, alors f = f (e)dete .
Démonstration.
Il s’agit de la formule (1).
Propriété. Avec les notations précédentes, on a aussi
X n
Y X n
Y
dete (x1 , . . . , xn ) = ε(σ) Pj,σ(j) = ε(σ) e∗j (xσ(j) ).
σ∈Sn j=1 σ∈Sn j=1
Démonstration.
Posons x = (x1 , . . . , xn ).
X Y n
dete (x) = ε(σ) Pσ(j),σ−1 (σ(j)) , donc en posant k = σ(j) dans le produit,
σ∈Sn j=1
X Yn
dete (x) = ε(σ) Pk,σ−1 (k) . De plus, l’application σ 7−→ σ −1 étant une bijection
σ∈Sn k=1
X n
Y
−1 −1
de Sn dans lui-même, on peut poser s = σ . Ainsi, dete (x) = ε(s ) Pj,s(j) .
s∈Sn j=1
Mais ε est un morphisme de groupes à valeurs dans {1, −1}, donc pour tout s ∈ Sn ,
X n
Y
ε(s−1 ) = ε(s)−1 = ε(s). Ainsi, dete (x) = ε(σ) Pj,σ(j) .
σ∈Sn j=1
Démonstration.
S3 = {IdN3 , (1 3 2), (1 2 3), (1 3), (2 3), (1 2)}.
Propriété. dete est une forme n-linéaire alternée.
Démonstration.
Soit σ ∈ Sn . Posons fσ l’application de E n dans K définie par
n
Y n
Y
∗
fσ (x1 , . . . , xn ) = ej (xσ(j) ) = e∗σ−1 (j) (xj ). D’après une propriété du paragraphe
j=1 j=1
X
précédent, fσ est une forme n-linéaire, donc dete = ε(σ)fσ est aussi une forme
σ∈Sn
n-linéaire.
Soit x = (x1 , . . . , xn ) ∈ E n . On suppose qu’il existe h, k ∈ {1, . . . , n} tels que h < k
et xh = xk . Il s’agit de montrer que dete (x) = 0.
Notons τ la transposition (h k) et An le groupe alterné de degré n, c’est-à-dire le
sous-groupe des permutations paires de Sn . On sait que Sn = An t τ An .
X Yn XY n XY n
∗ ∗
Ainsi, dete (x) = ε(σ) ej (xσ(j) ) = ej (xσ(j) ) − e∗j (xτ σ(j) ),
σ∈Sn j=1 σ∈An j=1 σ∈An j=1
Remarque. Ainsi, à un coefficient multiplicatif non nul prés, il n’y a qu’une forme
n-linéaire alternée sur un K-espace vectoriel de dimension n.
Dans un R-espace vectoriel de dimension n, la seule façon raisonnable de définir le
volume algébrique de l’hyperparallélépipède Hx associé à un n-uplet x de n vecteurs
est donc de choisir une base e et de convenir que ce volume est égal à dete (x). L’unité
de volume est alors le volume de He . Changer le choix de la base e se limite à multiplier
cette notion de volume par un réel non nul, ce qui change l’orientation si et seulement
si ce réel est négatif.
En résumé, dete est la seule définition raisonnable du volume algébrique de Hx .
X n
Y X n
Y
det(M ) = ε(σ) mj,σ(j) = ε(σ) mσ(j),j = det(t M ).
σ∈Sn j=1 σ∈Sn j=1
Ainsi det(M ) est aussi le déterminant des vecteurs lignes de M dans la base canonique
de Kn .
Formule de Sarrus :
p1,1 p1,2 p1,3
p2,1 p2,2 p2,3 = p1,1 p2,2 p3,3 + p2,1 p3,2 p1,3 + p3,1 p1,2 p2,3
p3,1 p3,2 p3,3
−p1,3 p2,2 p3,1 − p2,3 p3,2 p1,1 − p3,3 p1,2 p2,1 .
dete (x1 , . . . , xn ) n’est pas modifié si l’on ajoute à l’un des xi une combinaison linéaire
des autres xj .
Propriété. Le déterminant d’une matrice M de Mn (K) est modifié en :
— det(M ) pour une opération élémentaire du type Li ←− Li + λLj
ou Ci ←− Ci + λCj ;
— αdet(M ) pour une opération élémentaire du type Li ←− αLi ou Ci ←− αCi ;
— −detM pour un échange entre deux lignes ou deux colonnes.
ATTENTION : En général, det(αM + N ) 6= αdet(M ) + det(N ).
Méthode : Pour calculer le déterminant d’une matrice, on tente de modifier la matrice
par des manipulations élémentaires, afin de se ramener à une matrice dont on connait
le rang ou le déterminant.
Propriété. det(IdE ) = 1, det(In ) = 1.
Pour tout λ ∈ K et u ∈ L(E), det(λu) = λn det(u).
Pour tout λ ∈ K et A ∈ Mn (K), det(λA) = λn det(A).
Théorème. Si f, g ∈ L(E), alors det(f g) = det(f ) × det(g) .
Pour tout A, B ∈ Mn (K), det(AB) = det(A)det(B).
Démonstration.
det(f ◦ g) = dete (f ◦ g(e1 ), . . . , f ◦ g(en ))
= det(f )dete (g(e1 ), . . . , g(en ))
= det(f )det(g).
Formule de changement de base : Soient e et e0 deux bases de E, et soit x une
famille de n vecteurs de E. Alors, dete0 (x) = dete0 (e)dete (x) .
Démonstration.
C’est la formule (1) appliquée avec f = dete0 .
Théorème. x est une base si et seulement si dete (x) 6= 0.
Démonstration.
Supposons que x est une base, alors 1 = detx (x) = detx (e) × dete (x), donc dete (x) 6= 0.
Réciproquement, si x n’est pas une base, alors x est une famille liée de n vecteurs, or
dete est alternée, donc dete (x) = 0.
Corollaire. Soit u ∈ L(E) et A ∈ Mn (K).
1
u ∈ GL(E) si et seulement si det(u) 6= 0 et dans ce cas, det(u−1 ) = .
det(u)
1
A ∈ GLn (K) si et seulement si det(A) 6= 0 et dans ce cas, det(A−1 ) = .
det(A)
Démonstration.
u ∈ GL(E) si et seulement si u(e) est une base de E, donc si et seulement si
det(u) = dete (u(e)) 6= 0.
Lorsque u est inversible, det(u) × det(u−1 ) = det(u ◦ u−1 ) = det(IdE ) = 1.
Remarque. det est donc un morphisme du groupe GL(E) vers (K∗ , ×). Son noyau
est un sous-groupe (distingué) de GL(E), noté SL(E). C’est le groupe spécial linéaire
de E : SL(E) = {u ∈ L(E) / det(u) = 1}.
On dispose en particulier de SLn (K) = {M ∈ Mn (K) / det(M ) = 1} : c’est le groupe
spécial linéaire de degré n.
Propriété. Deux matrices carrées semblables ont le même déterminant.
Ainsi le déterminant, comme la trace et le rang, est un invariant de similitude.
n
X
— Pour tout i ∈ Nn , det(M ) = mi,j Ci,j : c’est le développement de det(M )
j=1
1 t
Corollaire. Lorsque M est inversible, M −1 = Cof (M ).
det(M )
Exemple.
−1 Avec n = que, lorsque ad − bc 6= 0,
2, on retrouve
a b 1 d −b
= .
c d ad − bc −c a
Théorème. Soit M = (Mi,j ) 1≤i≤a une matrice décomposée en blocs, où, pour tout
1≤j≤a
i, j ∈ Na , Mi,j ∈ Mni ,nj (K).
a
Y
Si M est triangulaire supérieure (ou inférieure) par blocs, alors, det(M ) = det(Mi,i )
i=1
Démonstration.
Au prix d’une récurrence, il suffit de montrer que, pour tout p, q ∈ N∗ , pour tout
A B
A ∈ MK (p, p), B ∈ MK (p, q) et C ∈ MK (q, q), = det(A)det(C).
0q,p C
A B
Si A n’est pas inversible, les colonnes de A sont liées, donc les colonnes de
0q,p C
A B
sont également liées. Ainsi, = 0 = det(A)det(C).
0 q,p C
Ip A−1 B
A B A 0
Si A est inversible, alors = × , donc
0q,p C 0 Iq 0 C
A B A 0 I A−1 B
= × p , ce qui permet de conclure, car en développant
0q,p C 0 Iq 0 C
I A−1 B
plusieurs fois selon la première colonne, on montre que p = det(C) et, en
0 C
A 0
développant plusieurs fois selon la dernière colonne, que = det(A).
0 Iq
−3 −7 54 1 0
2 4 5 7 0 1 0 2
−3 −7
Exemple. 0 0 1 0 2 = × 5 −3 4 = 2 × (−9) = −18.
2 4
0 0 5 −3 4 0 1 5
0 0 0 1 5
Exemple. Posons ∆n = det((min(i, j))1≤i,j≤n ). Si l’on effectue les opérations élémentaires
1 1 ··· 1
0
Li ←− Li − L1 pour tout i ≥ 2, on obtient ∆n = .. , donc
. [min(i, j)]1≤i,j≤n−1
0
∆n = ∆n−1 = D1 = 1.
Corollaire. Le déterminant d’une matrice triangulaire supérieure ou inférieure est
égal au produit de ses éléments diagonaux.
Remarque. On retrouve ainsi qu’une matrice triangulaire supérieure est inversible si
et seulement si ses coefficients diagonaux sont non nuls.
Remarque. Ces formules de Cramer sont utiles sur le plan théorique. Pour résoudre un
système de Cramer, ces formules sont idéales lorsque n = 2, mais elles sont inadaptées
lorsque n ≥ 3. En effet, l’utilisation de ces formules nécessite n divisions et le calcul de
n + 1 déterminants d’ordre n.
X Yn
Mais, pour A = (ai,j ) ∈ Mn (K), det(A) = ε(σ) aj,σ(j) , donc le calcul d’un
σ∈Sn j=1
déterminant d’ordre n, en procédant de manière naı̈ve demande n! − 1 additions ou
soustractions et n!(n − 1) multiplications.
Ainsi, résoudre (S) par application directe des formules de Cramer demande à peu près
(n + 2)! multiplications, (n + 1)! additions et n divisions.
Supposons que nous utilisons un ordinateur d’une puissance de 1GHz (= 109 cycles par
seconde). Le nombre de multiplications qu’il peut effectuer pendant une durée égale à
l’age de l’univers est de l’ordre de 10 × 109 × 365 × 24 × 602 × 109 ≈ 1027 . La résolution
d’un système d’ordre 30 nécessite environ 1035 multiplications. Ainsi, en supposant que
notre ordinateur travaille à cette tâche depuis la création de l’univers, il n’aura à notre
époque réalisé que 10 milliardièmes des calculs nécessaires !
Il faut donc se tourner vers des algorithmes plus efficaces : on peut montrer que l’al-
n3
gorithme du pivot de Gauss nécessite de l’ordre de multiplications et additions et
3
n2
de l’ordre de divisions. La résolution d’un système d’ordre 30 ne demandera plus
2
qu’environ 18000 opérations, ce qui sera effectué en 2 × 10−5 secondes. . .
1 a0 a20 · · · an0
1 a1 a21 · · · an1
. .. .. ..
V (a0 , . . . , an ) = .. . . . .
.. .. .. ..
. . . .
1 an a2n · · · ann
1 a0 − an ··· an−2
0 (a0 − an ) a0n−1 (a0 − an )
n−2
1 a1 − an ··· a1 (a1 − an ) an−1
1 (a1 − an )
.. .. .. ..
V (a0 , . . . , an ) = .. .
..
.
..
.
.. .
.. . . .
1 an−1 − an · · · an−2 n−1
n−1 (an−1 − an ) an−1 (an−1 − an )
1 0 ··· 0 0
Développons selon sa dernière ligne ce déterminant
! de taille n + 1. On obtient
n−1
Y
V (a0 , . . . , an ) = (−1)(n+1)+1 (ai − an ) V (a0 , . . . , an−1 ).
i=0
Deuxième démonstration, utilisant des combinaisons linéaires de colonnes et des po-
lynômes.
n
X
Soit P un polynôme unitaire de degré n à coefficients dans K, noté P = X n + bj X j−1 .
j=1
Effectuons sur le déterminant de Vandermonde de (a0 , . . . , an ) l’opération élémentaire
Xn
suivante : Cn+1 ←− Cn+1 + bj C j .
j=1
n
X
Le i ème
coefficient de la dernière colonne devient alors ani + bj aj−1
i = P (ai ).
j=1
n−1
Y
En particulier, si l’on choisit P = (X − ai ) (qui est bien un polynôme unitaire de
i=0
degré n), les coefficients de la dernière colonne sont tous nuls, sauf le dernier, qui vaut
n−1
Y
(an − ai ). Ainsi, en développant par rapport à la dernière colonne,
i=0
n−1
Y
V (a0 , . . . , an ) = V (a0 , . . . , an−1 ) (an − ai ).
i=0
Pour les deux démonstrations suivantes, on supposera que a0 , . . . , an sont deux à deux
distincts. Ce n’est pas restrictif car lorsque, parmi a0 , . . . , an , deux scalaires au moins
sont égaux, le déterminant V (a0 , . . . , an ) contient au moins deux lignes égales, donc il
n−1
Y
est nul, ainsi que la quantité V (a0 , . . . , an−1 ) (ai − an ).
i=0
Troisième démonstration, utilisant des polynômes.
1 a0 a20 · · · an0
1 a1 a21 · · · an1
.
Soit x ∈ K. V (a0 , . . . , an−1 , x) = .. .
.. .
.. .. .
.
2 n
1 an−1 an−1 · · · an−1
1 x x 2 · · · xn
Si l’on développe ce déterminant selon sa dernière ligne, on obtient un polynôme en x
de degré inférieur ou égal à n, dont le coefficient de degré n vaut V (a0 , . . . , an−1 ).
Soit i ∈ {0, . . . , n − 1}. La matrice V(a0 , . . . , an−1 , ai ) possède deux lignes identiques,
donc V (a0 , . . . , an−1 , ai ) est nul. Ainsi, le polynôme V (a0 , . . . , an−1 , x) admet au moins
n racines deux à deux distinctes, qui sont a0 , . . . , an−1 . C’est donc un multiple de
n−1
Y
(x − ai ).
i=0
n−1
Y
Il existe Q ∈ K[X] tel que V (a0 , . . . , an−1 , x) = Q(x) (x − ai ).
i=0
Nécessairement, deg(Q) ≤ 0, donc Q est une constante, et, en égalant les coefficients
de degré n, on obtient que cette constante vaut V (a0 , . .! . , an−1 ).
n−1
Y
Ainsi, V (a0 , . . . , an−1 , x) = V (a0 , . . . , an−1 ) (x − ai ) .
i=0
Quatrième démonstration, utilisant les polynômes d’interpolation de Lagrange.
Reprenons les notations de la page 24 et notons c = (1, X, . . . , X n ) la base canonique
de Kn [X]. Soit j ∈ {0, . . . , n}.
Dans la base L = (L0 , . . . , Ln ) de Kn [X], les coordonnées du polynôme X j sont
aj0 , aj1 , . . . , ajn , donc la matrice V(a0 , . . . , an ) est la matrice de passage de la base L
vers la base c, notée PLc .
Remarquons, même si ce n’est pas exactement le but de la démonstration, que ce qui
précède montre sans calcul que la matrice V(a0 , . . . , an ) est inversible si et seulement
si a0 , . . . , an sont deux à deux distincts.
De plus, ce qui précède permet d’inverser rapidement V(a0 , . . . , an ). En effet,
V −1 (a0 , . . . , an ) = PcL , donc le (i, j)ème coefficient de V −1 (a0 , . . . , an ) est le coefficient
de degré i − 1 du polynôme Lj−1 , que l’on pourrait exprimer en fonction de a0 , . . . , an
en utilisant les relations entre coefficients et racines d’un polynôme.
Cependant, pour le calcul du déterminant de Vandermonde, on peut se contenter de
calculer le coefficient de position (n+1, n+1) de V −1 (a0 , . . . , an ). Il s’agit du coefficient
n−1
Y X − ai n−1
Y 1
dominant de Ln+1 = , donc il est égal à .
a − ai
i=0 n
a − ai
i=0 n
1 t
D’autre part, V −1 (a0 , . . . , an ) = Cof (V(a0 , . . . , an )), donc le coefficient
V (a0 , . . . , an )
Cn+1,n+1
de position de (n + 1, n + 1) de V −1 (a0 , . . . , an ) est aussi égal à , où
V (a0 , . . . , an )
Cn+1,n+1 désigne le cofacteur de V(a0 , . . . , an ) de position de (n + 1, n + 1).
n−1
Y 1 V (a0 , . . . , an−1 )
On en déduit que = .
a − ai
i=0 n
V (a0 , . . . , an )
Y
Propriété. Soient n ∈ N et (a0 , . . . , an ) ∈ K n+1
: V (a 0 , . . . , a n ) = (aj − ai ) .
0≤i<j≤n
Démonstration.
Soit n ∈ N. Notons R(n) l’assertion suivante Y :
n+1
∀(a0 , . . . , an ) ∈ K V (a0 , . . . , an ) = (aj − ai ).
0≤i<j≤n
Démontrons par récurrence sur n que R(n) est vraieY
pour tout n.
Pour n = 0, soit a0 ∈ K. V (a0 ) = det(1) = 1 = (aj − ai ), car l’ensemble des
0≤i<j≤0
indices de ce produit est l’ensemble vide.
Pour n ≥ 1, supposons R(n − 1).
Soit (a0 , . . . , an ) ∈ Kn+1 . On a établi que
n−1
Y
V (a0 , . . . , an ) = V (a0 , . . . , an−1 ) (an − ai ), donc, d’après l’hypothése de récurrence,
i=0 ! !
Y n−1
Y Y
V (a0 , . . . , an ) = (aj − ai ) (an − ai ) = (aj −ai ), ce qui démontre
0≤i<j≤n−1 i=0 0≤i<j≤n
R(n).
7.7.1 Définition
Remarque.
Démonstration.
D’après les relations entre coefficients et racines d’un polynôme, T r(u) est égal à la
somme des racines de χu , comptées avec multiplicité, or χu est scindé dans K, donc
l’ensemble des racines
X de χu est SpK (u).
Ainsi, T r(u) = m(λ)λ.
λ∈SpK (u)
Le raisonnement est similaire pour la seconde formule.
Remarque. En pratique, pour déterminer les éléments propres d’une matrice M , on
peut commencer par calculer χM . On détermine les racines de χM et, pour chacune
d’entre elles, notée λ, on recherche
une base du sous-espace propre en résolvant le
x1
..
système linéaire (λIn − M ) . = 0.
xn
Parfois, on n’a pas besoin de déterminer précisément les sous-espaces propres, mais
seulement de calculer leurs dimensions. Dans ce cas, il est commode d’utiliser la formule
suivante :
∀λ ∈ Sp(M ) dim(Eλ ) = n − rg(λIn − M ).
Démonstration.
D’après la formule du rang,
dim(Eλ ) = dim(Ker(λIn − M )) = n − dim(Im(λIn − M )) = n − rg(λIn − M ).
Propriété. Soit F un sous-espace vectoriel de E stable par u.
Si u/F est l’endomorphisme induit par u sur F , alors χu/F |χu .
Démonstration.
Choisissons e0 = (e1 , . . . , ep ) une base de F que l’on complète en une base
e = (e1 , . . . , en ) de E. Si l’on note M = M at(u, e) et M 0 = M at(u 0
/F ,0e ), il existe
deux
M A
matrices A ∈ Mp,n−p (K) et B ∈ Mn−p,n−p (K) telles que M = .
0n−p,p B
XIp − M 0
−A
Soit λ ∈ K. χu (X) = det(XIn −M ) = det = χu/F (X)χB (X).
0n−p,p XIn−p − B
Démonstration.
Pour tout i ∈ Np , on choisit une base de Ei notée ei .
Notons e la “réunion” des ei , pour i variant de 1 à p. e est une base de E.
On sait que M at(u, e) est diagonale par blocs, la “diagonale” étant constituée des p
blocs suivants :
M1 = mat(u1 , e1 ), . . ., Mp = mat(up , ep ).
Le déterminant d’une matrice diagonale par blocs étant égal au produit des déterminants
des blocs diagonaux, pour tout λ ∈ K,
p
Y
χu (X) = det(XIn − M ) = det(XIni − Mi ), où pour tout i ∈ Np , ni = dim(Ei ).
i=1
p
Y
Ainsi, χu (X) = χui (X).
i=1
Théorème. u est diagonalisable si et seulement si χu est scindé sur K et, pour tout
λ ∈ Sp(u), m(λ) = q(λ).
Démonstration.
• Supposons que u est diagonalisable. Ainsi, il existe une base e de E dans laquelle
la matrice de u est diagonale. Notons λ1 , . . . , λn les coefficients diagonaux de cette
matrice. n
Y
χu = χM at(u,e) = (X − λi ), donc χu est scindé sur K.
i=1
Soit λ ∈ Sp(u). L’égalité précédente montre que m(λ) = Card({i ∈ Nn /λi = λ}).
Or, pour tout i ∈ Nn , ei ∈ Eλi , donc V ect({ei /λi = λ}) ⊂ Eλ .
Ainsi, m(λ) = dim(V ect({ei /λi = λ})) ≤ dim(Eλ ) = q(λ).
L’inégalité contraire étant vraie pour tout endomorphisme, on a montré que, pour tout
λ ∈ Sp(u), m(λ) = q(λ).
• Réciproquement, supposons que χu est scindé sur K et que, pour tout λ ∈ Sp(u),
m(λ) = q(λ).