Académique Documents
Professionnel Documents
Culture Documents
Cours
Rappel d’algèbre
linéaire
Classes MP
2
Table des matières
1 Espaces vectoriel 6
I Sous espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 6
1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . 6
2 Exercices d’approfondissements . . . . . . . . . . . . . . . 8
II Indépendance linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 9
1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . 9
2 Exercices d’approfondissement . . . . . . . . . . . . . . . 11
III Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . 12
1 Exercices d’approfondissements . . . . . . . . . . . . . . . 14
2 Applications linéaires 16
I Notion d’application linéaire . . . . . . . . . . . . . . . . . . . . . 16
II Opérations sur les applications linéaires . . . . . . . . . . . . . . . 18
III Noyau et image d’une application linéaire . . . . . . . . . . . . . 19
IV Applications linéaires et indépendance linéaire . . . . . . . . . . . 20
V Projections et symétries vectorielles . . . . . . . . . . . . . . . . . 21
VI Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4 Les matrices 30
I Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
II Matrices d’une application linéaire . . . . . . . . . . . . . . . . . . 34
III Application linéaire associée canoniquement à une matrice . . . 36
IV Matrices de passages . . . . . . . . . . . . . . . . . . . . . . . . . 37
V Matrices équivalentes, matrices semblables . . . . . . . . . . . . . 39
page 3 / 67
VI Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 40
VII Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6 Le déterminant 50
I le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . 50
II Déterminant d’une famille de 𝑛 vecteurs . . . . . . . . . . . . . . 52
III Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . 53
IV Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . 53
V Calcul de déterminant . . . . . . . . . . . . . . . . . . . . . . . . . 54
4
4.10 Définition : Matrices échelonnées . . . . . . . . . . . . . . . . . . 42
6.3 Exemples : : Matrice de Vandermonde . . . . . . . . . . . . . . . 56
7.1 Proposition : Déterminant d’une matrice triangulaire par blocs . . 61
5
6
Espaces vectoriel
chapitre 1
Conventions et notations
I
Sous espaces vectoriels
page 7 / 67
3 • 𝐹 ≠ ∅;
• ∀𝑥, 𝑦 ∈ 𝐹, ∀𝛼 ∈ K, 𝛼 .𝑥 + 𝑦 ∈ 𝐹 .
Exemples 1.1
1.1.1 L’ensemble des suites convergentes, celui des suites bornées sont des
s.e.v de (KN, +, .)
1.1.2L’ensemble C𝑘 (𝐼, K) des fonctions numériques de classe C𝑘 sur un
intervalle non trivial 𝐼 de R, où 𝑘 ∈ N ∪ {∞}, est un s.e.v de (F(𝐼, K), +, .).
1.1.3 Pour tout 𝑛 ∈ N, l’ensemble K𝑛 [𝑋 ] = {𝑃 ∈ K[𝑋 ] / deg 𝑃 6 𝑛} est un
s.e.v de K[𝑋 ].
1.1.4Pour tout 𝑎 ∈ K, l’ensemble 𝐻𝑎 = {𝑃 ∈ K[𝑋 ] / 𝑃 (𝑎) = 0} est un s.e.v
de K[𝑋 ]
Proposition 1.2
Proposition 1.4
8
1.4.3 Dans le cas où 𝐴 = {𝑎 1, 𝑎 2, . . . , 𝑎𝑛 } est fini alors
n ∑︁𝑛 o
Vect(𝐴) = 𝛼𝑖 .𝑎𝑖 / 𝛼 1, · · · , 𝛼𝑛 ∈ K .
𝑖=1
Propriétés 1.5
Soient 𝐴, 𝐵 ⊂ 𝐸. Alors :
1.5.1 Vect(∅) = {0}.
1.5.2 Si 𝐴 ⊂ 𝐵 alors Vect(𝐴) ⊂ Vect(𝐵).
1.5.3 𝐴 est un s.e.v de 𝐸 si et seulement si Vect(𝐴) = 𝐴.
1.5.4 Vect (Vect(𝐴)) = Vect(𝐴).
Définition 1.2
Remarque 1.1
Exercice 1.1
Montrer que l’ensemble des solutions d’une équation différentielle homogène
de second ordre à coefficients constants, est un s.e.v de C2 (R, C).
9
Exercice 1.2
𝐹 = (𝑥, 𝑦, 𝑧) ∈ R3 : 𝑥 + 𝑦 + 𝑧 = 0 ,
Soient
𝐺 = (𝑥, 𝑦, 𝑧) ∈ R3 : 2𝑥 − 𝑦 + 3𝑧 = 0
𝐻 = (𝑥, 𝑦, 𝑧) ∈ R3 : 𝑥 + 𝑦 + 𝑧 = 2𝑥 − 𝑦 + 3𝑧 = 0 .
Exercice 1.3
Pour tous 𝑎, 𝑏 ∈ R on note 𝑓𝑎,𝑏 la fonction définie de R vers R par
∀𝑥 ∈ R, 𝑓𝑎,𝑏 (𝑥) = 𝑎𝑥 + 𝑏.
Exercice 1.4
Montrer que si 𝐹 et 𝐺 sont deux s.e.v de 𝐸 alors 𝐹 ∪ 𝐺 est un s.e.v de 𝐸 si et
seulement si 𝐹 ⊂ 𝐺 ou 𝐺 ⊂ 𝐹 .
II
Indépendance linéaire
10
Exercice 1.5 Polynômes d’interpolation de Lagrange
Soient 𝑎 1, · · · , 𝑎𝑛 ∈ K deux à deux distincts. Pour tout 𝑖 ∈ [[1, 𝑛]] on considère
Î 𝑋 − 𝑎𝑗
le polynôme 𝐿𝑖 = . Calculer 𝐿𝑖 (𝑎 𝑗 ) pour tout 𝑖, 𝑗 ∈ [[1, 𝑛]], et
1≤ 𝑗 ≤𝑛 𝑎𝑖 − 𝑎 𝑗
𝑗≠𝑖
montrer que la famille (𝐿1, · · · , 𝐿𝑛 ) est libre dans K𝑛 [𝑋 ].
Remarques 1.2
Propriétés 1.6
Définition 1.5
11
Exemples 1.2 (fondamentaux)
𝐹 = (𝑥, 𝑦, 𝑧) ∈ R3 : 𝑥 + 𝑦 − 𝑧 = 0
Soient
𝐺 = (𝑥 − 𝑦, 𝑦 + 𝑥, 𝑥 − 3𝑦) : (𝑥, 𝑦) ∈ R2 .
Exercice 1.7
Étudier l ’indépendance linéaire des familles F suivantes dans l’espace vectoriel
12
C1 (R, R) :
1. F = (𝑒 𝑎𝑥 )𝑎 ∈R . 2. F = cos𝑘 𝑥 𝑘 ∈N .
3. F = sin𝑘 𝑥 . 4. F = (cos 𝛼 .𝑥) 𝛼 ∈R+ .
𝑘 ∈N
5. F = (|𝑥 − 𝑎|)𝑎 ∈R .
III
Somme de sous-espaces vectoriels
Définition 1.6
Proposition 1.9
13
Proposition et définition 1.10
Remarques 1.3
Proposition 1.11
14
III.1 Exercices d’approfondissements
Exercice 1.8
Montrer que l’ensemble des fonctions paires et celui des fonctions impaires
sont supplémentaires dans F (R, R).
Exercice 1.9
Montrer que l’ensemble des matrices symétriques et celui des des matrices
antisymétriques sont supplémentaires dans M𝑛 (R).
15
16
Applications linéaires
chapitre 2
I
Notion d’application linéaire
Définition 2.1
Proposition 2.1
page 17 / 67
Exemples 2.1
lim : 𝑐 −→ K
(𝑥𝑛 ) ↦−→ lim 𝑥𝑛
𝐴: C ([𝑎, 𝑏], K) −→ K
∫𝑏
𝑓 ↦−→ 𝑎 𝑓 (𝑥)dx
𝐷: C1 (𝐼, K) −→ C (𝐼, K)
𝑓 ↦−→ 𝑓 0
est linéaire.
Notations
L’ensemble des applications linéaires de 𝐸 dans 𝐹 est noté L(𝐸, 𝐹 ), celui des
endomorphismes de 𝐸 est noté L(𝐸). L’ensemble des formes linéaires de 𝐸
est noté 𝐸 ∗ et s’appelle l’espace dual de 𝐸 (ne pas confondre 𝐸 ∗ avec 𝐸\{0𝐸 }).
Exemples 2.2
18
exemples 2.2 (suite)
II
Opérations sur les applications linéaires
Définition 2.3
Proposition 2.3
Remarques 2.1
Notations
19
Conséquences
Exercice 2.1
Soit 𝑓 ∈ L(𝐸) un endomorphisme nilpotent, d’indice de nilpotence 𝑟 ∈ N∗ ;
c’est à dire 𝑓 𝑟 = 0 et 𝑓 𝑟 −1 ≠ 0 ; où 0 désigne ici l’endomorphisme nul. Montrer
que l’endomorphisme 𝑔 = Id𝐸 + 𝑓 est inversible et déterminer son inverse.
III
Noyau et image d’une application linéaire
20
Théorème 2.6
Exercice 2.2
Soit 𝑓 : K2 −→ K2 définie par 𝑓 (𝑥, 𝑦) = (−𝑥 + 𝑦, −𝑦).
1 Montrer que 𝑓 est un endomorphisme et détérminer Ker (𝑓 ) et Im (𝑓 ).
Que dire de 𝑓 , est elle injective ? surjective ?
2 Montrer que 𝑓 + 𝑖𝑑 est nilpotente, en déduire que 𝑓 est inversible et
calculer 𝑓 −1 . Calculer 𝑓 𝑛 pour 𝑛 ∈ N, puis 𝑛 ∈ Z.
3 Soient (𝑥𝑛 ) et (𝑦𝑛 ) deux suites vérifiants 𝑥𝑛+1 = −𝑥𝑛 + 𝑦𝑛 et 𝑦𝑛+1 = −𝑦𝑛
Expliciter 𝑥𝑛 et 𝑦𝑛 en fonction de 𝑛, 𝑥 0 et 𝑦0 .
IV
Applications linéaires et indépendance linéaire
Notations
Théorème 2.7
Corollaire 2.8
21
3 𝑓 est bijective si et seulement si 𝑓 (B) est une base de 𝐹 .
Exercice 2.3
Montrer que l’endomorphisme
𝑓 : R2 −→ R2
(𝑥, 𝑦) ↦−→ (𝑥 + 𝑦, 𝑥 − 𝑦)
est un isomorphisme, et en déduire que la famille ((1, 1), (1, −1)) est une base
de R2 .
V
Projections et symétries vectorielles
On suppose ici que 𝐹 et 𝐺 sont deux s.e.v supplémentaires dans 𝐸, c’est à dire
que 𝐹 ⊕ 𝐺 = 𝐸. Ainsi, pour tout 𝑥 ∈ 𝐸, il existe un unique élément de 𝐹 × 𝐺, que
l’on notera ici par (𝑥 𝐹 , 𝑥𝐺 ), vérifiant 𝑥 = 𝑥 𝐹 + 𝑥𝐺 .
Définition 2.6
22
𝐺
𝑥
𝑥𝐺 = 𝑝𝐺𝐹 (𝑥) • •
0 •
𝑥 𝐹 = 𝑝 𝐹𝐺 (𝑥) 𝐹
−𝑥𝐺 • •
𝑥 𝐹 − 𝑥𝐺 = 𝑠 𝐹𝐺 (𝑥)
Propriétés 2.9
Théorème 2.10
Exercice 2.4
Considérons l’endomorphisme 𝑆 de R2 dont l’expression analytique est :
(
𝑥 0 = 𝑥 cos 𝑎 + 𝑦 sin 𝑎
.
𝑦 0 = 𝑥 sin 𝑎 − 𝑦 cos 𝑎
23
Montrer que 𝑆 est une symétrie axiale.
VI
Hyperplans
Définition 2.7
Exemples 2.3
n ∫ 1 o
2.3.1 L’ensemble 𝑓 ∈ C ( [0; 1]; R) : 𝑓 (𝑡)dt = 0 est un hyperplan
0
de C ([0; 1]; R).
2.3.2 étant donné 𝑎 1 ; · · · ; 𝑎𝑛 ∈ K𝑛 non tous nuls, l’ensemble
n 𝑛
∑︁ o
(𝑥 1, · · · ; 𝑥𝑛 ) ∈ K𝑛 : 𝑎𝑖 𝑥 𝑖 = 0
𝑖=1
Proposition 2.11
24
Espaces vectoriels de dimensions
finies
chapitre 3
I
Théorème de la base incom-
plète, espace de dimension finie
Définition 3.1
Un K.𝑒.𝑣 est dit de dimension finie s’il admet une famille génératrice finie.
Si L est une famille libre finie de 𝐸 et G est une famille génératrice finie de 𝐸,
alors on peut compléter L par des vecteurs de G pour obtenir une base de 𝐸.
Si 𝐸 est de dimension finie, alors 𝐸 admet au moins une base. De plus, toutes
ses bases sont finies et elles ont le même nombre d’éléments. Ce nombre
s’appelle dimension de 𝐸 et se note dimK 𝐸, ou tout simplement dim 𝐸.
Exemples 3.1
page 25 / 67
exemples 3.1 (suite)
Remarques 3.1
Propriétés 3.3
Exercice 3.1
Déterminer les dimension des s.e.v S𝑛 (K) et A𝑛 (K) de M𝑛 (K), où S𝑛 (K) est
l’ensemble des matrices symétriques et A𝑛 (K) est celui des matrices antisy-
métriques.
Exercice 3.2
Soit E l’ensemble des fonctions
𝑓 : R −→ R
𝑥 ↦−→ (𝑎𝑥 2 + 𝑏𝑥 + 𝑐) cos 𝑥
où 𝑎, 𝑏 et 𝑐 varient dans R. Montrer que 𝐸 est sous-espace vectoriel de F(R, R)
de dimension finie et calculer sa dimension.
26
II
Dimension d’un sous espace vectoriel
Théorème 3.4
Si 𝐸 est de dimension finie alors tout sous espace vectoriel 𝐹 de 𝐸 est un K.𝑒.𝑣
de dimension finie et dim 𝐹 ≤ dim 𝐸, avec égalité si, et seulement si, 𝐹 = 𝐸.
Théorème 3.5
Corollaire 3.6
Théorème 3.7
Remarque 3.2
Théorème 3.8
27
i. 𝐹 1, · · · , 𝐹𝑛 sont supplémentaires dans 𝐸.
𝑛
Í 𝑛
Í
ii. 𝐸 = 𝐹𝑖 et dim 𝐸 = dim 𝐹𝑖 .
𝑖=1 𝑖=1
𝑛
Í 𝑛
Í
iii. La somme 𝐹𝑖 est directe et dim 𝐸 = dim 𝐹𝑖 .
𝑖=1 𝑖=1
Proposition 3.9
Si 𝐸 est de dimension finie alors les hyperplans vectoriels de 𝐸 sont les s.e.v
de 𝐸 de dimension dim(𝐸) − 1.
Exercice 3.3
Calculer les dimensions des s.e.v 𝐹 et 𝐺 de R3 définis par :
𝐹 = (𝑥, 𝑦, 𝑧) ∈ R3 : 𝑥 + 𝑦 + 𝑧 = 0
𝐺 = (𝑥, 𝑥, 𝑥) : 𝑥 ∈ R
Exercice 3.4
On suppose que l’espace 𝐸 est de dimension finie 𝑛 ≥ 2 et soient 𝐻 1 et 𝐻 2 deux
hyperplans de 𝐸. Déterminer dim(𝐻 1 ∩ 𝐻 2 ).
III
Rang d’une famille finie de vec-
teurs, d’une application linéaire
Définition 3.2
Propriétés 3.10
28
propriétés 3.10 (suite)
Définition 3.3
Exemples 3.2
Exercice 3.5
Déterminer le rang de l’endomorphisme 𝑓 de R4 défini par 𝑓 (𝑥, 𝑦, 𝑧, 𝑡) =
(𝑥 + 𝑦, 𝑥 − 𝑦, 2𝑥, 2𝑦)
Propriétés 3.11
29
propriétés 3.11 (suite)
Exercice 3.6
Calculer la dimension du noyau de la forme linéaire
𝑓 : R3 ←− R
(𝑥, 𝑦, 𝑧) ↦−→ 𝑥 + 𝑦 + 𝑧
Exercice 3.7
Soient 𝐸 un K−espace vectoriel de dimension finie 𝑛 et 𝑢 un endomorphisme
nilpotent d’indice de nilpotence 𝑟 . Soit 𝑥 0 un élément de 𝐸 tel que 𝑢 𝑟 −1 (𝑥 0 ) ≠ 0.
1 Montrer que la famille 𝑥 0, 𝑢 (𝑥 0 ), ..., 𝑢 𝑟 −1 (𝑥 0 ) est libre de 𝐸 et que
𝑟 ≤ 𝑛 + 1 − dim(Ker(𝑢)), en particulier 𝑟 ≤ 𝑛.
2 On suppose que 𝑟 = 𝑛.
Montrer que 𝑥 0, 𝑢 (𝑥 0 ), ..., 𝑢 𝑛−1 (𝑥 0 ) est une base de 𝐸.
Montrer que l’ensemble des endomorphismes de 𝐸 qui commutent
avec 𝑢 est l’espace vectoriel C(𝑢) = Vect(𝑖𝑑𝐸 , 𝑢, 𝑢 2, ...𝑢 𝑛−1 ) et calculer sa
dimension.
30
Les matrices
chapitre 4
I
Calcul matriciel
Définition 4.1
Notation Pour tout 𝑖 ∈ [[1, 𝑛]] et 𝑗 ∈ [[1, 𝑝]], on note 𝐸𝑖,𝑗 la matrice de 𝑀𝑛,𝑝 (K)
dont les termes sont nuls sauf le (𝑖, 𝑗)-éme terme qui vaut 1 ; c’est à dire 𝐸𝑖,𝑗 =
𝛿𝑖,𝑘 𝛿 𝑗,𝑙 1≤𝑘 ≤𝑛 . Remarquons alors que pour toute matrice 𝐴 = (𝑎𝑖,𝑗 ) ∈ 𝑀𝑛,𝑝 (K) on
1≤𝑙 ≤𝑝
a: ∑︁
𝐴= 𝑎𝑖,𝑗 .𝐸𝑖,𝑗 .
1≤𝑖 ≤𝑛
1≤ 𝑗 ≤𝑝
Définition 4.2
page 31 / 67
et 𝐵 la matrice 𝐴𝐵 = (𝑐𝑖,𝑗 ) ∈ 𝑀𝑛,𝑞 (K) définie par
𝑝
∑︁
𝑐𝑖,𝑗 = 𝑎𝑖,𝑘 .𝑏𝑘,𝑗
𝑘=1
pour tous 𝑖 ∈ [[1, 𝑛]] et 𝑗 ∈ [[1, 𝑞]] .
Théorème 4.2
Propriétés 4.3
Exercice 4.1
Corollaire 4.4
32
Remarques 4.1
Conséquences
Définition 4.3
Soient 𝐴 ∈ 𝑀𝑛 (K). On dit que 𝐴 est inversible s’il existe une matrice 𝐵 ∈
𝑀𝑛 (K) telle que 𝐴𝐵 = 𝐵𝐴 = 𝐼𝑝 . Dans ce cas 𝐵 s’appelle l’inverse de 𝐴 et se
note 𝐴−1 .
Propriétés 4.5
Soit 𝐴, 𝐵 ∈ 𝑀𝑛 (K).
4.5.1 Si 𝐴 est inversible alors son inverse est unique.
4.5.2 Si 𝐴 est inversible alors 𝐴−1 est inversible et (𝐴−1 ) −1 = 𝐴.
4.5.3 Si 𝐴, 𝐵 sont inversibles alors 𝐴𝐵 est inversible et (𝐴𝐵) −1 = 𝐵 −1𝐴−1 .
Proposition 4.6
33
Proposition et définition 4.7
L’ensemble des matrices inversibles dans 𝑀𝑛 (K) est un groupe pour la multi-
plication. On l’appelle le groupe linéaire d’ordre 𝑛 et on le note 𝐺𝐿𝑛 (K).
Définition 4.4
Propriétés 4.8
4.8.2 𝑡 (𝑡 (𝐴))
= 𝐴. Donc la transposée est un isomorphisme d’espace vectoriel
de 𝑀𝑛,𝑝 (K) vers 𝑀𝑝,𝑛 (K).
Proposition 4.9
Corollaire 4.10
Définition 4.5
Propriétés 4.11
34
Exercice 4.2
Montrer que si 𝑓 est une forme linéaire de 𝑀𝑛 (K) tel que 𝑓 (𝐴𝐵) = 𝑓 (𝐵𝐴) pour
tout 𝐴, 𝐵 ∈ M𝑛 (K) alors 𝑓 est proportionnelle à la trace (i.e : il existe 𝜆 ∈ K
tel que 𝑓 = 𝜆.tr).
II
Matrices d’une application linéaire
Définition 4.6
Exemples 4.1
Exercice 4.3
Soient 𝑓 l’endomorphisme de R2 définis par 𝑓 (𝑥, 𝑦) = (𝑥 +𝑦, 𝑥 −𝑦), B = (𝑒 1, 𝑒 2 )
35
la base canonique de R2 et B0 = (𝑒 1 + 𝑒 2, 𝑒 1 − 𝑒 2 ). Déterminer 𝐴 = 𝑚𝑎𝑡 B,B0 (𝑓 )
et 𝐴 0 = 𝑚𝑎𝑡 B0 (𝑓 ).
Exercice 4.4
Soit 𝑇 l’endomorphisme de K3 [𝑋 ] définis par 𝑇 (𝑃) = 𝑃 (𝑋 + 1). Déterminer la
matrice 𝐴 de 𝑇 dans la base canonique de K3 [𝑋 ].
Propriétés 4.12
36
Exemples 4.2
Exercice 4.5
√ √
2/2 2/2
Montrer que 𝐴 = √
2/2
√
− 2/2
est la matrice d’une symétrie.
Exercice 4.6
Montrer que la matrice suivante est inversible et déterminer son inverse :
0 1 ··· 1
© . ª
.. .
1 . . . .. ®®
.. . . . . ®
. . . 1 ®®
« 1 ··· 1 0 ¬
Exercice 4.7
Montrer à l’aide des applications linéaires que :
III
Application linéaire associée
canoniquement à une matrice
Remarque 4.2
37
remarque 4.2 (suite)
Proposition 4.13
Une matrice carrée est inversible si et seulement si son noyau est réduit au
sous-espace nul.
Exercice 4.8
3 1 −4 6
Déterminer le noyau et l’image de la matrice 𝐴 = 1 1 4 4 ® ∈ M3,4 (R).
© ª
« 1 0 0 1 ¬
IV
Matrices de passages
Définition 4.7
38
Propriétés 4.14
Proposition 4.15
Proposition 4.16
Exercice 4.9
Soient 𝑎, 𝑏, 𝑐 trois nombres complexes et 𝑓 l’endomorphisme de C3 dont la
𝑎 𝑏 𝑐
matrice par rapport à la base canonique B = {𝑒 1, 𝑒 2, 𝑒 3 } est 𝐴 = 𝑏 𝑐 𝑎 ®
© ª
«𝑐 𝑎 𝑏 ¬
Trouver, de deux maniéres différentes, la matrice 𝐴 0 de 𝑓 par rapport à la base
B0 = (𝑒 10 , 𝑒 30 , 𝑒 30 ) avec 𝑒 10 = 𝑒 1 + 𝑒 2 + 𝑒 3, 𝑒 20 = 𝑒 2, et 𝑒 30 = 𝑒 3 .
Exercice 4.10
Soit 𝑃 la matrice de passage de la base canonique B = 𝑋 𝑘
0≤𝑘 ≤𝑛 de R𝑛 [𝑋 ] à
la base B0 = (𝑋 − 1)𝑘 . Calculer 𝑃 et 𝑃 −1 .
0≤𝑘 ≤𝑛
39
V
Matrices équivalentes, matrices semblables
Définition 4.8
1 On dit que deux matrices 𝑀, 𝑁 ∈ 𝑀𝑛,𝑝 (K) sont équivalentes, s’ils existent
deux matrices inversibles 𝑃 ∈ GL𝑛 (K) et 𝑄 ∈ GL𝑝 (K) telles que 𝑀 = 𝑃𝑁𝑄.
2 On dit que deux matrices carrées 𝑀, 𝑁 ∈ 𝑀𝑛 (K) sont semblables, s’il
existe une matrice inversible 𝑃 ∈ GL𝑛 (K) telle que 𝑀 = 𝑃 −1 𝑁 𝑃 .
Propriétés 4.17
4.17.1 Les relations de similitude et équivalence entre les matrices est une
relation d’équivalence.
4.17.2 Deux matrices 𝑀, 𝑁 ∈ 𝑀𝑛,𝑝 (K) sont équivalentes si, et seulement
s’ils existent une application linéaire 𝑓 entre deux K-espaces vectoriels 𝐸 et
𝐹, deux bases B, B0 de 𝐸 et eux bases C, C 0 de 𝐹 telles que 𝑀 = matB, C (𝑓 )
et 𝑁 = matB0, C0 (𝑓 ).
4.17.3 Deux matrices carrées 𝑀, 𝑁 ∈ 𝑀𝑛 (K) sont semblables si, et seulement
s’ils existent un endomorphisme 𝑓 d’un K-espace vectoriel 𝐸 et deux bases
B, B0 de 𝐸 telles que 𝑀 = matB (𝑓 ) et 𝑁 = matB0 (𝑓 ).
4.17.4 Deux matrices semblables ont la même trace.
Remarques 4.3
Exercice 4.11
Soit 𝐸 un espace vectoriel de dimension finie 𝑛, 𝑓 ∈ L (𝐸) un endomorphisme
nilpotent de 𝐸 tel que 𝑓 𝑛−1 ≠ 0, et 𝐴 la matrice de 𝑓 relativement à une base
40
de 𝐸. Montrer que 𝐴 est semblable à la matrice
0 ... 0 0
© .. ª®
..
1
. .®
.. .. ®
𝐵 = 0 . . ®.
®
. .. ®
.. . 1 0 0®®
«0 ... 0 1 0¬
Exercice 4.12
En considérant l’application Φ : K𝑛 [𝑋 ] −→ K𝑛 [𝑋 ]
𝑃 ↦−→ 𝑃 + 𝑃 0
1 1 0 ... 0 1 1 0 ... 0
© .. ª® © ª
.. . . .. ®
0 1 2 . ® 0 1 1
. . . ®
. . . . ® . . . . ®
montrer que les matrices .. . . . . . .
0 ® et .. . . . . . . 0 ®
® ®
. .. ® . .. ®
.. . 1 𝑛 ®® .. . 1 1 ®®
« 0 ... ... 0 1 ¬ « 0 ... ... 0 1 ¬
sont semblables.
VI
Trace d’un endomorphisme
Propriétés 4.19
41
propriétés 4.19 (suite)
Exercice 4.13
Monter que si 𝑝 est un projecteur vectoriel d’un e.v 𝐸 alors Tr(𝑝) = rg(𝑝).
VII
Rang d’une matrice
Soit 𝐴 = (𝑎𝑖,𝑗 ) 1≤𝑖 ≤𝑛 ∈ 𝑀𝑛,𝑝 (K) une matrice de taille (𝑛, 𝑝). Notons par
1≤ 𝑗 ≤𝑝
𝐶 1, 𝐶 2, ..., 𝐶𝑝 ses vecteurs colonnes, et par 𝐿1, 𝐿2, ..., 𝐿𝑛 ses vecteurs lignes.
Définition 4.9
On appelle rang de 𝐴, le rang du système de vecteurs 𝐶 1, 𝐶 2, ..., 𝐶𝑝 dans
𝑀𝑛,1 .
rg(𝐴) = rg(𝐶 1, 𝐶 2, ..., 𝐶𝑝 ) = dim 𝑉 𝑒𝑐𝑡 (𝐶 1, 𝐶 2, ..., 𝐶𝑝 )
Exemples 4.3
On note
𝐼𝑟 0𝑟,𝑝−𝑟
𝐽𝑛,𝑝,𝑟 =
0𝑛−𝑟,𝑝 0𝑛−𝑟,𝑝−𝑟
pour tout 𝑛, 𝑝 ∈ N∗ et 𝑟 ∈ N tels que 𝑟 ≤ min(𝑛, 𝑝). Le rang de 𝐽𝑛,𝑝,𝑟 est
rg(𝐽𝑛,𝑝,𝑟 ) = 𝑟 .
Proposition 4.20
42
Corollaire 4.21
Propriétés 4.22
On dit que 𝐴 est une matrice échelonnée en lignes si pour tout 𝑖 ∈ [[1, 𝑝 − 1]]
on a :
Si la 𝑖-ème ligne de 𝐴 est nulle, alors la 𝑖 + 1-ème ligne de 𝐴 est nulle.
Si non, si 𝑗 est le plus petit entier tel que 𝑎𝑖,𝑗 ≠ 0, alors 𝑎𝑖+1,1 = .... = 𝑎𝑖+1,𝑗 = 0
On définit de la même façon une matrice échelonnée en colonnes.
Exemples 4.4
0 1 8 3 2
0 0 6 0 1
© ª
® est une matrice échelonnée en lignes.
®
4.4.1
0 0 0 0 3 ®
« 0 0 0 0 0 ¬
43
exemples 4.4 (suite)
0 0 0 0 0
1 0 0 0 0 ®
© ª
4.4.2 ® est une matrice échelonnée en colonnes.
2 1 0 0 0 ®
« 3 1 7 0 0 ¬
4.4.3 La matrice 𝐽𝑛,𝑝,𝑟 est échelonnée en lignes et en colonnes.
Proposition 4.23
44
La méthode du pivot de gauss
chapitre 5
Considérons une 𝐴 = (𝑎𝑖,𝑗 ) 1≤𝑖 ≤𝑛 ∈ 𝑀𝑛,𝑝 (K) une matrice de taille (𝑛, 𝑝) et
1≤ 𝑗 ≤𝑝
notons par 𝐶 1, 𝐶 2, ..., 𝐶𝑝 (resp : 𝐿1, 𝐿2, ..., 𝐿𝑛 ) ses vecteurs colonnes (resp : lignes).
I
Opérations élémentaires
Définition 5.1
Les opérations élémentaires sur les colonnes de 𝐴 sont les opérations sui-
vantes :
1. Échanger deux colonnes 𝐶𝑖 et 𝐶 𝑗 avec 𝑖 ≠ 𝑗.
Cette opération est codée par 𝐶𝑖 ←→ 𝐶 𝑗 ;
2. Multiplier une colonne 𝐶𝑖 par un scalaire non nul 𝛼.
Le code est 𝐶𝑖 ←− 𝛼𝐶𝑖
3. Remplacer une colonne 𝐶𝑖 par 𝐶𝑖 + 𝛼𝐶 𝑗 avec 𝛼 ∈ K et 𝑖 ≠ 𝑗.
Cette opération est codée par 𝐶𝑖 ←− 𝐶𝑖 + 𝛼𝐶 𝑗
Remarques 5.1
Proposition 5.1
page 45 / 67
Remarque 5.2
Remarque 5.3
Une opération élémentaire sur les ligne (resp : les colonnes) d’une matrice
se traduit par la multiplication à gauche (resp : à droite) par une matrice
inversible, dite élémentaire. Cette matrice est exactement celle obtenue à
partir de la matrice unité en lui appliquant la même opération élémentaire.
On distingue alors entre trois types de ces matrices :
• La matrice de permutation ou de transposition
46
remarque 5.3 (suite)
• La matrice de dilatation
1
© .. ª
. ®
®
1
®
®
𝐷𝑖,𝛼 = I𝑛 + (𝛼 − 1) 𝐸𝑖,𝑖 = ® avec 𝛼 ≠ 0.
®
𝛼
1
®
®
®
.. ®
. ®
« 1 ¬
• La matrice de transvection
1
© .. ª
. ®
®
1
®
.. 𝛼 ®
𝑇𝑖,𝑗,𝛼 = I𝑛 + 𝛼𝐸𝑖,𝑗
= .. . ®
® avec 𝑖 ≠ 𝑗 .
. .. ®
1
®
®
.. ®
. ®
®
« 1 ¬
Proposition 5.2
Remarques 5.4
47
II
L’algorithme de Pivot de Gauss
Étape 1 Si 𝐴 est nulle alors rg(𝐴) = 0, sinon, en permutant deux lignes, deux
colonnes ou les deux, on peut supposer que 𝑎 1,1 ≠ 0. 𝑎 1,1 s’appelle un
pivot.
1
Étape 2 en effectuant l’opération 𝐿1 ←− 𝑎 1,1 .𝐿1 on peut supposer que 𝑎 1,1 =
1.
Étape 3 Pour chaque 𝑖 ∈ [[2, 𝑝]], on effectue l’opération élémentaire 𝐿𝑖 ←−
𝐿𝑖 − 𝑎𝑖,1 𝐿1 .
1 ∗ ∗
0 ∗ ∗ ®
© ª
On obtient une matrice de la forme : .. .. ..
®
®
. . . ®
« 0 ∗ ∗ ¬
Étape 4 Si 𝑎𝑖,𝑗 = 0 pour tout 𝑖 ≥ 2 et 𝑗 ≥ 2 alors rg(𝐴) = 1, sinon, on peut
échanger 𝐿2 avec une autre ligne 𝐿𝑖 avec 𝑖 ≥ 2, 𝐶 2 avec une autre ligne
𝐶 𝑗 avec 𝑗 ≥ 2 ou les deux de sorte que 𝑎 2,2 devient non nul. Dans ce
cas on applique l’opération 𝐿2 ←− 𝑎12,2 .𝐿2 ,
puis les opérations 𝐿 𝑗 ←− 𝐿 𝑗 − 𝑎 𝑗,2 𝐿2 pour tout 𝑗 ≠ 2.
1 0 ∗ ∗
0 1 ∗
© ª
®
On obtient une matrice de la forme : 0 ∗
®
®
®
®
« 0 0 ∗ ∗ ¬
Étape 5 On répéte le même processus jusqu’à arriver à une matrice de la
forme 𝐽𝑛,𝑝,𝑟 , 𝑟 ≤ min(𝑛; 𝑝).
Conclusion : rg(𝐴) = 𝑟 .
Remarques 5.5
5.5.1 Si 𝐴 est une matrice inversible, alors cet algorithme peut s’appliquer
sur les lignes seules, comme il peut s’appliquer sur les colonnes seules.
Autrement, il permet de confirmer si une matrice est inversible ou non, et
48
remarques 5.5 (suite)
Exercice 5.1
3 1 −4 6
Déterminer le rang de la matrice 𝐴 = 1 1 4 4 ® ∈ M3,4 (R).
© ª
« 1 0 0 1 ¬
Exercice 5.2
Déterminer par la méthode de Gauss l’inverse de la matrice
1 1 0
𝐴 = −1 2 1 ®
© ª
« 0 1 −1 ¬
Exercice 5.3
Résoudre, par la méthode de Gauss, le système suivant :
2𝑥 + 3𝑦 +3𝑧 + 𝑡 = 15
−4𝑥 − 6𝑦 +3𝑧 + 2𝑡
=3
−𝑥 + 𝑦 +𝑧 + 𝑡 =5
−2𝑥 − 𝑦
+𝑧 + 𝑡 =1
49
50
Le déterminant
chapitre 6
I
le groupe symétrique
On appelle permutation de [[1, 𝑛]], toute bijection 𝜎 de [[1, 𝑛]] vers lui même,
et on la représente par :
1 2 ··· 𝑛
.
𝜎 (1) 𝜎 (2) · · · 𝜎 (𝑛)
Définition 6.2
page 51 / 67
Proposition 6.2
Exemples 6.1
1 2 3 4 5 6 7
𝜎=
3 4 1 7 2 5 6
= 1 3 2 4 7 6 5
= 1 3 2 4 4 7 7 6 6 5
Propriétés 6.4
𝜀 (𝜎.𝜎 0) = 𝜀 (𝜎).𝜀 (𝜎 0)
52
Exemples 6.2
Pour la permutation
1 2 3 4 5 6 7
𝜎=
3 4 1 7 2 5 6
on a 𝜎= 1 3 2 4 7 6 5
Donc 𝜀 (𝜎) = −1.(−1) 4 = −1
II
Déterminant d’une famille de 𝑛 vecteurs
Définition 6.3
Proposition 6.5
53
III
Déterminant d’un endomorphisme
Propriétés 6.7
Pour 𝑓 , 𝑔 ∈ L(𝐸) on a :
6.7.1 det id𝐸 = 1
6.7.2 det(𝜆𝑓 ) = 𝜆𝑛 det 𝑓
6.7.3 det(𝑔 ◦ 𝑓 ) = det 𝑔 · det 𝑓
6.7.4 𝑓 est un isomorphisme si et seulement si det 𝑓 ≠ 0. Si tel est le cas
alors
1
det 𝑓 −1 =
det 𝑓
IV
Déterminant d’une matrice carrée
Définition 6.4
Propriétés 6.8
54
propriétés 6.8 (suite)
Remarque 6.1
det B (𝑥 1, . . . , 𝑥𝑛 ) = det 𝐴
V
Calcul de déterminant
Propriétés 6.9
Soit 𝐴 ∈ 𝑀𝑛 (K).
𝑎 1,1 𝑎 1,2
6.9.1 Si 𝐴 = ∈ 𝑀2 (K) alors det 𝐴 = 𝑎 1,1𝑎 2,2 − 𝑎 2,1𝑎 1,2 .
𝑎 2,1 𝑎 2,2
55
propriétés 6.9 (suite)
𝑎 𝑏 𝑐
© 0
6.9.2 Méthode de Sarrus : Si 𝐴 = 𝑎 𝑏 0 𝑐 0 ® ∈ 𝑀3 (K) alors
ª
00 00 00
«𝑎 𝑏 𝑐 ¬
𝑎 𝑏 𝑐
𝑎 0 𝑏 0 𝑐 0 = 𝑎𝑏 0𝑐 00 + 𝑏𝑐 0𝑎 00 + 𝑐𝑎 0𝑏 00 − 𝑐𝑏 0𝑎 00 − 𝑎𝑐 0𝑏 00 − 𝑏𝑎 0𝑐 00 ;
𝑎 00 𝑏 00 𝑐 00
qu’on peut retenir en écrivant
𝑎 𝑏 𝑐 𝑎 𝑏
𝑎0 𝑏0 𝑐0 𝑎0 𝑏0
𝑎 00 𝑏 00 𝑐 00 𝑎 00 𝑏 00
6.9.3 Le determinant est une application multilinéaire sur les lignes, et sur
les colonnes ; c’est à dire qu’il est linéaire par rapport à chaque ligne, et
chaque colonne (les autres étant fixées). En particulier, lorsqu’on multiplie
une colonne ou une ligne de 𝐴 par un salaire 𝜆, le déterminant de la matrice
obtenue est égal à 𝜆. det 𝐴
6.9.4 Lorsqu’on effectue une permutation 𝜎 sur les lignes, ou sur les colonnes
de 𝐴, le déterminant de la matrice obtenue est égal à 𝜀 (𝜎). det 𝐴. En particulier,
lorsqu’on permute deux ligne, ou deux colonnes de 𝐴, le déterminant est
multiplié par −1.
6.9.5 On ne change pas le déterminant de 𝐴 lorsqu’on ajoute , à une ligne ou
à une colonne, une combinaison linéaire des autres.
6.9.6 Si 𝐴 = (𝑎𝑖,𝑗 ) est triangulaire alors
Ö𝑛
det 𝐴 = 𝑎𝑖,𝑖
𝑘=1
Proposition 6.10
56
1 Développement suivant une ligne
𝑛
∑︁
∀𝑖 ∈ [[1, 𝑛]] , det 𝐴 = (−1)𝑖+𝑗 𝑎𝑖,𝑗 det 𝐴𝑖,𝑗
𝑗=1
Définition 6.5
Proposition 6.11
57
Exercice 6.1
Calculer, sous forme factorisé, les déterminants suivant :
−𝑥 1 1
1 1 −𝑥 1 ; où 𝑥 ∈ R.
1 1 −𝑥
𝑎1 𝑎1 𝑎 1 ... 𝑎 1
𝑎1 𝑎2 𝑎 2 ... 𝑎 2
2 𝑎1 𝑎2 𝑎 3 ... 𝑎 3 ; où 𝑎𝑖 = 1 + 2 + · · · + 𝑖.
.. .. .. ..
. . . .
𝑎1 𝑎2 𝑎 3 ... 𝑎𝑛
58
Matrices définies par blocs
chapitre 7
I
Notion de matrice par blocs
Une matrice 𝐴 ∈ 𝑀𝑛,𝑝 (K) peut être définie par blocs sous la forme :
𝑝1 𝑝2 𝑝𝑐
←→ ←→ · · · ←→
𝐴 𝐴1,2 · · · 𝐴1,𝑐 l 𝑛1
© 1,1
𝐴2,1 𝐴2,2 · · · l 𝑛2
ª
𝐴2,𝑐 ®
𝐴 = 𝐴𝑖,𝑗 1≤𝑖 ≤𝑙 = .. .. .. ®® ..
1≤ 𝑗 ≤𝑐 . . . ® .
𝐴
« 𝑙,1 𝐴 𝑙,2 · · · 𝐴𝑙,𝑐 ¬ l 𝑛𝑙
où 𝑐, 𝑙 ∈ N∗ et 𝐴𝑖,𝑗 est une matrice de taille (𝑛𝑖 , 𝑝 𝑗 ) pour tout (𝑖, 𝑗) ∈ [[1, 𝑙]] × [[1, 𝑐]]
avec 𝑝 1 + · · · + 𝑝𝑐 = 𝑝 et 𝑛 1 + · · · + 𝑛𝑙 = 𝑛.
Une telle matrice est dite triangulaire supérieure par blocs si elle est de la
forme :
𝑛1 𝑛2 𝑛𝑐
←→ ←→ · · · ←→
𝐴 ··· ··· 𝐴1,𝑐 l 𝑛1
© 1,1 ª
.. l 𝑛2
0
. ®
𝐴2,𝑐 ®
. . .. ®® ..
..
.. ... . ® .
l 𝑛𝑐
« 0 ··· 0 𝐴𝑙,𝑙 ¬
page 59 / 67
et elle est dite diagonale par blocs si elle est de la forme :
𝑛1 𝑛2 𝑛𝑐
←→ ←→ · · · ←→
𝐴 0 ··· 0 l 𝑛1
© 1,1 .. ª®
. .. ... l 𝑛2
0
. ®
. . . ® ..
.. . . . . 0 ®® .
l 𝑛𝑐
« 0 · · · 0 𝐴𝑙,𝑙 ¬
On définit aussi de manière analogue une matrice triangulaire inférieure par blocs.
Noter bien alors que les matrices diagonales et triangulaires par blocs sont forcé-
ment des matrices carrées.
Exemples 7.1
II
Interprétation géométrique
60
Considérons (𝜋1, · · · , 𝜋𝑙 ) la famille des projections de 𝐹 adaptée à la décomposition
𝑙
𝐹 = ⊕ 𝐹𝑖 ; c’est à dire que 𝜋𝑖 est la projection de 𝐹 sur 𝐹𝑖 parallèlement à ⊕ 𝐹𝑖 ,
𝑖=1 1≤ 𝑗 ≤𝑙
𝑗≠𝑖
et 𝑓𝑖,𝑗 l’application définie par
𝑓𝑖,𝑗 : 𝐸 𝑗 −→ 𝐹𝑖
𝑥 ↦ → 𝑓𝑖,𝑗 (𝑥) = 𝜋𝑖 ◦ 𝑓 (𝑥)
III
Opérations sur les matrices par blocs
Il est facile de remarquer que la somme de deux matrices définies par blocs se
s’effectue de manière naturelle ; ainsi si 𝐴 = 𝐴𝑖,𝑗 1≤𝑖 ≤𝑙 et 𝐵 = 𝐵𝑖,𝑗 1≤𝑖 ≤𝑙 , et si
1≤ 𝑗 ≤𝑐 1≤ 𝑗 ≤𝑐
les matrices 𝐴𝑖,𝑗 et 𝐵𝑖,𝑗 sont de même taille, alors 𝐴 + 𝐵 = 𝐴𝑖,𝑗 + 𝐵𝑖,𝑗 1≤𝑖 ≤𝑙 .
1≤ 𝑗 ≤𝑐
Pour le produit, on admet que si on suppose que
𝑝1 𝑝2 𝑝𝑐 𝑚1 𝑚2 𝑚𝑑
←→ ←→ · · · ←→ ←→ ←→ · · · ←→
𝐴 𝐴1,2 · · · 𝐴1,𝑐 l 𝑛1 𝐵 𝐵 1,2 · · · 𝐵 1,𝑑 l 𝑝1
© 1,1 © 1,1
𝐴2,1 𝐴2,2 · · · l 𝑛2 𝐵 2,1 𝐵 2,2 · · · l 𝑝2
ª ª
𝐴2,𝑐 ® 𝐵 2,𝑑 ®
𝐴 = .. .. .. ®® .. et 𝐵 = .. .. .. ®® ..
. . . ® . . . . ® .
« 𝐴 𝑙,1 𝐴 𝑙,2 · · · 𝐴𝑙,𝑐 ¬ l 𝑛𝑙 « 𝐵 𝑐,1 𝐵 𝑐,2 ··· 𝐵𝑐,𝑑 ¬ l 𝑝𝑐
alors
𝑚1 𝑚2 𝑚𝑑
←→ ←→ · · · ←→
𝐶 𝐶 1,2 · · · 𝐶 1,𝑑 l 𝑛1
© 1,1
𝐶 2,1 𝐶 2,2 · · · l 𝑛2
ª
𝐶 2,𝑑 ®
𝐴𝐵 = .. .. .. ®® ..
. . . ® .
𝐶
« 𝑙,1 𝐶 𝑙,2 · · · 𝐶𝑙,𝑑 ¬ l 𝑛𝑙
61
𝑐
Í
avec 𝐶𝑖,𝑗 = 𝐴𝑖,𝑘 𝐵𝑘,𝑗 pour tout 𝑖 ∈ [[1, 𝑙]] et 𝑗 ∈ [[1, 𝑑]] .
𝑘=1
Exercice 7.1
𝐴 𝐵
Soit 𝑀 = une matrice triangulaire par blocs ; avec 𝐴 ∈ 𝑀𝑝 (K), 𝐵 ∈
0 𝐶
𝑀𝑞,𝑝 (K) et 𝐶 ∈ 𝑀𝑞 (K).
𝐼𝑝 0 𝐼𝑝 𝐵 𝐴 0
1. Calculer le produit . (Remarquer que ce pro-
0 𝐶 0 𝐼𝑞 0 𝐼𝑞
duit est bien possible).
2. En déduire que
𝐴 𝐵
det = det 𝐴 det 𝐶.
0 𝐶
3. Donner une condition nécessaire et suffisante pour que 𝑀 soit inver-
sible.
solution 7.1, page 68
62
Sous espaces stables par un
endomorphisme
chapitre 8
I
Définition et propriétés
Définition 8.1
Exemples 8.1
Exercice 8.1
Montrer que si 𝑢 est un endomorphisme nilpotent de 𝐸, d’indice de nilpotence
𝑛, alors, pour tout 𝑥 ∈ 𝐸, l’ensemble Vect{𝑥, 𝑢 (𝑥), 𝑢 2 (𝑥), · · · , 𝑢 𝑛−1 (𝑥)} est 𝑢-
stable.
Propriétés 8.1
page 63 / 67
propriétés 8.1 (suite)
Exercice 8.2
Montrer que 𝑢 est une homothétie de 𝐸 si, et seulement si, 𝑢 stabilise toutes
les droites vectoriels de 𝐸.
Proposition 8.2
II
Endomorphisme induit
𝑢𝐹 : 𝐹 −→ 𝐹
𝑥 ↦ → 𝑢 𝐹 (𝑥) = 𝑢 (𝑥)
Remarque 8.1
64
remarque 8.1 (suite)
de 𝐹 dans 𝐸.
Exemples 8.2
Propriétés 8.4
III
Caractérisation matricielle de
la stabilité d’un sous espace
Dans ce paragraphe, 𝐸 est supposé non nul et de dimension finie 𝑛.
Proposition 8.5
𝐴 = matB𝐹 𝑢 𝐹 .
démonstration 8.5, page 67
65
En raisonnant de la même manière on a aussi le résultat suivant :
Proposition 8.6
𝑠
Soient 𝐸 1, · · · , 𝐸𝑠 des sous s.e.v supplémentaires de 𝐸 et B = B𝑖 une base
Ð
𝑖=1
𝑠
de 𝐸 adaptée à la décomposition 𝐸 = ⊕ 𝐸𝑖 ; B𝑖 étant une base de 𝐸𝑖 pour tout
𝑖=1
𝑖 ∈ [[1, 𝑠]]. Alors les 𝐸𝑖 sont stables par 𝑢 si, et seulement si, la matrice de 𝑢
dans B est de la forme
dim 𝐸 1 dim 𝐸𝑠
←→ · · · ←→
𝐴 0 ... 0 l dim 𝐸 1
© 1 . ª
.. ..
0
. . .. ®®
matB (𝑢) = . . ® ..
..
. . . . . 0 ®® .
l dim 𝐸𝑠
« 0 . . . 0 𝐴𝑠 ¬
Dans ce cas, pour tout 𝑖 ∈ [[1, 𝑠]] on a :
𝐴𝑖 = matB𝑖 𝑢𝐸𝑖 .
66
67
IV
Démonstrations des théorèmes
C’est une simple récurrence récurrence sur 𝑙 ; pour 𝑙 = 2 c’est l’objet de l’exercice
précédent.
Soit 𝑥 ∈ 𝐸.
— Si 𝑥 ∈ Ker 𝑣 alors 𝑣 (𝑢 (𝑥)) = 𝑣 ◦ 𝑢 (𝑥) = 𝑢 ◦ 𝑣 (𝑥) = 𝑢 (𝑣 (𝑥)) = 𝑢 (0) = 0, c’est à
dire que donc 𝑢 (𝑥) ∈ Ker 𝑣.
Ainsi Ker 𝑣 est stable par 𝑢.
— Si 𝑥 ∈ Im 𝑣 alors il existe 𝑦 ∈ 𝐸 tel que 𝑥 = 𝑣 (𝑦). Il s’en suit que :
Évidente.
On démontre seulement la propriété (3) ; les autres sont faciles. Supposons que 𝑢 est
un automorphisme de 𝐸 qui stabilise 𝐹 et que 𝐹 est de dimension finie. Comme𝑢 est
injectif, alors dim 𝑢 (𝐹 ) = dim 𝐹 et par la suite 𝑢 (𝐹 ) = 𝐹 .On en déduite que 𝑢 𝐹 est un
automorphisme de 𝐹 et (𝑢 −1 )𝐹 = (𝑢 𝐹 ) −1 .
𝐹 est stable par 𝑢 si,et seulement si , pour tout 𝑗 ∈ [[1, 𝑝]] , le vecteur 𝑢 (𝑒 𝑗 ) appartient
𝑝
∑︁
à 𝐹 c’est à dire sous la forme : 𝑢 (𝑒 𝑗 ) = 𝜇𝑖,𝑗 𝑒𝑖 .
𝑖=1
68
V
Solutions des exercices
69