Vous êtes sur la page 1sur 69

CPGE Ibn Ghazi

Cours
Rappel d’algèbre
linéaire

Classes MP
2
Table des matières

1 Espaces vectoriel 6
I Sous espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 6
1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . 6
2 Exercices d’approfondissements . . . . . . . . . . . . . . . 8
II Indépendance linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 9
1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . 9
2 Exercices d’approfondissement . . . . . . . . . . . . . . . 11
III Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . 12
1 Exercices d’approfondissements . . . . . . . . . . . . . . . 14

2 Applications linéaires 16
I Notion d’application linéaire . . . . . . . . . . . . . . . . . . . . . 16
II Opérations sur les applications linéaires . . . . . . . . . . . . . . . 18
III Noyau et image d’une application linéaire . . . . . . . . . . . . . 19
IV Applications linéaires et indépendance linéaire . . . . . . . . . . . 20
V Projections et symétries vectorielles . . . . . . . . . . . . . . . . . 21
VI Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Espaces vectoriels de dimensions finies 24


I Théorème de la base incomplète, espace de dimension finie . . . . 24
II Dimension d’un sous espace vectoriel . . . . . . . . . . . . . . . . 26
III Rang d’une famille finie de vecteurs, d’une application linéaire . . 27

4 Les matrices 30
I Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
II Matrices d’une application linéaire . . . . . . . . . . . . . . . . . . 34
III Application linéaire associée canoniquement à une matrice . . . 36
IV Matrices de passages . . . . . . . . . . . . . . . . . . . . . . . . . 37
V Matrices équivalentes, matrices semblables . . . . . . . . . . . . . 39

page 3 / 67
VI Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 40
VII Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 41

5 La méthode du pivot de gauss 44


I Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . 44
II L’algorithme de Pivot de Gauss . . . . . . . . . . . . . . . . . . . . 47

6 Le déterminant 50
I le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . 50
II Déterminant d’une famille de 𝑛 vecteurs . . . . . . . . . . . . . . 52
III Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . 53
IV Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . 53
V Calcul de déterminant . . . . . . . . . . . . . . . . . . . . . . . . . 54

7 Matrices définies par blocs 58


I Notion de matrice par blocs . . . . . . . . . . . . . . . . . . . . . . 58
II Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . 59
III Opérations sur les matrices par blocs . . . . . . . . . . . . . . . . 60

8 Sous espaces stables par un endomorphisme 62


I Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . 62
II Endomorphisme induit . . . . . . . . . . . . . . . . . . . . . . . . 63
III Caractérisation matricielle de la stabilité d’un sous espace . . . . 64
IV Démonstrations des théorèmes . . . . . . . . . . . . . . . . . . . . 67
V Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . 68

Liste des résultats remarquables

1.1 Proposition : Caractérisation d’un s.e.v . . . . . . . . . . . . . . . 6


1.3 Définition : Famille libre : Cas d’une famille finie . . . . . . . . . . 9
1.5 Exercice : Polynômes d’interpolation de Lagrange . . . . . . . . . 10
1.4 Définition : Cas général . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Exemples : fondamentaux . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Théorème : Détermination d’une application linéaire sur une base 17
3.1 Théorème : de la base incomplète . . . . . . . . . . . . . . . . . . 24
3.12 Théorème : du rang . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.18 Proposition : et définition . . . . . . . . . . . . . . . . . . . . . . 40

4
4.10 Définition : Matrices échelonnées . . . . . . . . . . . . . . . . . . 42
6.3 Exemples : : Matrice de Vandermonde . . . . . . . . . . . . . . . 56
7.1 Proposition : Déterminant d’une matrice triangulaire par blocs . . 61

5
6
Espaces vectoriel
chapitre 1

Conventions et notations

Durant tout ce document, K désigne R ou C, et (𝐸, +, .) est un K.e.v. On


suppose connue la notion d’un espace vectoriel sur K.

I
Sous espaces vectoriels

I.1 Définitions et propriétés


Définition 1.1

On dit qu’une partie 𝐹 de 𝐸 est un sous espace vectoriel (s.e.v) de 𝐸 si :


1 𝐹 ≠ ∅;
2 𝐹 est stable par les lois « + » et « . » ,
∀(𝑥, 𝑦) ∈ 𝐹 2, ∀𝛼 ∈ K, 𝑥 + 𝑦 ∈ 𝐹 et 𝛼 .𝑥 ∈ 𝐹 ;
3 Les lois « + » et « . » induisent sur 𝐹 une structure d’espace vectoriel.

Proposition 1.1 Caractérisation d’un s.e.v

Étant donnée une partie 𝐹 de 𝐸, les assertions suivantes sont équivalentes :


1 𝐹 est un s.e.v de 𝐸.
2 • 𝐹 ≠ ∅;
• ∀𝑥, 𝑦 ∈ 𝐹, 𝑥 + 𝑦 ∈ 𝐹 ;
• ∀𝑥 ∈ 𝐹, ∀𝛼 ∈ K, 𝛼 .𝑥 ∈ 𝐹 .

page 7 / 67
3 • 𝐹 ≠ ∅;
• ∀𝑥, 𝑦 ∈ 𝐹, ∀𝛼 ∈ K, 𝛼 .𝑥 + 𝑦 ∈ 𝐹 .

Exemples 1.1

1.1.1 L’ensemble des suites convergentes, celui des suites bornées sont des
s.e.v de (KN, +, .)
1.1.2L’ensemble C𝑘 (𝐼, K) des fonctions numériques de classe C𝑘 sur un
intervalle non trivial 𝐼 de R, où 𝑘 ∈ N ∪ {∞}, est un s.e.v de (F(𝐼, K), +, .).
1.1.3 Pour tout 𝑛 ∈ N, l’ensemble K𝑛 [𝑋 ] = {𝑃 ∈ K[𝑋 ] / deg 𝑃 6 𝑛} est un
s.e.v de K[𝑋 ].
1.1.4Pour tout 𝑎 ∈ K, l’ensemble 𝐻𝑎 = {𝑃 ∈ K[𝑋 ] / 𝑃 (𝑎) = 0} est un s.e.v
de K[𝑋 ]

Proposition 1.2

L’intersection d’une famille quelconque (finie ou infinie) de s.e.v de 𝐸 est un


s.e.v de 𝐸.

Proposition et définition 1.3

Si 𝐴 une partie de 𝐸 alors l’intersection de tous les s.e.v de 𝐸 qui contiennent


𝐴 est un s.e.v de 𝐸 contenant 𝐴. On l’appelle le s.e.v de 𝐸 engendré par 𝐴 et
on le note Vect(𝐴).

Proposition 1.4

Soit 𝐴 une partie de 𝐸.


1.4.1 Vect(𝐴) est le plus petit s.e.v de 𝐸 contenant 𝐴.
1.4.2 Vect(𝐴) est l’ensemble des combinaisons linéaires des vecteurs de 𝐴,
ce qui signifie que
n
Vect(𝐴) = 𝑥 ∈ 𝐸 / ∃𝑝 ∈ N, ∃(𝑎 1, 𝑎 2, . . . , 𝑎𝑝 ) ∈ 𝐴𝑝 ,
𝑝
∑︁ o
∃(𝛼 1, 𝛼 2, . . . , 𝛼 𝑝 ) ∈ K𝑝 ; 𝑥 = 𝛼 𝑘 𝑎𝑘
𝑘=1

8
1.4.3 Dans le cas où 𝐴 = {𝑎 1, 𝑎 2, . . . , 𝑎𝑛 } est fini alors
n ∑︁𝑛 o
Vect(𝐴) = 𝛼𝑖 .𝑎𝑖 / 𝛼 1, · · · , 𝛼𝑛 ∈ K .
𝑖=1

Propriétés 1.5

Soient 𝐴, 𝐵 ⊂ 𝐸. Alors :
1.5.1 Vect(∅) = {0}.
1.5.2 Si 𝐴 ⊂ 𝐵 alors Vect(𝐴) ⊂ Vect(𝐵).
1.5.3 𝐴 est un s.e.v de 𝐸 si et seulement si Vect(𝐴) = 𝐴.
1.5.4 Vect (Vect(𝐴)) = Vect(𝐴).

Définition 1.2

Soit G = (𝑣𝑖 )𝑖 ∈𝐼 une famille quelconque de vecteurs de 𝐸. On dit que G


est génératrice dans 𝐸 si 𝐸 = Vect( G) ; c’est à dire que tout élément de 𝐸
s’écrit comme combinaison linéaire d’une sous-famille finie de vecteurs de
G. En particulier, dans le cas où G est une famille finie de la forme G =
(𝑣 1, 𝑣 2, · · · , 𝑣𝑛 ) , alors elle est génératrice dans 𝐸 si :
𝑛
∑︁
∀𝑥 ∈ 𝐸 ; ∃ (𝛼 1, · · · , 𝛼𝑛 ) ∈ K𝑛 : 𝑥 = 𝛼𝑖 𝑣 𝑖 .
𝑖=1

Remarque 1.1

Toute sur-famille d’une famille génératrice de 𝐸 est encore une famille


génératrice.

I.2 Exercices d’approfondissements

Exercice 1.1
Montrer que l’ensemble des solutions d’une équation différentielle homogène
de second ordre à coefficients constants, est un s.e.v de C2 (R, C).

9
Exercice 1.2

𝐹 = (𝑥, 𝑦, 𝑧) ∈ R3 : 𝑥 + 𝑦 + 𝑧 = 0 ,

Soient
𝐺 = (𝑥, 𝑦, 𝑧) ∈ R3 : 2𝑥 − 𝑦 + 3𝑧 = 0


𝐻 = (𝑥, 𝑦, 𝑧) ∈ R3 : 𝑥 + 𝑦 + 𝑧 = 2𝑥 − 𝑦 + 3𝑧 = 0 .


1 Montrer que 𝐹 et 𝐺 sont des sous-espaces vectoriels de R3 . On en donnera


une famille génératrice.
2 En déduire que 𝐻 est un sous-espace vectoriel de R3 .

Exercice 1.3
Pour tous 𝑎, 𝑏 ∈ R on note 𝑓𝑎,𝑏 la fonction définie de R vers R par

∀𝑥 ∈ R, 𝑓𝑎,𝑏 (𝑥) = 𝑎𝑥 + 𝑏.

Montrer que l’ensemble 𝐹 = {𝑓𝑎,𝑏 : 𝑎, 𝑏 ∈ R} est un sous-espace vectoriel de


l’ensemble F(R) des fonctions définies de R vers lui même.

Exercice 1.4
Montrer que si 𝐹 et 𝐺 sont deux s.e.v de 𝐸 alors 𝐹 ∪ 𝐺 est un s.e.v de 𝐸 si et
seulement si 𝐹 ⊂ 𝐺 ou 𝐺 ⊂ 𝐹 .

II
Indépendance linéaire

II.1 Définitions et propriétés


Définition 1.3 Famille libre : Cas d’une famille finie

Soit L = (𝑣 1, 𝑣 2, · · · , 𝑣𝑛 ) une famille finie de vecteurs de 𝐸. On dit que la


famille L est libre si :
𝑛
∑︁
∀ (𝛼 1, · · · 𝛼𝑛 ) ∈ K𝑛 ; 𝛼𝑘 𝑣𝑘 = 0𝐸 =⇒ 𝛼 1 = 𝛼 2 = · · · = 𝛼𝑛 = 0.
𝑘=1
D’autre part, par définition, la famille vide c’est à dire ne contenant aucun
vecteur est considérée comme une famille libre.

10
Exercice 1.5 Polynômes d’interpolation de Lagrange
Soient 𝑎 1, · · · , 𝑎𝑛 ∈ K deux à deux distincts. Pour tout 𝑖 ∈ [[1, 𝑛]] on considère
Î 𝑋 − 𝑎𝑗
le polynôme 𝐿𝑖 = . Calculer 𝐿𝑖 (𝑎 𝑗 ) pour tout 𝑖, 𝑗 ∈ [[1, 𝑛]], et
1≤ 𝑗 ≤𝑛 𝑎𝑖 − 𝑎 𝑗
𝑗≠𝑖
montrer que la famille (𝐿1, · · · , 𝐿𝑛 ) est libre dans K𝑛 [𝑋 ].

Définition 1.4 Cas général

Soit L = (𝑣𝑖 )𝑖 ∈𝐼 une famille quelconque de vecteurs de 𝐸. On dit que L


est libre, ou que ses vecteurs sont linéairement indépendants, si toutes ses
sous-familles finies sont libres. C’est-à-dire si pour toute partie finie 𝐽 de 𝐼 la
famille (𝑣 𝑗 ) 𝑗 ∈𝐽 est libre. Dans le cas contraire on dit que L est liée, ou que ses
vecteurs sont linéairement dépendants.

Remarques 1.2

1.2.1 Si F contient le vecteur nul ou plusieurs fois un même vecteur alors


elle est liée.
1.2.2 Si F est réduite à un seul vecteur 𝑥, alors F est libre si et seulement
si 𝑥 ≠ 0.

Propriétés 1.6

Soit F = (𝑣𝑖 )𝑖 ∈𝐼 une famille de vecteurs de 𝐸.


1.6.1 F est liée si, et seulement si, un au moins de ses vecteurs est combinai-
son linéaire des autres :

∃𝑖 0 ∈ 𝐼, 𝑣𝑖 0 ∈ Vect 𝑣𝑖 / 𝑖 ∈ 𝐼 \ {𝑣𝑖 0 }
1.6.2 F est libre si, et seulement si, aucun de ses vecteurs n’est combinaison
linéaire des autres vecteurs.
1.6.3Toute sous-famille d’une famille libre est une famille libre. Par contrap-
posée, toute sur-famille d’une famille liée est une famille liée.

Définition 1.5

On appelle base de 𝐸 toute famille libre et génératrice dans 𝐸.

11
Exemples 1.2 (fondamentaux)

1.2.1 Dans K𝑛 , la famille (𝑒 1, 𝑒 2, ..., 𝑒𝑛 ) est une base de K𝑛 , où


𝑒𝑘 = (0, · · · , 0, 1 , 0, · · · , 0)

k-ème place
Elle est dite la base canonique de K𝑛 .
1.2.2 Dans K[𝑋 ], la famille (𝑋 𝑛 )𝑛 ∈N est une base. Elle est dite la base
canonique de K[𝑋 ].
1.2.3 Dans K𝑛 [𝑋 ], la famille (1, 𝑋, ..., 𝑋 𝑛 ) est une base. Elle est dite la base
canonique de K𝑛 [𝑋 ].
n.b. Il n’y a pas toujours une base qu’on peut qualifier de canonique quand 𝐸 est
un espace quelconque. Le point commun entre les trois derniers exemples est que les
coordonnées d’un vecteur dans la base indiquée sont les « coefficients » de ce dernier.

Proposition et définition 1.7

Soit B = (𝑣 1, 𝑣 2, · · · , 𝑣𝑛 ) une famille de vecteurs de 𝐸. B est une base de 𝐸 si,


et seulement si,
𝑛
∑︁
∀𝑥 ∈ 𝐸, ∃!(𝛼 1, 𝛼 2, · · · , 𝛼𝑛 ) ∈ K𝑛 ; 𝑥 = 𝛼𝑖 𝑣 𝑖 .
𝑖=1
La famille de scalaires (𝛼 1, 𝛼 2, · · · , 𝛼𝑛 ) s’appelle alors système de coordonnées
de 𝑥 dans la base B.

II.2 Exercices d’approfondissement


Exercice 1.6

𝐹 = (𝑥, 𝑦, 𝑧) ∈ R3 : 𝑥 + 𝑦 − 𝑧 = 0

Soient
𝐺 = (𝑥 − 𝑦, 𝑦 + 𝑥, 𝑥 − 3𝑦) : (𝑥, 𝑦) ∈ R2 .


Montrer que 𝐹 et 𝐺 sont des sous-espaces vectoriels de R3 et en donner des


bases.

Exercice 1.7
Étudier l ’indépendance linéaire des familles F suivantes dans l’espace vectoriel

12
C1 (R, R) :
1. F = (𝑒 𝑎𝑥 )𝑎 ∈R . 2. F = cos𝑘 𝑥 𝑘 ∈N .

 
3. F = sin𝑘 𝑥 . 4. F = (cos 𝛼 .𝑥) 𝛼 ∈R+ .
𝑘 ∈N
5. F = (|𝑥 − 𝑎|)𝑎 ∈R .

III
Somme de sous-espaces vectoriels

Proposition et définition 1.8

Si 𝐹 1, · · · , 𝐹𝑛 sont des 𝑠.𝑒.𝑣 de 𝐸, alors l’ensemble


𝑛
n ∑︁ o
𝑥 𝑖 : 𝑥 1 ∈ 𝐹 1 , · · · , 𝑥 𝑛 ∈ 𝐹𝑛
𝑖=1
est un s.e.v de 𝐸. C’est le plus petit s.e.v de 𝐸 qui contient tous les s.e.v 𝐹𝑖 . On
𝑛
Í
l’appelle la somme des s.e.v 𝐹 1, · · · , 𝐹𝑛 , et on le note 𝐹𝑖 ou encore 𝐹 1 +· · ·+𝐹𝑛 .
𝑖=1
𝑛
Í 𝑛
Ð 
n.b. 𝐹𝑖 = Vect 𝐹𝑖
𝑖=1 𝑖=1

Définition 1.6

On dit que deux s.e.v 𝐹 et 𝐺 de 𝐸 sont en somme directe, ou que la somme


𝐹 + 𝐺 est directe, si 𝐹 ∩ 𝐺 = {0}. Dans ce cas on note 𝐹 ⊕ 𝐺 au lieu de 𝐹 + 𝐺.
On dit que 𝐹 et 𝐺 sont supplémentaires dans 𝐸, ou que 𝐹 est un supplémentaire
de 𝐺 dans 𝐸, si 𝐹 ⊕ 𝐺 = 𝐸 ; c’est à dire lorsque
(
𝐹 +𝐺 = 𝐸
.
𝐹 ∩ 𝐺 = {0}

Proposition 1.9

Deux s.e.v 𝐹 et 𝐺 de 𝐸 sont supplémentaires dans 𝐸 si, et seulement si, pour


tout 𝑥 ∈ 𝐸 il existe un unique (𝑥 1, 𝑥 2 ) ∈ 𝐹 × 𝐺 tel que 𝑥 = 𝑥 1 + 𝑥 2 .

13
Proposition et définition 1.10

Soient 𝐹 1, ..., 𝐹𝑛 des 𝑠.𝑒.𝑣 de 𝐸 ayant B1, · · · , B𝑛 comme bases et posons B =


𝑛
∪ B𝑘 . Les propriétés suivantes sont équivalentes :
𝑘=1
𝑛
Í 𝑛
Î
1 ∀𝑥 ∈ 𝐹𝑘 , ∃!(𝑥 1, ..., 𝑥𝑛 ) ∈ 𝐹𝑘 tel que 𝑥 = 𝑥 1 + ... + 𝑥𝑛 .
𝑘=1 𝑘=1
𝑛
Î
2 ∀(𝑥 1, ..., 𝑥𝑛 ) ∈ 𝐹𝑘 , 𝑥 1 + ... + 𝑥𝑛 = 0 =⇒ 𝑥 1 = ... = 𝑥𝑛 = 0.
𝑘=1
Í
3 ∀𝑘 ∈ {1, ..., 𝑛}, 𝐹𝑘 ∩ 𝐹 𝑗 = {0}.
1≤ 𝑗 ≤𝑛, 𝑗≠𝑘
𝑘
Í
4 ∀𝑘 ∈ {1, ..., 𝑛 − 1}, 𝐹𝑘+1 ∩ 𝐹 𝑗 = {0}.
𝑗=1
5 B est une famille libre.
On dit dans ce cas que les sous espaces 𝐹 1, ..., 𝐹𝑛 ont une somme directe
Í𝑛 𝑛
et on note la somme vectorielle 𝐹𝑘 par ⊕ 𝐹𝑘 . Si de plus cette somme est
𝑘=1 𝑘=1
égale à l’espace 𝐸, on dit que 𝐹 1, ..., 𝐹𝑛 sont supplémentaires dans 𝐸.

Remarques 1.3

1 En pratique, dès que 𝑛 ≥ 3, on utilise la propriété 2 pour montrer la


Í𝑛
somme 𝐹𝑘 est directe.
𝑘=1
𝑘
Í
2 La propriété 3 (ainsi que la propriété 4) signifie que 𝐹𝑘+1 et 𝐹 𝑗 ont
𝑗=1
une somme directe. Ainsi, la somme directe peut être définie par
récurrence.

Proposition 1.11

Sous les mêmes hypothèses, les propriétés suivantes sont équivalentes


1 𝐹 1, ..., 𝐹𝑛 sont supplémentaires dans 𝐸.
𝑛
Î
2 Pour tout 𝑥 ∈ 𝐸, il existe un unique (𝑥 1, · · · 𝑥𝑛 ) ∈ tel que 𝑥 = 𝑥 1 +· · · 𝑥𝑛 .
𝑖=1
3 B est une base de 𝐸.
𝑛
Dans ce cas on dit que 𝐵 est une base adaptée à la décomposition 𝐸 = ⊕ 𝐹𝑘 .
𝑘=1

14
III.1 Exercices d’approfondissements
Exercice 1.8
Montrer que l’ensemble des fonctions paires et celui des fonctions impaires
sont supplémentaires dans F (R, R).

Exercice 1.9
Montrer que l’ensemble des matrices symétriques et celui des des matrices
antisymétriques sont supplémentaires dans M𝑛 (R).

15
16
Applications linéaires
chapitre 2

I
Notion d’application linéaire

Dans toute cette section, 𝐸 et 𝐹 désignent deux K.e.v.

Définition 2.1

On dit qu’une application 𝑓 : 𝐸 → 𝐹 est linéaire si :


i. ∀𝑥, 𝑦 ∈ 𝐸, 𝑓 (𝑥 + 𝑦) = 𝑓 (𝑥) + 𝑓 (𝑦) et
ii. ∀𝑥 ∈ 𝐸, ∀𝛼 ∈ K, 𝑓 (𝛼 .𝑥) = 𝛼 .𝑓 (𝑥).
On utilise aussi le vocabulaire suivant :
Si 𝐸 = 𝐹 , on dit que 𝑓 est un endomorphisme linéaire de E.
Si 𝐹 = K, on dit que 𝑓 est une forme linéaire.

Si 𝑓 est bijective, on dit que 𝑓 est un isomorphisme linéaire de 𝐸 vers 𝐹 .

Si 𝐸 = 𝐹 et 𝑓 est bijective, on dit que 𝑓 est un automorphisme linéaire de


𝐸, ou encore, que 𝑓 est inversible.

Proposition 2.1

Une application 𝑓 : 𝐸 → 𝐹 est linéaire si et seulement si :


∀𝑥, 𝑦 ∈ 𝐸, , ∀𝛼 ∈ K, 𝑓 (𝛼 .𝑥 + 𝑦) = 𝛼 .𝑓 (𝑥) + 𝑓 (𝑦)

page 17 / 67
Exemples 2.1

2.1.1 Si on désigne par 𝑐 l’espace vectoriel des suites numériques conver-


gentes, alors l’application :

lim : 𝑐 −→ K
(𝑥𝑛 ) ↦−→ lim 𝑥𝑛

est une forme linéaire.


2.1.2 Étant donné un segment [𝑎, 𝑏] non trivial de R, l’application

𝐴: C ([𝑎, 𝑏], K) −→ K
∫𝑏
𝑓 ↦−→ 𝑎 𝑓 (𝑥)dx

est une forme linéaire.


2.1.3 Si 𝐼 est un intervalle non trivial de Ralors l’application

𝐷: C1 (𝐼, K) −→ C (𝐼, K)
𝑓 ↦−→ 𝑓 0

est linéaire.

Notations

L’ensemble des applications linéaires de 𝐸 dans 𝐹 est noté L(𝐸, 𝐹 ), celui des
endomorphismes de 𝐸 est noté L(𝐸). L’ensemble des formes linéaires de 𝐸
est noté 𝐸 ∗ et s’appelle l’espace dual de 𝐸 (ne pas confondre 𝐸 ∗ avec 𝐸\{0𝐸 }).

Théorème 2.2 Détermination d’une application linéaire sur une base

Si B = (𝑒𝑖 )𝑖 ∈𝐼 est une base de 𝐸, et (𝑦𝑖 )𝑖 ∈𝐼 est une famille de vecteurs de 𝐹


alors il existe une et une seule application linéaire 𝑓 de 𝐸 dans 𝐹 vérifiant :
∀𝑖 ∈ 𝐼 𝑓 (𝑒𝑖 ) = 𝑦𝑖
Autrement dit ; une application linéaire est parfaitement déterminée par la
donnée des images des éléments d’une base.

Exemples 2.2

Déterminer l’application linéaire 𝑓 définie de R3 dans R[𝑋 ] par :


𝑓 (𝑒 1 ) = 𝑋 3 − 𝑋 ; 𝑓 (𝑒 2 ) = 1 + 𝑋 et 𝑓 (𝑒 3 ) = −𝑋 3 − 1

18
exemples 2.2 (suite)

où (𝑒 1, 𝑒 2, 𝑒 3 ) est la base canonique de R3 .

II
Opérations sur les applications linéaires

Définition 2.3

Soient 𝑓 , 𝑔 : 𝐸 → 𝐹 deux application linéaires entre deux K.e.v 𝐸 et 𝐹 , et


𝛼 ∈ K.
1 On appelle somme de 𝑓 et 𝑔 l’application 𝑓 + 𝑔 de 𝐸 vers 𝐹 définie par :
∀𝑥 ∈ 𝐸, (𝑓 + 𝑔)(𝑥) = 𝑓 (𝑥) + 𝑔(𝑥).
2 On appelle produit de 𝑓 par le scalaire 𝛼 l’application 𝛼 .𝑓 de 𝐸 vers 𝐹
définie par :
∀𝑥 ∈ 𝐸, (𝛼 .𝑓 ) (𝑥) = 𝛼 .𝑓 (𝑥).

Proposition 2.3

1 La somme et la composée de deux applications linéaires, ainsi que le


produit d’une application linéaire par un scalaire est une application linéaire.
2 (L(𝐸, 𝐹 ), +, .) est un K.e.v.
3 Si 𝑓 est un isomorphisme de 𝐸 vers 𝐹 alors 𝑓 −1 est un isomorphisme
linéaire de 𝐹 vers 𝐸.
4 (L(𝐸), +, ◦) est un anneau.

Remarques 2.1

Dès que 𝑛 ≥ 2, (L(𝐸), +, ◦) est anneau non commutatif et non intégre.

Notations

Pour tout 𝑓 ∈ L(𝐸), et 𝑘 ∈ N∗ , on note 𝑓 𝑘 = 𝑓 ◦ · · · ◦ 𝑓 et 𝑓 0 = Id𝐸 .


| {z }
𝑘-fois

19
Conséquences

Soient 𝑓 , 𝑔 ∈ L(𝐸) et 𝑚 ∈ N. Si 𝑓 et 𝑔 commutent alors :


1 La formule de Newton
𝑚  
∑︁
𝑚 𝑚
(𝑓 + 𝑔) = 𝑓 𝑘 ◦ 𝑔𝑚−𝑘
𝑘
𝑘=0
 
𝑚
Í
2 𝑓 𝑚+1 − 𝑔𝑚+1 = (𝑓 − 𝑔) ◦ 𝑓 𝑘 ◦ 𝑔𝑚−𝑘
𝑘=0

Exercice 2.1
Soit 𝑓 ∈ L(𝐸) un endomorphisme nilpotent, d’indice de nilpotence 𝑟 ∈ N∗ ;
c’est à dire 𝑓 𝑟 = 0 et 𝑓 𝑟 −1 ≠ 0 ; où 0 désigne ici l’endomorphisme nul. Montrer
que l’endomorphisme 𝑔 = Id𝐸 + 𝑓 est inversible et déterminer son inverse.

Proposition et définition 2.4

L’ensemble 𝐺𝐿(𝐸) des endomorphismes inversibles de 𝐸 est un sous-groupe


de l’ensemble des bijections de 𝐸 vers 𝐸 munit de la composition, appelé le
groupe linéaire de 𝐸.

III
Noyau et image d’une application linéaire

Proposition et définition 2.5

Soit 𝑓 ∈ L(𝐸, 𝐹 ). Alors


1 L’image directe d’un s.e.v de 𝐸 par 𝑓 est un s.e.v de 𝐹 .
2 L’image réciproque d’un s.e.v de 𝐹 par 𝑓 est un s.e.v de 𝐸.
En particulier,
1 𝑓 −1 {0𝐹 } = {𝑥 ∈ 𝐸 : 𝑓 (𝑥) = 0𝐹 } est un s.e.v de 𝐸 dit noyau de 𝑓 et
noté Ker 𝑓 .
2 𝑓 (𝐸) = {𝑓 (𝑥) : 𝑥 ∈ 𝐸} est un s.e.v de 𝐹 dit image de 𝑓 et noté Im 𝑓 .

20
Théorème 2.6

Pour tout 𝑓 ∈ L(𝐸, 𝐹 ) on a :


1 𝑓 est injective si, et seulement si, Ker 𝑓 = {0𝐸 }.
2 𝑓 est surjective si, et seulement si, Im 𝑓 = 𝐹 .

Exercice 2.2
Soit 𝑓 : K2 −→ K2 définie par 𝑓 (𝑥, 𝑦) = (−𝑥 + 𝑦, −𝑦).
1 Montrer que 𝑓 est un endomorphisme et détérminer Ker (𝑓 ) et Im (𝑓 ).
Que dire de 𝑓 , est elle injective ? surjective ?
2 Montrer que 𝑓 + 𝑖𝑑 est nilpotente, en déduire que 𝑓 est inversible et
calculer 𝑓 −1 . Calculer 𝑓 𝑛 pour 𝑛 ∈ N, puis 𝑛 ∈ Z.
3 Soient (𝑥𝑛 ) et (𝑦𝑛 ) deux suites vérifiants 𝑥𝑛+1 = −𝑥𝑛 + 𝑦𝑛 et 𝑦𝑛+1 = −𝑦𝑛
Expliciter 𝑥𝑛 et 𝑦𝑛 en fonction de 𝑛, 𝑥 0 et 𝑦0 .

IV
Applications linéaires et indépendance linéaire

Notations

Si F = (𝑒𝑖 )𝑖 ∈𝐼 est une famille de vecteurs de 𝐸 et 𝑓 ∈ L(𝐸, 𝐹 ), on note par


𝑓 (F) la famille de vecteurs de 𝐹 définie par 𝑓 (F) = (𝑓 (𝑒𝑖 ))𝑖 ∈𝐼 .

Théorème 2.7

Soit F une famille de vecteurs de 𝐸 et 𝑓 ∈ L(𝐸, 𝐹 ).


1 Si F est libre dans 𝐸 et 𝑓 est injective alors 𝑓 (F) est libre dans 𝐹 .
2 Si F est génératrice dans 𝐸 alors 𝑓 est surjective si et seulement si 𝑓 (F)
est est génératrice dans 𝐹 .

Corollaire 2.8

Si B est une base de 𝐸 et 𝑓 ∈ L(𝐸, 𝐹 ) alors :


1 𝑓 est injective si et seulement si 𝑓 (B) est libre dans 𝐹 .
2 𝑓 est surjective si et seulement si 𝑓 (B) est une génératrice dans 𝐹 .

21
3 𝑓 est bijective si et seulement si 𝑓 (B) est une base de 𝐹 .

Exercice 2.3
Montrer que l’endomorphisme

𝑓 : R2 −→ R2
(𝑥, 𝑦) ↦−→ (𝑥 + 𝑦, 𝑥 − 𝑦)

est un isomorphisme, et en déduire que la famille ((1, 1), (1, −1)) est une base
de R2 .

V
Projections et symétries vectorielles

On suppose ici que 𝐹 et 𝐺 sont deux s.e.v supplémentaires dans 𝐸, c’est à dire
que 𝐹 ⊕ 𝐺 = 𝐸. Ainsi, pour tout 𝑥 ∈ 𝐸, il existe un unique élément de 𝐹 × 𝐺, que
l’on notera ici par (𝑥 𝐹 , 𝑥𝐺 ), vérifiant 𝑥 = 𝑥 𝐹 + 𝑥𝐺 .
Définition 2.6

1 l’application définie de 𝐸 dans 𝐸 qui à tout 𝑥 ∈ 𝐸 associe 𝑥 𝐹 s’appelle la


projection de 𝐸 sur 𝐹 parallèlement à 𝐺. On la note 𝑝 𝐹,𝐺 ou simplement
𝑝.
2 l’application définie de 𝐸 dans 𝐸 qui à tout 𝑥 ∈ 𝐸 associe 𝑥 𝐹 −𝑥𝐺 s’appelle
la symétrie vectorielle de 𝐸 par rapprot à 𝐹 parallèlement à 𝐺. Elle est
notée 𝑠 𝐹,𝐺 ou simplement 𝑠.

22
𝐺

𝑥
𝑥𝐺 = 𝑝𝐺𝐹 (𝑥) • •

0 •
𝑥 𝐹 = 𝑝 𝐹𝐺 (𝑥) 𝐹
−𝑥𝐺 • •
𝑥 𝐹 − 𝑥𝐺 = 𝑠 𝐹𝐺 (𝑥)

Propriétés 2.9

Soient 𝑝 la projection de 𝐸 sur 𝐹 parallèlement à 𝐺 et 𝑠 la symétrie associée.


Alors on a :
2.9.1 𝑝 et 𝑠 sont linéaires.
2.9.2 𝐹 = Im 𝑝 = Ker(𝑝 − 𝑖𝑑𝐸 ) et 𝐺 = Ker 𝑝 ,
2.9.3 𝑝 2 = 𝑝,
2.9.4 𝐹 = Ker(𝑠 − 𝑖𝑑𝐸 ) et 𝐺 = Ker(𝑠 + 𝑖𝑑𝐸 ),
2.9.5 𝑠 2 = id𝐸 .

Théorème 2.10

Soit 𝑓 ∈ L(𝐸), alors :


1 𝑓 est une projection vectorielle si et seulement si 𝑓 2 = 𝑓 .
2 𝑓 est une est une symétrie vectorielle si et seulement si 𝑓 2 = id𝐸 .

Exercice 2.4
Considérons l’endomorphisme 𝑆 de R2 dont l’expression analytique est :
(
𝑥 0 = 𝑥 cos 𝑎 + 𝑦 sin 𝑎
.
𝑦 0 = 𝑥 sin 𝑎 − 𝑦 cos 𝑎

23
Montrer que 𝑆 est une symétrie axiale.

VI
Hyperplans

Définition 2.7

On appelle hyperplan de 𝐸 tout s.e.v 𝐻 de 𝐸 de la forme 𝐻 = Ker 𝑓 où 𝑓 est


une forme linéaire non nulle de 𝐸.

Exemples 2.3
n ∫ 1 o
2.3.1 L’ensemble 𝑓 ∈ C ( [0; 1]; R) : 𝑓 (𝑡)dt = 0 est un hyperplan
0
de C ([0; 1]; R).
2.3.2 étant donné 𝑎 1 ; · · · ; 𝑎𝑛 ∈ K𝑛 non tous nuls, l’ensemble
n 𝑛
∑︁ o
(𝑥 1, · · · ; 𝑥𝑛 ) ∈ K𝑛 : 𝑎𝑖 𝑥 𝑖 = 0
𝑖=1

est un hyperplan de K𝑛 . On l’appelle l’hyperplan de K𝑛 d’équation :


𝑛
∑︁
𝑎𝑖 𝑥𝑖 = 0.
𝑖=1

Proposition 2.11

Étant donné un s.e.v 𝐻 de 𝐸, les assertions suivantes sont équivalentes :


1 𝐻 est un hyperplan de 𝐸.
2 ∃𝑎 ∈ 𝐸 \ {0} : 𝐸 = 𝐻 ⊕ K.𝑎.
Dans ce cas ; ∀𝑎 ∈ 𝐸 \ 𝐻 : 𝐸 = 𝐻 ⊕ K.𝑎.

24
Espaces vectoriels de dimensions
finies
chapitre 3

I
Théorème de la base incom-
plète, espace de dimension finie

Définition 3.1

Un K.𝑒.𝑣 est dit de dimension finie s’il admet une famille génératrice finie.

Théorème 3.1 de la base incomplète

Si L est une famille libre finie de 𝐸 et G est une famille génératrice finie de 𝐸,
alors on peut compléter L par des vecteurs de G pour obtenir une base de 𝐸.

Théorème et définition 3.2

Si 𝐸 est de dimension finie, alors 𝐸 admet au moins une base. De plus, toutes
ses bases sont finies et elles ont le même nombre d’éléments. Ce nombre
s’appelle dimension de 𝐸 et se note dimK 𝐸, ou tout simplement dim 𝐸.

Exemples 3.1

3.1.1 C est un espace vectoriel de dimension finie, dimC C = 1 et dimR C =


2.
3.1.2 K𝑛 est un espace vectoriel sur K de dimension finie et dim K𝑛 = 𝑛.
3.1.3K𝑛 [𝑋 ] est un espace vectoriel sur K de dimension finie et
dim K𝑛 [𝑋 ] = 𝑛 + 1.
3.1.4 K[𝑋 ] est un espace vectoriel sur K de dimension infinie.

page 25 / 67
exemples 3.1 (suite)

3.1.5 Si 𝐸 et 𝐹 deux K.𝑒.𝑣 de dimensions finies, 𝑛 = dim 𝐸 et 𝑚 = dim 𝐹


alors L(𝐸, 𝐹 ) est de dimension finie et dim L(𝐸, 𝐹 ) = 𝑚𝑛. En particulier
dim L(𝐸) = 𝑛 2 et dim 𝐸 ∗ = 𝑛

Remarques 3.1

La dimension d’un e.v de dimension finie dépend du corps de base K. Ainsi


par exemple, si 𝐸 est un C.e.v de dimension finie, alors dimR 𝐸 = 2 dimC 𝐸.

Propriétés 3.3

Si 𝐸 est un K.𝑒.𝑣 de dimension finie égale à 𝑛 alors :


3.3.1 Toute famille libre a au plus 𝑛 éléments
3.3.2 Toute famille libre à 𝑛 éléments est une base de 𝐸.
3.3.3 Toute famille génératrice a au moins 𝑛 éléments
3.3.4 Toute famille génératrice à 𝑛 éléments est une base de 𝐸.

Exercice 3.1
Déterminer les dimension des s.e.v S𝑛 (K) et A𝑛 (K) de M𝑛 (K), où S𝑛 (K) est
l’ensemble des matrices symétriques et A𝑛 (K) est celui des matrices antisy-
métriques.

Exercice 3.2
Soit E l’ensemble des fonctions

𝑓 : R −→ R
𝑥 ↦−→ (𝑎𝑥 2 + 𝑏𝑥 + 𝑐) cos 𝑥
où 𝑎, 𝑏 et 𝑐 varient dans R. Montrer que 𝐸 est sous-espace vectoriel de F(R, R)
de dimension finie et calculer sa dimension.

26
II
Dimension d’un sous espace vectoriel

Théorème 3.4

Si 𝐸 est de dimension finie alors tout sous espace vectoriel 𝐹 de 𝐸 est un K.𝑒.𝑣
de dimension finie et dim 𝐹 ≤ dim 𝐸, avec égalité si, et seulement si, 𝐹 = 𝐸.

Théorème 3.5

Si 𝐹 et 𝐺 sont deux sous espaces vectoriels de 𝐸 de dimensions finies alors :


dim (𝐹 + 𝐺) = dim 𝐹 + dim 𝐺 − dim 𝐹 ∩ 𝐺 .
En particulier, si 𝐹 ∩ 𝐺 = {0} alors
dim (𝐹 + 𝐺) = dim 𝐹 + dim 𝐺 .

Corollaire 3.6

Si 𝐹 1, · · · , 𝐹𝑛 sont des sous espaces vectoriels de 𝐸 de dimensions finies ayant


une somme directe alors :
  ∑︁ 𝑛
𝑛
dim ⊕ 𝐹𝑖 = dim 𝐹𝑖 .
𝑖=1
𝑖=1

Théorème 3.7

Si 𝐸 est de dimension finie et 𝐹 et 𝐺 sont deux sous espaces vectoriels de 𝐸


alors les propriétés suivantes sont équivalentes :
i. 𝐹 et 𝐺 sont supplémentaires.
ii. 𝐹 + 𝐺 = 𝐸 et dim 𝐸 = dim 𝐹 + dim 𝐺.
iii. 𝐹 ∩ 𝐺 = {0𝐸 } et dim 𝐸 = dim 𝐹 + dim 𝐺.

Remarque 3.2

Dans le cas de plusieurs s.e.v, le théorème précédent se généralise sous la


forme ci-dessous.

Théorème 3.8

Si 𝐸 est de dimension finie et 𝐹 1, · · · , 𝐹𝑛 sont des sous espaces vectoriels de 𝐸


alors les propriétés suivantes sont équivalentes :

27
i. 𝐹 1, · · · , 𝐹𝑛 sont supplémentaires dans 𝐸.
𝑛
Í 𝑛
Í
ii. 𝐸 = 𝐹𝑖 et dim 𝐸 = dim 𝐹𝑖 .
𝑖=1 𝑖=1
𝑛
Í 𝑛
Í
iii. La somme 𝐹𝑖 est directe et dim 𝐸 = dim 𝐹𝑖 .
𝑖=1 𝑖=1

Proposition 3.9

Si 𝐸 est de dimension finie alors les hyperplans vectoriels de 𝐸 sont les s.e.v
de 𝐸 de dimension dim(𝐸) − 1.

Exercice 3.3
Calculer les dimensions des s.e.v 𝐹 et 𝐺 de R3 définis par :

𝐹 = (𝑥, 𝑦, 𝑧) ∈ R3 : 𝑥 + 𝑦 + 𝑧 = 0


𝐺 = (𝑥, 𝑥, 𝑥) : 𝑥 ∈ R

et en déduire qu’ils sont supplémentaires dans R3 .

Exercice 3.4
On suppose que l’espace 𝐸 est de dimension finie 𝑛 ≥ 2 et soient 𝐻 1 et 𝐻 2 deux
hyperplans de 𝐸. Déterminer dim(𝐻 1 ∩ 𝐻 2 ).

III
Rang d’une famille finie de vec-
teurs, d’une application linéaire

Définition 3.2

Soit S = (𝑣 1, 𝑣 2, ..., 𝑣 𝑝 ) une famille à 𝑝 vecteurs de 𝐸. On appelle rang de 𝑆 le


nombre rg(S) = dim (Vect(S)).

Propriétés 3.10

Soit S = (𝑣 1, 𝑣 2, ..., 𝑣 𝑝 ) une famille à 𝑝 vecteurs de 𝐸. Alors

28
propriétés 3.10 (suite)

3.10.1 rg(S) ≤ 𝑝, avec égalité si et seulement si S est libre.


Si 𝐸 est de dimension finie alors rg(S) ≤ dim 𝐸, avec égalité si et
3.10.2
seulement si S est génératrice dans 𝐸.
3.10.3 Le rang de S ne change pas si on permute les éléments de S, si on
ajoute à un de ses vecteurs une combinaison linéaire des autres ou encore si
on multiplie ses vecteurs par des scalaires non nuls.

Définition 3.3

Soient 𝐸, 𝐹 deux K.𝑒.𝑣 et 𝑓 une application linéaire de 𝐸 dans 𝐹 . On dit que


𝑓 est de rang fini, si Im(𝑓 ) est de dimension finie. Dans ce cas, dim(Im(𝑓 ))
s’appelle rang de 𝑓 et se note 𝑟𝑔 (𝑓 ) .

Exemples 3.2

Si 𝐸 un K.𝑒.𝑣 de dimension finie, et 𝐹, 𝐺 sont deux s.e.v supplémentaires


de 𝐸 alors la projection 𝑝 de 𝐸 sur 𝐹 parallélement à 𝐺 est de rang fini, et
rg(𝑝) = dim 𝐹 .

Exercice 3.5
Déterminer le rang de l’endomorphisme 𝑓 de R4 défini par 𝑓 (𝑥, 𝑦, 𝑧, 𝑡) =
(𝑥 + 𝑦, 𝑥 − 𝑦, 2𝑥, 2𝑦)

Propriétés 3.11

Soient 𝐸, 𝐹, 𝐺 des K.𝑒.𝑣 de dimensions finies, B une base de 𝐸 et 𝑓 : 𝐸 → 𝐹


et 𝑔 : 𝐹 → 𝐺 deux applications linéaires. alors
3.11.1 𝑓 est de rang fini et rg(𝑓 ) = rg(𝑓 (B)).
3.11.2 rg(𝑓 ) ≤ dim 𝐸, avec égalité si seulement si 𝑓 est injective.
3.11.3 rg(𝑓 ) ≤ dim 𝐹 , avec égalité si seulement si 𝑓 est surjective.
3.11.4 Les propriétés suivantes sont équivalentes :
i. 𝑓 est bijective.
ii. rg(𝑓 ) = dim 𝐸 = dim 𝐹 .
iii. dim 𝐸 = dim 𝐹 et 𝑓 est surjective.
iv. dim 𝐸 = dim 𝐹 et 𝑓 est injective.

29
propriétés 3.11 (suite)

3.11.5 rg(𝑔 ◦ 𝑓 ) ≤ rg(𝑔), avec égalité si 𝑓 est bijective.


3.11.6 rg(𝑔 ◦ 𝑓 ) ≤ rg(𝑓 ), avec égalité si 𝑔 est bijective.

Théorème 3.12 du rang

Soient 𝐸 un un K.𝑒.𝑣 de dimension finie, 𝐹 un K.𝑒.𝑣 quelconque et 𝑓 une


application linéaire de 𝐸 dans 𝐹 . Alors 𝑓 est de rang fini et
dim 𝐸 = rg (𝑓 ) + dim Ker 𝑓
Résultat important

Exercice 3.6
Calculer la dimension du noyau de la forme linéaire

𝑓 : R3 ←− R
(𝑥, 𝑦, 𝑧) ↦−→ 𝑥 + 𝑦 + 𝑧

sans déterminer explicitement Ker 𝑓 .

Exercice 3.7
Soient 𝐸 un K−espace vectoriel de dimension finie 𝑛 et 𝑢 un endomorphisme
nilpotent d’indice de nilpotence 𝑟 . Soit 𝑥 0 un élément de 𝐸 tel que 𝑢 𝑟 −1 (𝑥 0 ) ≠ 0.
1 Montrer que la famille 𝑥 0, 𝑢 (𝑥 0 ), ..., 𝑢 𝑟 −1 (𝑥 0 ) est libre de 𝐸 et que


𝑟 ≤ 𝑛 + 1 − dim(Ker(𝑢)), en particulier 𝑟 ≤ 𝑛.
2 On suppose que 𝑟 = 𝑛.

Montrer que 𝑥 0, 𝑢 (𝑥 0 ), ..., 𝑢 𝑛−1 (𝑥 0 ) est une base de 𝐸.
Montrer que l’ensemble des endomorphismes de 𝐸 qui commutent
avec 𝑢 est l’espace vectoriel C(𝑢) = Vect(𝑖𝑑𝐸 , 𝑢, 𝑢 2, ...𝑢 𝑛−1 ) et calculer sa
dimension.

30
Les matrices
chapitre 4

I
Calcul matriciel

Définition 4.1

Soient 𝐴 = (𝑎𝑖,𝑗 ), 𝐵 = (𝑏𝑖,𝑗 ) ∈ 𝑀𝑛,𝑝 (K), et 𝛼 ∈ K.


1 On appelle somme de 𝐴 et 𝐵, la matrice 𝐴 + 𝐵 = (𝑐𝑖,𝑗 ) de 𝑀𝑛,𝑝 (K) définie
par 𝑐𝑖,𝑗 = 𝑎𝑖,𝑗 + 𝑏𝑖,𝑗 pour tous 𝑖 ∈ [[1, 𝑛]] et 𝑗 ∈ [[1, 𝑝]] .
2 On appelle produit de 𝐴 par le scalaire 𝛼, la matrice 𝛼 .𝐴 = (𝑑𝑖,𝑗 ) de
𝑀𝑛,𝑝 (K) définie par 𝑑𝑖,𝑗 = 𝛼 .𝑎𝑖,𝑗 pour tous 𝑖 ∈ [[1, 𝑛]] et 𝑗 ∈ [[1, 𝑝]] .

Notation Pour tout 𝑖 ∈ [[1, 𝑛]] et 𝑗 ∈ [[1, 𝑝]], on note 𝐸𝑖,𝑗 la matrice de 𝑀𝑛,𝑝 (K)
dont les termes sont nuls sauf le (𝑖, 𝑗)-éme terme qui vaut 1 ; c’est à dire 𝐸𝑖,𝑗 =
𝛿𝑖,𝑘 𝛿 𝑗,𝑙 1≤𝑘 ≤𝑛 . Remarquons alors que pour toute matrice 𝐴 = (𝑎𝑖,𝑗 ) ∈ 𝑀𝑛,𝑝 (K) on
1≤𝑙 ≤𝑝
a: ∑︁
𝐴= 𝑎𝑖,𝑗 .𝐸𝑖,𝑗 .
1≤𝑖 ≤𝑛
1≤ 𝑗 ≤𝑝

Proposition et définition 4.1



𝑀𝑛,𝑝 (K), +, . est un K-espace vectoriel de dimension 𝑛𝑝. De plus, la fa-
mille 𝐸𝑖,𝑗 1≤𝑖 ≤𝑛 est une base de 𝑀𝑛,𝑝 (K). On l’appelle la base canonique de
1≤ 𝑗 ≤𝑝
𝑀𝑛,𝑝 (K).

Définition 4.2

Soient 𝐴 = (𝑎𝑖,𝑗 ) ∈ 𝑀𝑛,𝑝 (K) et 𝐵 = (𝑏𝑖,𝑗 ) ∈ 𝑀𝑝,𝑞 (K). On appelle produit de 𝐴

page 31 / 67
et 𝐵 la matrice 𝐴𝐵 = (𝑐𝑖,𝑗 ) ∈ 𝑀𝑛,𝑞 (K) définie par
𝑝
∑︁
𝑐𝑖,𝑗 = 𝑎𝑖,𝑘 .𝑏𝑘,𝑗
𝑘=1
pour tous 𝑖 ∈ [[1, 𝑛]] et 𝑗 ∈ [[1, 𝑞]] .

Théorème 4.2

Pour tout 𝑖, 𝑗, 𝑘, 𝑙 ∈ [[1, 𝑛]] on a

𝐸𝑖,𝑗 .𝐸𝑘,𝑙 = 𝛿 𝑗,𝑘 𝐸𝑖,𝑙



où 𝐸𝑖,𝑗 1≤𝑖,𝑗 ≤𝑛 est la famille des matrices élémentaires de 𝑀𝑛 (K).

Propriétés 4.3

Pour tous 𝐴, 𝐴 0 ∈ 𝑀𝑛,𝑝 (K), 𝐵, 𝐵 0 ∈ 𝑀𝑝,𝑞 (K), 𝐶 ∈ 𝑀𝑞,𝑟 (K) et 𝛼, 𝛼 0 ∈ K on a :


4.3.1 𝐴(𝛼 .𝐵 + 𝛼 0 .𝐵 0) = 𝛼 .𝐴𝐵 + 𝛼 0 .𝐴𝐵 0).
4.3.2 (𝛼 .𝐴 + 𝛼 0 .𝐴 0)𝐵 = 𝛼 .𝐴𝐵 + 𝛼 0 .𝐴 0𝐵).
4.3.3 (𝐴𝐵)𝐶 = 𝐴(𝐵𝐶).

Exercice 4.1

Soit 𝐴 = 𝑎𝑖,𝑗 1≤𝑖,𝑗 ≤𝑛 ∈ M𝑛 (K) et 𝐸𝑖,𝑗 1≤𝑖,𝑗 ≤𝑛 la base canonique 𝑀𝑛 (K).


 
1
Calculer les produits 𝐴𝐸𝑖,𝑗 et 𝐸𝑖,𝑗 𝐴 pour tout 𝑖, 𝑗 ∈ [[1, 𝑛]] .
2 Montrer qu’une matrice 𝐴 ∈ M𝑛 (K) commute avec toutes les matrices
de M𝑛 (K) si et seulement si c’est une matrice scalaire ; c’est à dire de la forme
1 0 ··· 0
© ª
­ . . . . . . .. ®
0 .
𝐴 = 𝛼 .𝐼𝑛 avec 𝛼 ∈ K et 𝐼𝑛 = ­ . .
­ ®
®.
­ .. . . . . . 0®
­ ®
«0 · · · 0 1¬

Corollaire 4.4

(𝑀𝑛 (K), +, ×) est un anneau.

32
Remarques 4.1

Dés que 𝑛 ≥ 2, cet anneau n’est ni commutatif, ni intègre.

Conséquences

Soient 𝐴, 𝐵 ∈ 𝑀𝑛 (K) et 𝑚 ∈ N. Si 𝐴 et 𝐵 commutent alors on a :


1 La formule de Newton
𝑚  
∑︁ 𝑚
(𝐴 + 𝐵)𝑚 = 𝐴𝑘 𝐵𝑚−𝑘
𝑘
𝑘=0
𝑚
Í
2 𝐴𝑚+1 − 𝐵𝑚+1 = (𝐴 − 𝐵) 𝐴𝑘 𝐵𝑚−𝑘
𝑘=0
avec la convention 𝐴0 = 𝐼𝑛 .

Définition 4.3

Soient 𝐴 ∈ 𝑀𝑛 (K). On dit que 𝐴 est inversible s’il existe une matrice 𝐵 ∈
𝑀𝑛 (K) telle que 𝐴𝐵 = 𝐵𝐴 = 𝐼𝑝 . Dans ce cas 𝐵 s’appelle l’inverse de 𝐴 et se
note 𝐴−1 .

Propriétés 4.5

Soit 𝐴, 𝐵 ∈ 𝑀𝑛 (K).
4.5.1 Si 𝐴 est inversible alors son inverse est unique.
4.5.2 Si 𝐴 est inversible alors 𝐴−1 est inversible et (𝐴−1 ) −1 = 𝐴.
4.5.3 Si 𝐴, 𝐵 sont inversibles alors 𝐴𝐵 est inversible et (𝐴𝐵) −1 = 𝐵 −1𝐴−1 .

Proposition 4.6

Pour tout 𝐴 ∈ 𝑀𝑛 (K) les assertions suivantes sont équivalentes :


1 𝐴 est inversible,
2 𝐴 est inversible à droite ; c’est à dire qu’il existe 𝐵 ∈ 𝑀𝑛 (K) telle que
𝐴𝐵 = 𝐼𝑛 ,
3 𝐴 est inversible à gauche ; c’est à dire qu’il existe 𝐶 ∈ 𝑀𝑛 (K) telle que
𝐶𝐴 = 𝐼𝑛 ,
Dans ce cas, 𝐴−1 = 𝐵 = 𝐶.

33
Proposition et définition 4.7

L’ensemble des matrices inversibles dans 𝑀𝑛 (K) est un groupe pour la multi-
plication. On l’appelle le groupe linéaire d’ordre 𝑛 et on le note 𝐺𝐿𝑛 (K).

Définition 4.4

Soit 𝐴 = (𝑎𝑖,𝑗 ) 1≤𝑖 ≤𝑛 ∈ 𝑀𝑛,𝑝 (K). On appelle transposée de 𝐴, la matrice


1≤ 𝑗 ≤𝑝
0 ) 0
= (𝑎𝑖,𝑗 1≤𝑖 ≤𝑝 ∈ 𝑀𝑝,𝑛 (K) définie par 𝑎𝑖,𝑗 = 𝑎 𝑗,𝑖 pour tout 𝑖 ∈ [[1, 𝑝]] et tout
𝑡𝐴
1≤ 𝑗 ≤𝑛
𝑗 ∈ [[1, 𝑛]] .

Propriétés 4.8

Soit 𝐴, 𝐵 ∈ 𝑀𝑛,𝑝 (K), 𝐶, 𝐷 ∈ 𝑀𝑞,𝑛 (K) et 𝛼, 𝛽 ∈ K. Alors on a :


4.8.1 𝑡 (𝛼 .𝐴 + 𝛽.𝐵) = 𝛼 .𝑡 𝐴 + 𝛽.𝑡 𝐵.

4.8.2 𝑡 (𝑡 (𝐴))
= 𝐴. Donc la transposée est un isomorphisme d’espace vectoriel
de 𝑀𝑛,𝑝 (K) vers 𝑀𝑝,𝑛 (K).

Proposition 4.9

Pour tous 𝐴 ∈ 𝑀𝑛,𝑝 (K) et 𝐵 ∈ 𝑀𝑝,𝑞 (K) on a : 𝑡 (𝐴 × 𝐵) =𝑡 𝐵 ×𝑡 𝐴.

Corollaire 4.10

une matrice carrée 𝐴 ∈ 𝑀𝑛 (K) est inversible si et seulement si 𝑡 𝐴 l’est aussi,


dans ce cas : 𝑡 (𝐴−1 ) = (𝑡 𝐴) −1

Définition 4.5

Soit 𝐴 = (𝑎𝑖,𝑗 )1≤𝑖,𝑗 ≤𝑛 ∈ 𝑀𝑛 (K). On appelle trace de 𝐴 le nombre


𝑛
∑︁
Tr(𝐴) = 𝑎𝑖,𝑖 .
𝑖=1

Propriétés 4.11

4.11.1 ∀𝐴, 𝐵 ∈ 𝑀𝑛 (K) ; Tr(𝛼 .𝐴 + 𝛽.𝐵) = 𝛼 Tr(𝐴) + 𝛽 Tr(𝐵). La trace est


donc une forme linéaire de 𝑀𝑛 (K).
4.11.2 ∀𝐴 ∈ 𝑀𝑛,𝑝 (K) ; ∀𝐵 ∈ 𝑀𝑝,𝑛 (K) ; Tr(𝐴 × 𝐵) = Tr(𝐵 × 𝐴).

34
Exercice 4.2
Montrer que si 𝑓 est une forme linéaire de 𝑀𝑛 (K) tel que 𝑓 (𝐴𝐵) = 𝑓 (𝐵𝐴) pour
tout 𝐴, 𝐵 ∈ M𝑛 (K) alors 𝑓 est proportionnelle à la trace (i.e : il existe 𝜆 ∈ K
tel que 𝑓 = 𝜆.tr).

II
Matrices d’une application linéaire

Définition 4.6

Soient 𝐸 et 𝐹 deux K-espaces vectoriels de dimensions finies, B une base de


𝐸, C une base de 𝐹 et 𝑓 ∈ L(𝐸, 𝐹 ). Posons 𝑛 = dim 𝐸 et 𝑝 = dim 𝐹 .
1 La matrice d’un systéme S = (𝑣 1, 𝑣 2, · · · , 𝑣𝑞 ) de vecteurs de 𝐸 relative-
ment à la base B, où 𝑞 ∈ N∗ , est la matrice matB (S) de taille (𝑛, 𝑞) dont le
(𝑖, 𝑗)-ème coefficient est la 𝑖ème coordonnée du vecteur 𝑣 𝑗 dans la base B,
pour tout (𝑖, 𝑗) ∈ [[1, 𝑛]] × [[1, 𝑟 ]].
2 On appelle matrice de 𝑓 relativement aux bases B et C, la matrice
matB, C (𝑓 ) = mat C (𝑓 (B)) ∈ M𝑝,𝑛 (K)
Dans le cas où 𝐸 = 𝐹 et si on prend B = C, la matrice matB, C (𝑓 ) se note
simplement matB (𝑓 ) et s’appelle  matrice de 𝑓 dans la base B. Ainsi, si B=
(𝑒 1, . . . , 𝑒𝑛 ) et C = 𝑒 1, . . . , 𝑒𝑝 , alors la matrice matB, C (𝑓 ) = 𝑎𝑖,𝑗 1≤𝑖 ≤𝑛
0 0

1≤ 𝑗 ≤𝑝
signifie que :
𝑝
∑︁
∀𝑗 ∈ [[1, 𝑛]] ; 𝑓 (𝑒 𝑗 ) = 𝑎𝑖,𝑗 .𝑒𝑖0
𝑖=1

Exemples 4.1

Soit 𝑓 l’endomorphisme de R2 définis par 𝑓 (𝑥,


 𝑦) = (𝑥 +𝑦, 𝑥 −𝑦). La matrice
1 1
de 𝑓 dans la base canonique de R2 est 𝐴 =
1 −1

Exercice 4.3
Soient 𝑓 l’endomorphisme de R2 définis par 𝑓 (𝑥, 𝑦) = (𝑥 +𝑦, 𝑥 −𝑦), B = (𝑒 1, 𝑒 2 )

35
la base canonique de R2 et B0 = (𝑒 1 + 𝑒 2, 𝑒 1 − 𝑒 2 ). Déterminer 𝐴 = 𝑚𝑎𝑡 B,B0 (𝑓 )
et 𝐴 0 = 𝑚𝑎𝑡 B0 (𝑓 ).

Exercice 4.4
Soit 𝑇 l’endomorphisme de K3 [𝑋 ] définis par 𝑇 (𝑃) = 𝑃 (𝑋 + 1). Déterminer la
matrice 𝐴 de 𝑇 dans la base canonique de K3 [𝑋 ].

Propriétés 4.12

Soient 𝐸, 𝐹, 𝐺 trois K-espaces vectoriels de dimensions finies ayant pour bases


B, C et D. Posons 𝑛 = dim 𝐸 et 𝑝 = dim 𝐹
4.12.1 L’application qui, à chaque 𝑓 ∈ L (𝐸, 𝐹 ) fait correspondre sa matrice
𝐴 = matB, C (𝑓 ) est un isomorphisme d’e.v entre L (𝐸, 𝐹 ) et 𝑀𝑝,𝑛 (K).
4.12.2 La matrice 𝐴 = matB, C (𝑓 ) d’une application linéaire 𝑓 : 𝐸 → 𝐹 est
caractérisée par :
∀𝑥 ∈ 𝐸, 𝑌 = 𝐴𝑋,
où 𝑋 = matB (𝑥) et 𝑌 = mat C (𝑓 (𝑥)).
4.12.3 Si 𝑓 ∈ L (𝐸, 𝐹 ) et 𝑔 ∈ L (𝐹, 𝐺) alors :
𝑚𝑎𝑡 B,D (𝑔 ◦ 𝑓 ) = 𝑚𝑎𝑡 C,D (𝑔) × 𝑚𝑎𝑡 B, C (𝑓 )
4.12.4Si 𝑚 = 𝑛 et 𝑓 ∈ L(𝐸, 𝐹 ), alors 𝑓 est un isomorphisme si, et seulement
si, matB, C (𝑓 ) est inversible dans M𝑛 (K). Dans ce cas on a :
 −1
mat C,B (𝑓 −1 ) = matB, C (𝑓 ) .

En particulier, si 𝑓 ∈ L(𝐸) alors :

𝑓 ∈ 𝐺𝐿(𝐸) ⇐⇒ matB (𝑓 ) ∈ 𝐺𝐿𝑛 (K),

et dans ce cas on a matB (𝑓 −1 ) = (matB (𝑓 )) −1 .


4.12.5 Soit 𝐴 ∈ 𝑀𝑛 (K). Alors 𝐴 est inversible si et et seulement si pour tout
𝑌 ∈ 𝑀𝑛,1 (K) l’équation 𝐴𝑋 = 𝑌 admet une solution dans 𝑀𝑛,1 (K). Dans ce
cas, la solution est unique et est donnée par : 𝑋 = 𝐴−1𝑌 . De plus, 𝐴−1 est
l’unique matrice qui vérifier cette relation.

36
Exemples 4.2

Déterminer l’expressionde l’endomorphisme


 de R2 dont la matrice dans la
1 2
base canonique est 𝐴 = .
2 1

Exercice 4.5
√ √ 
2/2 2/2
Montrer que 𝐴 = √
2/2

− 2/2
est la matrice d’une symétrie.

Exercice 4.6
Montrer que la matrice suivante est inversible et déterminer son inverse :
0 1 ··· 1
© . ª
.. .
­
­ 1 . . . .. ®®
­ .. . . . . ®
­
­ . . . 1 ®®
« 1 ··· 1 0 ¬

Exercice 4.7
Montrer à l’aide des applications linéaires que :

∀𝑖, 𝑗, 𝑘, 𝑙 ∈ [[1, 𝑛]] ; 𝐸𝑖,𝑗 .𝐸𝑘,𝑙 = 𝛿 𝑗,𝑘 𝐸𝑖,𝑙 ;



où 𝐸𝑖,𝑗 1≤𝑖,𝑗 ≤𝑛 est la base canonique de 𝑀𝑛 (K).

III
Application linéaire associée
canoniquement à une matrice

Remarque 4.2

Soit 𝐴 une matrice de taille (𝑛, 𝑝) et soit 𝑢𝐴 l’application définie par :


𝑢𝐴 : M𝑝,1 (K) −→ M𝑛,1 (K)
𝑋 ↦→ 𝐴𝑋
Il est facile de vérifier que 𝑢𝐴 est linéaire et que sa matrice dans les bases ca-
noniques coïncide avec 𝐴. On dit alors que 𝑢𝐴 est l’application linéaire de

37
remarque 4.2 (suite)

M𝑝,1 (K) vers M𝑛,1 (K) canoniquement associée à 𝐴. La même remarque


s’applique à l’application
𝑣 𝐴 : K𝑝 −→ K𝑛 
𝑥 ↦→ 𝑡 𝐴.𝑡 𝑥 = 𝑥 .𝑡 𝐴.
L’identification d’une matrice avec l’application linéaire canoniquement
associée permet de définir le noyau et l’image d’une matrice par
 
Ker 𝐴 = 𝑋 ∈ 𝑀𝑝,1 (K) : 𝐴𝑋 = 0 et Im 𝐴 = 𝐴𝑋 : 𝑋 ∈ 𝑀𝑛,1 (K)

Proposition 4.13

Une matrice carrée est inversible si et seulement si son noyau est réduit au
sous-espace nul.

Exercice 4.8
3 1 −4 6
Déterminer le noyau et l’image de la matrice 𝐴 = ­ 1 1 4 4 ® ∈ M3,4 (R).
© ª

« 1 0 0 1 ¬

IV
Matrices de passages

Définition 4.7

Soient 𝐸 un K.e.v de dimension finie et B, B0 deux bases de 𝐸. On appelle


matrice de passage de B à B0 la matrice matB (B0) , qu’on notera 𝑃 B,B0 ou
B0 .
𝑃B
𝑛
Ainsi, si B = (𝑒 1, · · · , 𝑒𝑛 ), B0 = (𝑣 1, · · · , 𝑣𝑛 ) et si 𝑣 𝑗 =
Í
𝑎𝑖,𝑗 .𝑒𝑖 pour tout
𝑖=1
𝑗 ∈ [[1, 𝑛]] alors :
𝑎 · · · 𝑎 1,𝑛
© 1,1
. .. ª
= ­ ..
­ ®
𝑃 B,B0 . ®
­ .. ®
« 𝑎𝑛,1 . 𝑎𝑛,𝑛 ¬

38
Propriétés 4.14

Soient 𝐸 un K-espace vectoriel de dimension finie 𝑛 et B, B0, B00 trois bases


de 𝐸. Alors on a :
4.14.1 𝑃 B,B0 = matB0,B (Id𝐸 ).
4.14.2 𝑃 B,B0 𝑃 B0,B00 = 𝑃 B,B00 .
4.14.3 𝑃 B,B0 est inversible d’inverse 𝑃 B0,B .

Proposition 4.15

Soient 𝐸 un K.e.v de dimension finie, B, B0 deux bases de 𝐸, 𝑥 ∈ 𝐸, 𝑋 =


matB (𝑥), 𝑋 0 = matB0 (𝑥) et 𝑃 la matrice de passage de B à B0 .
Alors 𝑋 0 = 𝑃 −1𝑋 et 𝑋 = 𝑃𝑋 0 .

Proposition 4.16

Soient 𝐸, 𝐹 deux K.e.v de dimensions finies, B, B0 deux bases de 𝐸, C, C 0 deux


bases de 𝐹 , 𝑓 ∈ L(𝐸, 𝑓 ) une application linéaire de 𝐸 vers 𝐹, 𝐴 = matB, C (𝑓 )
et 𝐴 0 = matB0, C0 (𝑓 ). Alors
 −1
𝐴 0 = 𝑃 C0, C𝐴𝑃 B,B0 = 𝑃 C, C0 𝐴𝑃 B,B0
En particulier, si 𝐸 = 𝐹 , B = C et B0 = C 0 alors cette relation s’écrit
𝐴 0 = 𝑃 −1𝐴𝑃, où 𝑃 est la matrice de passage de B à B0 .

Exercice 4.9
Soient 𝑎, 𝑏, 𝑐 trois nombres complexes et 𝑓 l’endomorphisme de C3 dont la
𝑎 𝑏 𝑐
matrice par rapport à la base canonique B = {𝑒 1, 𝑒 2, 𝑒 3 } est 𝐴 = ­𝑏 𝑐 𝑎 ®
© ª

«𝑐 𝑎 𝑏 ¬
Trouver, de deux maniéres différentes, la matrice 𝐴 0 de 𝑓 par rapport à la base
B0 = (𝑒 10 , 𝑒 30 , 𝑒 30 ) avec 𝑒 10 = 𝑒 1 + 𝑒 2 + 𝑒 3, 𝑒 20 = 𝑒 2, et 𝑒 30 = 𝑒 3 .

Exercice 4.10
Soit 𝑃 la matrice de passage de la base canonique B = 𝑋 𝑘

0≤𝑘 ≤𝑛 de R𝑛 [𝑋 ] à
 
la base B0 = (𝑋 − 1)𝑘 . Calculer 𝑃 et 𝑃 −1 .
0≤𝑘 ≤𝑛

39
V
Matrices équivalentes, matrices semblables

Définition 4.8

1 On dit que deux matrices 𝑀, 𝑁 ∈ 𝑀𝑛,𝑝 (K) sont équivalentes, s’ils existent
deux matrices inversibles 𝑃 ∈ GL𝑛 (K) et 𝑄 ∈ GL𝑝 (K) telles que 𝑀 = 𝑃𝑁𝑄.
2 On dit que deux matrices carrées 𝑀, 𝑁 ∈ 𝑀𝑛 (K) sont semblables, s’il
existe une matrice inversible 𝑃 ∈ GL𝑛 (K) telle que 𝑀 = 𝑃 −1 𝑁 𝑃 .

Propriétés 4.17

4.17.1 Les relations de similitude et équivalence entre les matrices est une
relation d’équivalence.
4.17.2 Deux matrices 𝑀, 𝑁 ∈ 𝑀𝑛,𝑝 (K) sont équivalentes si, et seulement
s’ils existent une application linéaire 𝑓 entre deux K-espaces vectoriels 𝐸 et
𝐹, deux bases B, B0 de 𝐸 et eux bases C, C 0 de 𝐹 telles que 𝑀 = matB, C (𝑓 )
et 𝑁 = matB0, C0 (𝑓 ).
4.17.3 Deux matrices carrées 𝑀, 𝑁 ∈ 𝑀𝑛 (K) sont semblables si, et seulement
s’ils existent un endomorphisme 𝑓 d’un K-espace vectoriel 𝐸 et deux bases
B, B0 de 𝐸 telles que 𝑀 = matB (𝑓 ) et 𝑁 = matB0 (𝑓 ).
4.17.4 Deux matrices semblables ont la même trace.

Remarques 4.3

En pratique, il est maladroit d’utiliser la définition pour montrer que deux


matrices sont équivalentes ou semblables. On utilise plutôt les propriétés
4.17.2 et 4.17.3.

Exercice 4.11
Soit 𝐸 un espace vectoriel de dimension finie 𝑛, 𝑓 ∈ L (𝐸) un endomorphisme
nilpotent de 𝐸 tel que 𝑓 𝑛−1 ≠ 0, et 𝐴 la matrice de 𝑓 relativement à une base

40
de 𝐸. Montrer que 𝐴 est semblable à la matrice

0 ... 0 0
© .. ª®
..
­1
­ . .®
­ .. .. ®
𝐵 = ­­0 . . ®.
®
­. .. ®
­ .. . 1 0 0®®
­
«0 ... 0 1 0¬

Exercice 4.12
En considérant l’application Φ : K𝑛 [𝑋 ] −→ K𝑛 [𝑋 ]
𝑃 ↦−→ 𝑃 + 𝑃 0
1 1 0 ... 0 1 1 0 ... 0
© .. ª® ©­ ª
.. . . .. ®
­ 0 1 2 . ® ­ 0 1 1
­ . . . ®
­ . . . . ® ­ . . . . ®
montrer que les matrices ­ .. . . . . . .
­
0 ® et ­ .. . . . . . . 0 ®
® ­ ®
­ . .. ® ­ . .. ®
­ .. . 1 𝑛 ®® ­­ .. . 1 1 ®®
­
« 0 ... ... 0 1 ¬ « 0 ... ... 0 1 ¬
sont semblables.

VI
Trace d’un endomorphisme

Proposition 4.18 et définition

Si 𝑓 est un endomorphisme d’un K-espace vectoriel de dimension finie et 𝑀


est sa matrice relativement à une base B de 𝐸, alors la trace de 𝑀 ne dépend
pas de la base B choisie. On l’appelle alors aussi trace de 𝑓 et on la note
Tr(𝑓 ).

Propriétés 4.19

Soit 𝑓 , 𝑔 ∈ L(𝐸), 𝐸 étant un K-espace vectoriel de dimension finie. Alors :


4.19.1 Tr(𝐼𝑑𝐸 ) = 𝑛

41
propriétés 4.19 (suite)

4.19.2 ∀𝛼, 𝛽 ∈ K, Tr(𝛼 .𝑓 + 𝛽.𝑔) = 𝛼 Tr(𝑓 ) + 𝛽 Tr(𝑔).


La trace est donc une forme linéaire de L(𝐸).
4.19.3 Tr(𝑔 ◦ 𝑓 ) = Tr(𝑓 ◦ 𝑔).

Exercice 4.13
Monter que si 𝑝 est un projecteur vectoriel d’un e.v 𝐸 alors Tr(𝑝) = rg(𝑝).

VII
Rang d’une matrice

Soit 𝐴 = (𝑎𝑖,𝑗 ) 1≤𝑖 ≤𝑛 ∈ 𝑀𝑛,𝑝 (K) une matrice de taille (𝑛, 𝑝). Notons par
1≤ 𝑗 ≤𝑝
𝐶 1, 𝐶 2, ..., 𝐶𝑝 ses vecteurs colonnes, et par 𝐿1, 𝐿2, ..., 𝐿𝑛 ses vecteurs lignes.
Définition 4.9

On appelle rang de 𝐴, le rang du système de vecteurs 𝐶 1, 𝐶 2, ..., 𝐶𝑝 dans
𝑀𝑛,1 .

rg(𝐴) = rg(𝐶 1, 𝐶 2, ..., 𝐶𝑝 ) = dim 𝑉 𝑒𝑐𝑡 (𝐶 1, 𝐶 2, ..., 𝐶𝑝 )

Exemples 4.3

On note
 
𝐼𝑟 0𝑟,𝑝−𝑟
𝐽𝑛,𝑝,𝑟 =
0𝑛−𝑟,𝑝 0𝑛−𝑟,𝑝−𝑟
pour tout 𝑛, 𝑝 ∈ N∗ et 𝑟 ∈ N tels que 𝑟 ≤ min(𝑛, 𝑝). Le rang de 𝐽𝑛,𝑝,𝑟 est
rg(𝐽𝑛,𝑝,𝑟 ) = 𝑟 .

Proposition 4.20

Si 𝐴 est la matrice d’une application linéaire 𝑢 ; alors rg(𝑢) = rg(𝐴)

42
Corollaire 4.21

Une matrice 𝐴 ∈ 𝑀𝑛,𝑝 (K) est de rang 𝑟 ∈ N tels que 𝑟 ≤ min(𝑛, 𝑝) si et


seulement si elle est équivalente à 𝐽𝑛,𝑝,𝑟 . En conséquence, deux matrices de
même taille sont équivalente si et seulement elles ont le même rang. En
particulier,

Propriétés 4.22

4.22.1 rg(𝑡 𝐴) = rg(𝐴)


4.22.2 rg(𝐴) = rg(𝐿1, 𝐿2, ..., 𝐿𝑛 )
4.22.3 rg(𝐴) 6 min(𝑛, 𝑝)
4.22.4 rg(𝐴) = 𝑝 ⇐⇒ (𝐶 1, 𝐶 2, ..., 𝐶𝑝 ) est libre dans M𝑛,1 (K).
4.22.5 rg(𝐴) = 𝑛 ⇐⇒ (𝐿1, 𝐿2, ..., 𝐿𝑛 ) est libre dans M1,𝑝 (K).
4.22.6 Si 𝑛 = 𝑝 alors on a l’équivalence entre :
1 rg(𝐴) = 𝑛
2 (𝐶 1, 𝐶 2, ..., 𝐶𝑛 ) est base de M𝑛,1 (K)
3 (𝐿1, 𝐿2, ..., 𝐿𝑛 ) est base de M1,𝑛 (K)
4 𝐴 est inversible.

Définition 4.10 Matrices échelonnées

On dit que 𝐴 est une matrice échelonnée en lignes si pour tout 𝑖 ∈ [[1, 𝑝 − 1]]
on a :
Si la 𝑖-ème ligne de 𝐴 est nulle, alors la 𝑖 + 1-ème ligne de 𝐴 est nulle.
Si non, si 𝑗 est le plus petit entier tel que 𝑎𝑖,𝑗 ≠ 0, alors 𝑎𝑖+1,1 = .... = 𝑎𝑖+1,𝑗 = 0
On définit de la même façon une matrice échelonnée en colonnes.

Exemples 4.4

0 1 8 3 2
­ 0 0 6 0 1
© ª
® est une matrice échelonnée en lignes.
®
4.4.1 ­
­ 0 0 0 0 3 ®
« 0 0 0 0 0 ¬

43
exemples 4.4 (suite)

0 0 0 0 0
­ 1 0 0 0 0 ®
© ª
4.4.2 ­ ® est une matrice échelonnée en colonnes.
­ 2 1 0 0 0 ®
« 3 1 7 0 0 ¬
4.4.3 La matrice 𝐽𝑛,𝑝,𝑟 est échelonnée en lignes et en colonnes.

Proposition 4.23

Le rang d’une matrice échelonnée en colonnes (resp. en lignes) est égal au


nombre de ses colonnes (resp. lignes) non nulles.

44
La méthode du pivot de gauss
chapitre 5

Considérons une 𝐴 = (𝑎𝑖,𝑗 ) 1≤𝑖 ≤𝑛 ∈ 𝑀𝑛,𝑝 (K) une matrice de taille (𝑛, 𝑝) et
1≤ 𝑗 ≤𝑝
notons par 𝐶 1, 𝐶 2, ..., 𝐶𝑝 (resp : 𝐿1, 𝐿2, ..., 𝐿𝑛 ) ses vecteurs colonnes (resp : lignes).

I
Opérations élémentaires

Définition 5.1

Les opérations élémentaires sur les colonnes de 𝐴 sont les opérations sui-
vantes :
1. Échanger deux colonnes 𝐶𝑖 et 𝐶 𝑗 avec 𝑖 ≠ 𝑗.
Cette opération est codée par 𝐶𝑖 ←→ 𝐶 𝑗 ;
2. Multiplier une colonne 𝐶𝑖 par un scalaire non nul 𝛼.
Le code est 𝐶𝑖 ←− 𝛼𝐶𝑖
3. Remplacer une colonne 𝐶𝑖 par 𝐶𝑖 + 𝛼𝐶 𝑗 avec 𝛼 ∈ K et 𝑖 ≠ 𝑗.
Cette opération est codée par 𝐶𝑖 ←− 𝐶𝑖 + 𝛼𝐶 𝑗

Remarques 5.1

On définit de la même façon les opérations élémentaires sur les lignes de 𝐴,


ainsi que sur les équations d’un système d’équations linéaires.

Proposition 5.1

Les opérations élémentaires conservent le rang des matrices.

page 45 / 67
Remarque 5.2

En pratique, pour calculer le rang d’une matrice 𝐴, on utilise les opérations


élémentaires sur ses ligne et ses colonnes en suivant le schéma suivant :
rg(𝐴) = rg(𝐴1 ) (le code)
= rg(𝐴2 ) (le code)
..
.
= rg(𝐴𝑠 ) (le code)

Remarque 5.3

Une opération élémentaire sur les ligne (resp : les colonnes) d’une matrice
se traduit par la multiplication à gauche (resp : à droite) par une matrice
inversible, dite élémentaire. Cette matrice est exactement celle obtenue à
partir de la matrice unité en lui appliquant la même opération élémentaire.
On distingue alors entre trois types de ces matrices :
• La matrice de permutation ou de transposition

𝑃𝑖,𝑗 = I𝑛 − 𝐸𝑖,𝑖 − 𝐸 𝑗,𝑗 + 𝐸𝑖,𝑗 + 𝐸 𝑗,𝑖


1
© .. ª
­
­ . ®
®
­
­ 1 ®
®
0 ··· 1
­ ®
­ ®
1
­ ®
­ ®
­
= ­­ .
.. .. .. ®
®
. . ®
1
­ ®
­ ®
1 ··· 0
­ ®
­ ®
1
­ ®
­ ®
­ ®
­ .. ®
­ . ®
« 1 ¬

46
remarque 5.3 (suite)

• La matrice de dilatation
1
© .. ª
­ . ®
­ ®
1
­ ®
­ ®
𝐷𝑖,𝛼 = I𝑛 + (𝛼 − 1) 𝐸𝑖,𝑖 =­ ® avec 𝛼 ≠ 0.
­ ®
𝛼
1
­ ®
­ ®
­ ®
­ .. ®
­ . ®
« 1 ¬

• La matrice de transvection
1
© .. ª
­ . ®
­ ®
1
­ ®
­ .. 𝛼 ®
𝑇𝑖,𝑗,𝛼 = I𝑛 + 𝛼𝐸𝑖,𝑗
­
= ­­ .. . ®
® avec 𝑖 ≠ 𝑗 .
. .. ®
1
­ ®
­ ®
­ .. ®
­ . ®
­ ®
« 1 ¬

Proposition 5.2

Si aprés une suite d’opérations élémentaires, à partir d’une matrice carrée 𝐴,


on est arrivé à l’identité, alors 𝐴 est inversible. Si de plus ces opérations sont
appliquées exclusivement sur les lignes, ou exclusivement sur les colonnes,
alors 𝐴−1 s’obtient en effectuant les mêmes opérations sur l’identité.

Remarques 5.4

En pratique, pour inverser une matrice inversible 𝐴, on effectue les opéra-


tions élémentaires seulement sur les lignes (ou les colonnes) de 𝐴 et 𝐼𝑝 en
même temps. On écrit alors :
𝐴|𝐼𝑝 ←− 𝐴1 |𝐵 1 (le code)
←− 𝐴2 |𝐵 2 (le code)
..
.
←− 𝐼𝑝 |𝐴−1 (le code)

47
II
L’algorithme de Pivot de Gauss

L’algorithme de Pivot de Gauss

Étape 1 Si 𝐴 est nulle alors rg(𝐴) = 0, sinon, en permutant deux lignes, deux
colonnes ou les deux, on peut supposer que 𝑎 1,1 ≠ 0. 𝑎 1,1 s’appelle un
pivot.
1
Étape 2 en effectuant l’opération 𝐿1 ←− 𝑎 1,1 .𝐿1 on peut supposer que 𝑎 1,1 =
1.
Étape 3 Pour chaque 𝑖 ∈ [[2, 𝑝]], on effectue l’opération élémentaire 𝐿𝑖 ←−
𝐿𝑖 − 𝑎𝑖,1 𝐿1 .
1 ∗ ∗
­ 0 ∗ ∗ ®
© ª
On obtient une matrice de la forme : ­ .. .. ..
­ ®
®
­ . . . ®
« 0 ∗ ∗ ¬
Étape 4 Si 𝑎𝑖,𝑗 = 0 pour tout 𝑖 ≥ 2 et 𝑗 ≥ 2 alors rg(𝐴) = 1, sinon, on peut
échanger 𝐿2 avec une autre ligne 𝐿𝑖 avec 𝑖 ≥ 2, 𝐶 2 avec une autre ligne
𝐶 𝑗 avec 𝑗 ≥ 2 ou les deux de sorte que 𝑎 2,2 devient non nul. Dans ce
cas on applique l’opération 𝐿2 ←− 𝑎12,2 .𝐿2 ,
puis les opérations 𝐿 𝑗 ←− 𝐿 𝑗 − 𝑎 𝑗,2 𝐿2 pour tout 𝑗 ≠ 2.
1 0 ∗ ∗
­ 0 1 ∗
© ª
®
On obtient une matrice de la forme : ­ 0 ∗
­ ®
®
­ ®
­ ®
« 0 0 ∗ ∗ ¬
Étape 5 On répéte le même processus jusqu’à arriver à une matrice de la
forme 𝐽𝑛,𝑝,𝑟 , 𝑟 ≤ min(𝑛; 𝑝).
Conclusion : rg(𝐴) = 𝑟 .

Remarques 5.5

5.5.1 Si 𝐴 est une matrice inversible, alors cet algorithme peut s’appliquer
sur les lignes seules, comme il peut s’appliquer sur les colonnes seules.
Autrement, il permet de confirmer si une matrice est inversible ou non, et

48
remarques 5.5 (suite)

de déterminer son inverse si elle est inversible.


5.5.2 L’algorithme du pivot de Gauss admet plusieurs variantes selon le but.
Ainsi, si on souhaite seulement calculer le rang de 𝐴, alors il suffit d’arriver
à une matrice échelonnée.
5.5.3 La même démarche, et qui porte toujours le même nom, s’applique
aussi pour résoudre les systèmes linéaires.

Exercice 5.1
3 1 −4 6
Déterminer le rang de la matrice 𝐴 = ­ 1 1 4 4 ® ∈ M3,4 (R).
© ª

« 1 0 0 1 ¬

Exercice 5.2
Déterminer par la méthode de Gauss l’inverse de la matrice
1 1 0
𝐴 = ­ −1 2 1 ®
© ª

« 0 1 −1 ¬

Exercice 5.3
Résoudre, par la méthode de Gauss, le système suivant :



 2𝑥 + 3𝑦 +3𝑧 + 𝑡 = 15

 −4𝑥 − 6𝑦 +3𝑧 + 2𝑡

 =3


 −𝑥 + 𝑦 +𝑧 + 𝑡 =5

 −2𝑥 − 𝑦
 +𝑧 + 𝑡 =1

49
50
Le déterminant
chapitre 6

I
le groupe symétrique

Soit 𝑛 ≥ 2 un entier naturel.


Définition 6.1

On appelle permutation de [[1, 𝑛]], toute bijection 𝜎 de [[1, 𝑛]] vers lui même,
et on la représente par :
 
1 2 ··· 𝑛
.
𝜎 (1) 𝜎 (2) · · · 𝜎 (𝑛)

Proposition et définition 6.1

L’ensemble 𝑆𝑛 des permutations de [[1, 𝑛]], muni de la loi de composition, est


un groupe fini de cardinal 𝑛!. On l’appelle le groupe symétrique d’ordre 𝑛.

Définition 6.2

1 Soit 𝑝 ∈ [[2, 𝑛]]. On appelle cycle de longueur 𝑝 toute permutation 𝜎 tel


qu’il existe 𝑘 1, . . . , 𝑘𝑝 ∈ [[1, 𝑛]] deux à deux distincts tels que :
𝜎 (𝑘 1 ) = 𝑘 2, 𝜎 (𝑘 2 ) = 𝑘 3, . . . , 𝜎 (𝑘𝑝 ) = 𝑘𝑝−1, 𝜎 (𝑘𝑝 ) = 𝑘 1
∀𝑘 ∈ [[1, 𝑛]] \ {𝑘 1, . . . , 𝑘𝑝 } , 𝜎 (𝑘) = 𝑘
On note 𝜎 = (𝑘 1, 𝑘 2 ; · · · , 𝑘𝑝 ).
2 Un cycle de la forme (𝑖, 𝑗) (donc de longueur 2) s’appelle une transposi-
tion et se note 𝜏𝑖,𝑗 .

page 51 / 67
Proposition 6.2

1 Toute permutation se décompose, de maniére unique, en produit de


cycles à supports disjoints (On suppose par convention que l’identité est
produit de zéro cycles).
2 Toute permutation se décompose en produit de transpositions.

Exemples 6.1

 
1 2 3 4 5 6 7
𝜎=
3 4 1 7 2 5 6
 
= 1 3 2 4 7 6 5
    
= 1 3 2 4 4 7 7 6 6 5

Proposition et définition 6.3

Soit 𝜎 une permutation. Si 𝜎 se décompose en produit de transpositions de


deux manières :
𝜎 = 𝜏1 · · · 𝜏𝑚 et 𝜎 = 𝜏10 · · · 𝜏𝑛0 ;
alors 𝑚 et 𝑛 ont même parité. On dit que 𝜎 est paire si ces entiers sont pairs
et que 𝜎 est impaire dans le cas contraire.
On définit alors la signature ; 𝜀 (𝜎), de 𝜎 par :
(
+1 si 𝜎 est paire
𝜀 (𝜎) =
−1 si 𝜎 est impaire

Propriétés 6.4

1. La signature d’un cycle 𝜎 de longueur 𝑝 est égale :

𝜀 (𝜎) = (−1) 𝑝+1

2. Si 𝜎, 𝜎 0 sont deux permutations alors :

𝜀 (𝜎.𝜎 0) = 𝜀 (𝜎).𝜀 (𝜎 0)

52
Exemples 6.2

Pour la permutation
 
1 2 3 4 5 6 7
𝜎=
3 4 1 7 2 5 6
 
on a 𝜎= 1 3 2 4 7 6 5
Donc 𝜀 (𝜎) = −1.(−1) 4 = −1

II
Déterminant d’une famille de 𝑛 vecteurs

Définition 6.3

Soient 𝐸 un K.e.v de dimension 𝑛, B une base de 𝐸, (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 ) un système


de vecteurs de 𝐸 et notons 𝑎 1,𝑗 , 𝑎 2,𝑗 , . . . , 𝑎𝑛,𝑗 les coordonnées de 𝑥 𝑗 dans B
pour tout 𝑗 ∈ [[1, 𝑛]]. On appelle déterminant de la famille (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 )
relativement à la base B le nombre
∑︁
det B (𝑥 1, . . . , 𝑥𝑛 ) = 𝜀 (𝜎)𝑎𝜎 (1),1𝑎𝜎 (2),2 · · · 𝑎𝜎 (𝑛),𝑛
𝜎 ∈𝑆𝑛

Proposition 6.5

Soit B, B0 deux bases de 𝐸 et (𝑥 1, . . . , 𝑥𝑛 ) une famille de 𝑛 vecteurs de 𝐸.


Alors :
1 (𝑥 1, . . . , 𝑥𝑛 ) est une base de 𝐸 si et seulement si det B (𝑥 1, . . . , 𝑥𝑛 ) ≠ 0
2 det B0 (𝑥 1, . . . , 𝑥𝑛 ) = det B0 (B) · detB (𝑥 1, . . . , 𝑥𝑛 )

53
III
Déterminant d’un endomorphisme

Proposition et définition 6.6

Soient 𝑓 un endomorphisme de 𝐸 et B une base de 𝐸. Alors le nombre


det B 𝑓 (B) ne dépend pas de la base B choisie. On l’appelle déterminant
de 𝑓 et on le note det 𝑓 .

Propriétés 6.7

Pour 𝑓 , 𝑔 ∈ L(𝐸) on a :
6.7.1 det id𝐸 = 1
6.7.2 det(𝜆𝑓 ) = 𝜆𝑛 det 𝑓
6.7.3 det(𝑔 ◦ 𝑓 ) = det 𝑔 · det 𝑓
6.7.4 𝑓 est un isomorphisme si et seulement si det 𝑓 ≠ 0. Si tel est le cas
alors
1
det 𝑓 −1 =
det 𝑓

IV
Déterminant d’une matrice carrée

Définition 6.4

Soit 𝐴 ∈ 𝑀𝑛 (K). On appelle déterminant de 𝐴 et on note det 𝐴 le déterminant


des vecteurs colonnes de 𝐴 dans la base canonique de K𝑛 . C’est à dire, si
𝐴 = (𝑎𝑖,𝑗 ) alors
∑︁
det(𝐴) = 𝜀 (𝜎)𝑎𝜎 (1),1𝑎𝜎 (2),2 · · · 𝑎𝜎 (𝑛),𝑛
𝜎 ∈𝑆𝑛

Propriétés 6.8

pour tout 𝐴, 𝐵 ∈ 𝑀𝑛 (K) on a :

54
propriétés 6.8 (suite)

6.8.1 Si 𝐴 est la matrice d’un endomorphisme 𝑓 alors det(𝐴) = det(𝑓 ).


6.8.2 det 𝐼𝑛 = 1
6.8.3 det 𝑡𝐴 = det 𝐴
6.8.4 det(𝜆.𝐴) = 𝜆𝑛 det 𝐴
6.8.5 det(𝐴𝐵) = det 𝐴 · det 𝐵
6.8.6 𝐴 est inversible si et seulement si det 𝐴 ≠ 0. Si tel est le cas alors
1
det(𝐴−1 ) = .
det 𝐴

Remarque 6.1

La propriété 6.8.1 signifie que le calcul du déterminant d’un endomorphisme


se ramène à celui d’une matrice. Au fait, ceci s’applique aussi pour un
système de vecteurs. En effet, si (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 ) est un système de vecteurs
d’un K.espace vectoriel 𝐸 de dimension 𝑛 et 𝐴 est la matrice de ce système
dans une base B de 𝐸, alors

det B (𝑥 1, . . . , 𝑥𝑛 ) = det 𝐴

V
Calcul de déterminant

Propriétés 6.9

Soit 𝐴 ∈ 𝑀𝑛 (K).
 
𝑎 1,1 𝑎 1,2
6.9.1 Si 𝐴 = ∈ 𝑀2 (K) alors det 𝐴 = 𝑎 1,1𝑎 2,2 − 𝑎 2,1𝑎 1,2 .
𝑎 2,1 𝑎 2,2

55
propriétés 6.9 (suite)

𝑎 𝑏 𝑐
© 0
6.9.2 Méthode de Sarrus : Si 𝐴 = ­ 𝑎 𝑏 0 𝑐 0 ® ∈ 𝑀3 (K) alors
ª
00 00 00
«𝑎 𝑏 𝑐 ¬
𝑎 𝑏 𝑐
𝑎 0 𝑏 0 𝑐 0 = 𝑎𝑏 0𝑐 00 + 𝑏𝑐 0𝑎 00 + 𝑐𝑎 0𝑏 00 − 𝑐𝑏 0𝑎 00 − 𝑎𝑐 0𝑏 00 − 𝑏𝑎 0𝑐 00 ;
𝑎 00 𝑏 00 𝑐 00
qu’on peut retenir en écrivant

𝑎 𝑏 𝑐 𝑎 𝑏

𝑎0 𝑏0 𝑐0 𝑎0 𝑏0

𝑎 00 𝑏 00 𝑐 00 𝑎 00 𝑏 00
6.9.3 Le determinant est une application multilinéaire sur les lignes, et sur
les colonnes ; c’est à dire qu’il est linéaire par rapport à chaque ligne, et
chaque colonne (les autres étant fixées). En particulier, lorsqu’on multiplie
une colonne ou une ligne de 𝐴 par un salaire 𝜆, le déterminant de la matrice
obtenue est égal à 𝜆. det 𝐴
6.9.4 Lorsqu’on effectue une permutation 𝜎 sur les lignes, ou sur les colonnes
de 𝐴, le déterminant de la matrice obtenue est égal à 𝜀 (𝜎). det 𝐴. En particulier,
lorsqu’on permute deux ligne, ou deux colonnes de 𝐴, le déterminant est
multiplié par −1.
6.9.5 On ne change pas le déterminant de 𝐴 lorsqu’on ajoute , à une ligne ou
à une colonne, une combinaison linéaire des autres.
6.9.6 Si 𝐴 = (𝑎𝑖,𝑗 ) est triangulaire alors
Ö𝑛
det 𝐴 = 𝑎𝑖,𝑖
𝑘=1

Proposition 6.10

Si 𝐴 = (𝑎𝑖,𝑗 ) ∈ 𝑀𝑛 (K) alors :

56
1 Développement suivant une ligne
𝑛
∑︁
∀𝑖 ∈ [[1, 𝑛]] , det 𝐴 = (−1)𝑖+𝑗 𝑎𝑖,𝑗 det 𝐴𝑖,𝑗
𝑗=1

2 Développement suivant une colonne


𝑛
∑︁
∀𝑗 ∈ [[1, 𝑛]] , det 𝐴 = (−1)𝑖+𝑗 𝑎𝑖,𝑗 det 𝐴𝑖,𝑗
𝑖=1
où 𝐴𝑖,𝑗 est la matrice obtenue en supprimant la 𝑖-iéme ligne et la 𝑗-iéme
colonne de la matrice 𝐴

Définition 6.5

Soit 𝐴 ∈ 𝑀𝑛 (K). On appelle comatrice de 𝐴 et on note Com 𝐴 la matrice des


cofacteurs de 𝐴 : 
Com 𝐴 = (−1)𝑖+𝑗 det 𝐴𝑖,𝑗

Proposition 6.11

Soit 𝐴 ∈ 𝑀𝑛 (K). Alors :

𝐴𝑡(Com 𝐴) = 𝑡(Com 𝐴)𝐴 = (det 𝐴)𝐼𝑛

En particulier, si 𝐴 ∈ GL𝑛 (K) :


1 𝑡
𝐴−1 = (Com 𝐴)
det 𝐴

Exemples 6.3 ( : Matrice de Vandermonde)

Étant donné 𝑎 1, . . . , 𝑎𝑛 ∈ C, la matrice


1 𝑎1 𝑎 21
· · · 𝑎𝑛−1
1
­1 𝑎 2 𝑎 22
· · · 𝑎𝑛−1
© ª
2 ®
𝑉 (𝑎 1, . . . , 𝑎𝑛 ) = ­­ .. .. .. ®®
­. . . ®
2 𝑛−1
«1 𝑎 𝑛 𝑎 𝑛 · · · 𝑎 𝑛 ¬
est dite une matrice de Vandermonde. Son déterminant est :
Ö 
det 𝑉 (𝑎 1, . . . , 𝑎𝑛 ) = 𝑎 𝑗 − 𝑎𝑖
1≤𝑖< 𝑗 ≤𝑛

57
Exercice 6.1
Calculer, sous forme factorisé, les déterminants suivant :
−𝑥 1 1
1 1 −𝑥 1 ; où 𝑥 ∈ R.
1 1 −𝑥
𝑎1 𝑎1 𝑎 1 ... 𝑎 1
𝑎1 𝑎2 𝑎 2 ... 𝑎 2
2 𝑎1 𝑎2 𝑎 3 ... 𝑎 3 ; où 𝑎𝑖 = 1 + 2 + · · · + 𝑖.
.. .. .. ..
. . . .
𝑎1 𝑎2 𝑎 3 ... 𝑎𝑛

58
Matrices définies par blocs
chapitre 7

I
Notion de matrice par blocs

Une matrice 𝐴 ∈ 𝑀𝑛,𝑝 (K) peut être définie par blocs sous la forme :

𝑝1 𝑝2 𝑝𝑐
←→ ←→ · · · ←→
𝐴 𝐴1,2 · · · 𝐴1,𝑐 l 𝑛1
© 1,1
­ 𝐴2,1 𝐴2,2 · · · l 𝑛2
ª
 𝐴2,𝑐 ®
𝐴 = 𝐴𝑖,𝑗 1≤𝑖 ≤𝑙 = ­­ .. .. .. ®® ..
1≤ 𝑗 ≤𝑐 ­ . . . ® .
𝐴
« 𝑙,1 𝐴 𝑙,2 · · · 𝐴𝑙,𝑐 ¬ l 𝑛𝑙

où 𝑐, 𝑙 ∈ N∗ et 𝐴𝑖,𝑗 est une matrice de taille (𝑛𝑖 , 𝑝 𝑗 ) pour tout (𝑖, 𝑗) ∈ [[1, 𝑙]] × [[1, 𝑐]]
avec 𝑝 1 + · · · + 𝑝𝑐 = 𝑝 et 𝑛 1 + · · · + 𝑛𝑙 = 𝑛.

Une telle matrice est dite triangulaire supérieure par blocs si elle est de la
forme :
𝑛1 𝑛2 𝑛𝑐
←→ ←→ · · · ←→
𝐴 ··· ··· 𝐴1,𝑐 l 𝑛1
© 1,1 ª
.. l 𝑛2
­ 0
­ . ®
𝐴2,𝑐 ®
­ . . .. ®® ..
­ ..
­ .. ... . ® .
l 𝑛𝑐
« 0 ··· 0 𝐴𝑙,𝑙 ¬
page 59 / 67
et elle est dite diagonale par blocs si elle est de la forme :
𝑛1 𝑛2 𝑛𝑐
←→ ←→ · · · ←→
𝐴 0 ··· 0 l 𝑛1
© 1,1 .. ª®
. .. ... l 𝑛2
­ 0
­
. ®
­ . . . ® ..
­ .. . . . . 0 ®® .
­
l 𝑛𝑐
« 0 · · · 0 𝐴𝑙,𝑙 ¬
On définit aussi de manière analogue une matrice triangulaire inférieure par blocs.
Noter bien alors que les matrices diagonales et triangulaires par blocs sont forcé-
ment des matrices carrées.
Exemples 7.1

Si 𝐸 un espace vectoriel de dimension finie 𝑛 et 𝐹, 𝐺 sont deux sous espaces


vectoriels supplémentaires de 𝐸 de dimensions respectives 𝑝 et 𝑞 alors :
1. 𝑢 est la projection sur 𝐹 parallèlement à 𝐺 si, et seulement si, la
matrice de 𝑢 dans une base adaptée à la décomposition 𝐸 = 𝐹 ⊕ 𝐺 est
𝐼𝑝 0𝑝,𝑞
égale à .
0𝑞,𝑝 0𝑞
2. 𝑢 est la symétrie de 𝐸 par rapport à 𝐹 parallèlement à 𝐺 si, et seulement
 base adaptée à la décomposition 𝐸 = 𝐹 ⊕𝐺
si, la matrice de 𝑢 dans une
𝐼𝑝 0𝑝,𝑞
est égale à .
0𝑞,𝑝 −𝐼𝑞

II
Interprétation géométrique

Soient 𝐸, 𝐹 deux K-espaces vectoriels de dimensions finies, 𝑓 une application


linéaire de 𝐸 vers 𝐹 et 𝐴 = matB, C (𝑓 ) sa matrice relativement à une base B de 𝐸
et une base C de 𝐹 .
𝑐 𝑙
On suppose que 𝐸 et 𝐹 s’écrivent comme sommes directes 𝐸 = ⊕ 𝐸𝑖 , 𝐹 = ⊕ 𝐹𝑖
𝑖=1 𝑖=1
et que B et C sont des bases adaptées à ces décompositions ; donc de la forme
𝑐 𝑙
B= B𝑖 et C = C𝑖 où B𝑖 est une base de 𝐸𝑖 pour tout 𝑖 ∈ [[1, 𝑐]] et C𝑖 est
Ð Ð
𝑖=1 𝑖=1
une base de 𝐹𝑖 pour tout 𝑖 ∈ [[1, 𝑙]] .

60
Considérons (𝜋1, · · · , 𝜋𝑙 ) la famille des projections de 𝐹 adaptée à la décomposition
𝑙
𝐹 = ⊕ 𝐹𝑖 ; c’est à dire que 𝜋𝑖 est la projection de 𝐹 sur 𝐹𝑖 parallèlement à ⊕ 𝐹𝑖 ,
𝑖=1 1≤ 𝑗 ≤𝑙
𝑗≠𝑖
et 𝑓𝑖,𝑗 l’application définie par

𝑓𝑖,𝑗 : 𝐸 𝑗 −→ 𝐹𝑖
𝑥 ↦ → 𝑓𝑖,𝑗 (𝑥) = 𝜋𝑖 ◦ 𝑓 (𝑥)

Si on pose 𝐴𝑖,𝑗 = matB𝑗 , C𝑖 (𝑓𝑖,𝑗 ) alors


𝑝1 𝑝2 𝑝𝑐
←→ ←→ · · · ←→
𝐴 𝐴1,2 · · · 𝐴1,𝑐 l 𝑛1
© 1,1
­ 𝐴2,1 𝐴2,2 · · · l 𝑛2
ª
𝐴2,𝑐 ®
𝐴 = ­­ .. .. .. ®® ..
­ . . . ® .
𝐴
« 𝑙,1 𝐴 𝑙,2 · · · 𝐴𝑙,𝑐 ¬ l 𝑛𝑙

III
Opérations sur les matrices par blocs

Il est facile de remarquer que la somme de deux matrices définies par blocs se
s’effectue de manière naturelle ; ainsi si 𝐴 = 𝐴𝑖,𝑗 1≤𝑖 ≤𝑙 et 𝐵 = 𝐵𝑖,𝑗 1≤𝑖 ≤𝑙 , et si
1≤ 𝑗 ≤𝑐  1≤ 𝑗 ≤𝑐
les matrices 𝐴𝑖,𝑗 et 𝐵𝑖,𝑗 sont de même taille, alors 𝐴 + 𝐵 = 𝐴𝑖,𝑗 + 𝐵𝑖,𝑗 1≤𝑖 ≤𝑙 .
1≤ 𝑗 ≤𝑐
Pour le produit, on admet que si on suppose que
𝑝1 𝑝2 𝑝𝑐 𝑚1 𝑚2 𝑚𝑑
←→ ←→ · · · ←→ ←→ ←→ · · · ←→
𝐴 𝐴1,2 · · · 𝐴1,𝑐 l 𝑛1 𝐵 𝐵 1,2 · · · 𝐵 1,𝑑 l 𝑝1
© 1,1 © 1,1
­ 𝐴2,1 𝐴2,2 · · · l 𝑛2 ­ 𝐵 2,1 𝐵 2,2 · · · l 𝑝2
ª ª
𝐴2,𝑐 ® 𝐵 2,𝑑 ®
𝐴 = ­­ .. .. .. ®® .. et 𝐵 = ­­ .. .. .. ®® ..
­ . . . ® . ­ . . . ® .
« 𝐴 𝑙,1 𝐴 𝑙,2 · · · 𝐴𝑙,𝑐 ¬ l 𝑛𝑙 « 𝐵 𝑐,1 𝐵 𝑐,2 ··· 𝐵𝑐,𝑑 ¬ l 𝑝𝑐

alors
𝑚1 𝑚2 𝑚𝑑
←→ ←→ · · · ←→
𝐶 𝐶 1,2 · · · 𝐶 1,𝑑 l 𝑛1
© 1,1
­ 𝐶 2,1 𝐶 2,2 · · · l 𝑛2
ª
𝐶 2,𝑑 ®
𝐴𝐵 = ­­ .. .. .. ®® ..
­ . . . ® .
𝐶
« 𝑙,1 𝐶 𝑙,2 · · · 𝐶𝑙,𝑑 ¬ l 𝑛𝑙
61
𝑐
Í
avec 𝐶𝑖,𝑗 = 𝐴𝑖,𝑘 𝐵𝑘,𝑗 pour tout 𝑖 ∈ [[1, 𝑙]] et 𝑗 ∈ [[1, 𝑑]] .
𝑘=1
Exercice 7.1
 
𝐴 𝐵
Soit 𝑀 = une matrice triangulaire par blocs ; avec 𝐴 ∈ 𝑀𝑝 (K), 𝐵 ∈
0 𝐶
𝑀𝑞,𝑝 (K) et 𝐶 ∈ 𝑀𝑞 (K).
   
𝐼𝑝 0 𝐼𝑝 𝐵 𝐴 0
1. Calculer le produit . (Remarquer que ce pro-
0 𝐶 0 𝐼𝑞 0 𝐼𝑞
duit est bien possible).
2. En déduire que  
𝐴 𝐵
det = det 𝐴 det 𝐶.
0 𝐶
3. Donner une condition nécessaire et suffisante pour que 𝑀 soit inver-
sible.
solution 7.1, page 68

Proposition 7.1 Déterminant d’une matrice triangulaire par blocs

Le déterminant d’une matrice triangulaire par blocs


𝑛1 𝑛2 𝑛𝑐
←→ ←→ · · · ←→
𝐴 𝐴1,2 · · · 𝐴1,𝑐 l 𝑛1
© 1,1
­ 0 𝐴2,2 · · · l 𝑛2
ª
𝐴2,𝑐 ®
𝑀 = ­­ .. .. .. ®® ..
­ . . . ® .
« 0 · · · 0 𝐴𝑙,𝑙 ¬ l 𝑛𝑐
𝑐
Ö
est égal : det 𝑀 = det 𝐴𝑖,𝑖 .
𝑖=1
démonstration 7.1, page 67

62
Sous espaces stables par un
endomorphisme
chapitre 8

I
Définition et propriétés

Définition 8.1

On dit qu’un sous espace vectoriel 𝐹 de 𝐸 est stable par 𝑢 lorsque 𝑢 (𝐹 ) ⊂ 𝐹 .


On dit aussi que 𝑢 stabilise 𝐹 , ou encore que 𝐹 est 𝑢-stable.

Exemples 8.1

1. Les sous espaces {0𝐸 } 𝑒𝑡 𝐸 sont stables par tout endomorphisme de


𝐸.
2. Les homothéties stabilisent tous les s.e.v de 𝐸.
3. Si 𝑢 est un projecteur (resp : une symétrie) de 𝐸 sur (resp : par rapport
à ) un s.e.v 𝐹 de 𝐸 et parallèlement à un s.e.v 𝐺 de 𝐸 alors 𝑢 stabilise
𝐹 et 𝐺.

Exercice 8.1
Montrer que si 𝑢 est un endomorphisme nilpotent de 𝐸, d’indice de nilpotence
𝑛, alors, pour tout 𝑥 ∈ 𝐸, l’ensemble Vect{𝑥, 𝑢 (𝑥), 𝑢 2 (𝑥), · · · , 𝑢 𝑛−1 (𝑥)} est 𝑢-
stable.

Propriétés 8.1

1. Une droite engendrée par un vecteur 𝑒 est stable par 𝑢 si seulement


s’il existe 𝜆 ∈ K tel que 𝑢 (𝑒) = 𝜆.𝑒.
2. L’intersection d’une famille quelconque de sous espaces vectoriels

page 63 / 67
propriétés 8.1 (suite)

stables par 𝑢 est stable par 𝑢.


3. La somme d’une famille finie de sous espaces vectoriels stables par 𝑢
est aussi stable par 𝑢.
4. Si un sous espace vectoriel 𝐹 de 𝐸 est stable par deux endomorphismes
𝑢 et 𝑣, alors il est aussi stable par 𝑢 ◦ 𝑣 et 𝛼 .𝑢 + 𝛽.𝑣 pour tout 𝛼, 𝛽 ∈ K.

Exercice 8.2
Montrer que 𝑢 est une homothétie de 𝐸 si, et seulement si, 𝑢 stabilise toutes
les droites vectoriels de 𝐸.

Proposition 8.2

Soient 𝑢 et 𝑣, endomorphismes de 𝐸. Si 𝑢 ◦ 𝑣 = 𝑣 ◦ 𝑢 alors Ker 𝑣 et Im 𝑣 sont


stables par 𝑢. En particulier, Ker 𝑢 et Im 𝑢 sont stables par 𝑢.
démonstration 8.2, page 67

II
Endomorphisme induit

Proposition et définition 8.3

Soit 𝐹 un s.e.v de 𝐸. Si 𝐹 est stable par 𝑢, alors l’application :

𝑢𝐹 : 𝐹 −→ 𝐹
𝑥 ↦ → 𝑢 𝐹 (𝑥) = 𝑢 (𝑥)

est bien définie, et c’est un endomorphisme de 𝐹 . On l’appelle l’endomor-


phisme induit par 𝑢 sur 𝐹 .
démonstration 8.3, page 67

Remarque 8.1

On ne peut parler d’endomorphisme induit par 𝑢 sur le sous espace 𝐹 , que


dans la mesure ou 𝐹 est stable par 𝑢. On distinguera dans ce cas soigneuse-
ment entre l’endomorphisme induit 𝑢 𝐹 , qui ’est un endomorphisme de 𝐹 , et
la restriction 𝑢 | 𝐹 qui a toujours un sens et qui est une application linéaire

64
remarque 8.1 (suite)

de 𝐹 dans 𝐸.

Exemples 8.2

Soient 𝐹 et 𝐺 deux s.e.v supplémentaires de 𝐸, 𝑝 la projection de 𝐸 sur 𝐹


et parallèlement 𝐺 et 𝑠 la symétrie de 𝐸 par rapport à 𝐹 et parallèlement 𝐺.
Alors 𝑝 𝐹 = 𝑠 𝐹 = id𝐹 , 𝑠𝐺 = −id𝐹 et 𝑝𝐺 est l’endomorphisme nul.

Propriétés 8.4

Soit 𝐹 un sous espace vectoriel de 𝐸 stable par 𝑢. Alors


1. Ker(𝑢 𝐹 ) = 𝐹 ∩ Ker(𝑢) et Im(𝑢 𝐹 ) = 𝑢 (𝐹 ).
2. Si 𝐹 est stable aussi par un autre endomorphisme 𝑣 alors alors (𝑢 ◦𝑣)𝐹 =
𝑢 𝐹 ◦ 𝑣 𝐹 et (𝛼 .𝑢 + 𝛽.𝑣)𝐹 = 𝛼 .𝑢 𝐹 + 𝛽.𝑣 𝐹 , pour tout 𝛼, 𝛽 ∈ K.
3. Si 𝑢 est un automorphisme de 𝐸 et 𝐹 est de dimension finie alors 𝑢 −1
stabilise aussi 𝐹 et on a (𝑢 −1 )𝐹 = (𝑢 𝐹 ) −1
démonstration 8.4, page 67

III
Caractérisation matricielle de
la stabilité d’un sous espace
Dans ce paragraphe, 𝐸 est supposé non nul et de dimension finie 𝑛.
Proposition 8.5

Soient 𝐹 est un s.e.v de 𝐸 de dimension 𝑝 et B est une base de 𝐸 adaptée


à 𝐹 ; c’est à dire de la forme B = (𝑒 1, · · · , 𝑒𝑛 ) de sorte que la famille B𝐹 =
𝑒 1, · · · , 𝑒𝑝 soit une base de 𝐹 . Alors 𝐹 est stable par 𝑢 si, et seulement si, la
matrice de l’endomorphisme 𝑢 dans la base B est de la forme
 
𝐴 𝐵
matB𝑢 =
0 𝐶

avec 𝐴 ∈ 𝑀𝑝 (K), 𝐵 ∈ 𝑀𝑝,𝑛−𝑝 (K) et 𝐶 ∈ 𝑀𝑛−𝑝 (K). Dans ce cas,

𝐴 = matB𝐹 𝑢 𝐹 .
démonstration 8.5, page 67

65
En raisonnant de la même manière on a aussi le résultat suivant :

Proposition 8.6
𝑠
Soient 𝐸 1, · · · , 𝐸𝑠 des sous s.e.v supplémentaires de 𝐸 et B = B𝑖 une base
Ð
𝑖=1
𝑠
de 𝐸 adaptée à la décomposition 𝐸 = ⊕ 𝐸𝑖 ; B𝑖 étant une base de 𝐸𝑖 pour tout
𝑖=1
𝑖 ∈ [[1, 𝑠]]. Alors les 𝐸𝑖 sont stables par 𝑢 si, et seulement si, la matrice de 𝑢
dans B est de la forme
dim 𝐸 1 dim 𝐸𝑠
←→ · · · ←→
𝐴 0 ... 0 l dim 𝐸 1
© 1 . ª
.. ..
­ 0
­ . . .. ®®
matB (𝑢) = ­ . . ® ..
­ ..
­ . . . . . 0 ®® .
l dim 𝐸𝑠
« 0 . . . 0 𝐴𝑠 ¬
Dans ce cas, pour tout 𝑖 ∈ [[1, 𝑠]] on a :

𝐴𝑖 = matB𝑖 𝑢𝐸𝑖 .

66
67
IV
Démonstrations des théorèmes

Démonstration de la proposition 7.1

C’est une simple récurrence récurrence sur 𝑙 ; pour 𝑙 = 2 c’est l’objet de l’exercice
précédent.

Démonstration de la proposition 8.2

Soit 𝑥 ∈ 𝐸.
— Si 𝑥 ∈ Ker 𝑣 alors 𝑣 (𝑢 (𝑥)) = 𝑣 ◦ 𝑢 (𝑥) = 𝑢 ◦ 𝑣 (𝑥) = 𝑢 (𝑣 (𝑥)) = 𝑢 (0) = 0, c’est à
dire que donc 𝑢 (𝑥) ∈ Ker 𝑣.
Ainsi Ker 𝑣 est stable par 𝑢.
— Si 𝑥 ∈ Im 𝑣 alors il existe 𝑦 ∈ 𝐸 tel que 𝑥 = 𝑣 (𝑦). Il s’en suit que :

𝑢 (𝑥) = 𝑢 ◦ 𝑣 (𝑦) = 𝑣 ◦ 𝑢 (𝑦) ∈ Im𝑣.

Donc Im𝑣 est stable par 𝑢.

Démonstration de la proposition 8.3

Évidente.

Démonstration des propriétés 8.4

On démontre seulement la propriété (3) ; les autres sont faciles. Supposons que 𝑢 est
un automorphisme de 𝐸 qui stabilise 𝐹 et que 𝐹 est de dimension finie. Comme𝑢 est
injectif, alors dim 𝑢 (𝐹 ) = dim 𝐹 et par la suite 𝑢 (𝐹 ) = 𝐹 .On en déduite que 𝑢 𝐹 est un
automorphisme de 𝐹 et (𝑢 −1 )𝐹 = (𝑢 𝐹 ) −1 .

Démonstration de la proposition 8.5

𝐹 est stable par 𝑢 si,et seulement si , pour tout 𝑗 ∈ [[1, 𝑝]] , le vecteur 𝑢 (𝑒 𝑗 ) appartient
𝑝
∑︁
à 𝐹 c’est à dire sous la forme : 𝑢 (𝑒 𝑗 ) = 𝜇𝑖,𝑗 𝑒𝑖 .
𝑖=1

68
V
Solutions des exercices

Solution de l’exercice 7.1

1. On vérifie aisément la relation :


     
𝐴 𝐵 𝐼𝑝 0 𝐼𝑝 𝐵 𝐴 0
=
0 𝐶 0 𝐶 0 𝐼𝑞 0 𝐼𝑞
 
𝐼𝑝 𝐵
2. La matrice est triangulaire supérieure de diagonale 1, donc
0 𝐼𝑞
   
𝐼𝑝 𝐵 𝐴 0
det = 1. Et en développant le déterminant de suivant la
0 𝐼𝑞 0 𝐼𝑞
 
𝐼𝑝 0
dernière ligne 𝑞-fois successives ; et le déterminant de suivant
0 𝐶
 
𝐴 0
la première ligne 𝑝-fois successives on obtient : det = det 𝐴 et
0 𝐼𝑞
 
𝐼 0
det 𝑝 = det 𝐶. Donc,
0 𝐶
       
𝐴 𝐵 𝐼𝑝 0 𝐼𝑝 𝐵 𝐴 0
det = det . det . det = det 𝐴. det 𝐶
0 𝐶 0 𝐶 0 𝐼𝑞 0 𝐼𝑞
 
𝐴 𝐵
3. La matrice est inversible si, et seulement si, 𝐴 et 𝐶 le sont.
0 𝐶

69

Vous aimerez peut-être aussi