Vous êtes sur la page 1sur 32

MATHÉMATIQUES 2021 – 2022 1

1 Compléments d’algèbre linéaire


« The mathematician’s patterns, like the painter’s or the poet’s must be beautiful ; the
ideas, like the colours or the words must fit together in a harmonious way. Beauty is the
first test : there is no permanent place in this world for ugly mathematics. »
G.H. Hardy (1941)

Plan de cours

I Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
II Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
III Formes linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

© Quelques perspectives historiques


La théorie de l’algèbre linéaire naît de la résolution des systèmes d’équations linéaires. Les mathématiciens se
sont intéressés pendant de nombreux siècles à la seule résolution des systèmes à coefficients numériques. La
méthode du pivot (ou algorithme de Gauss-Jordan) est alors efficacement employée. On en trouve même la
trace en Chine, probablement un siècle ou deux avant notre ère, sous le nom d’algorithme Fang-Cheng, qui
signifie littéralement le modèle rectangulaire. Les premiers résultats concernant le calcul explicite des solutions
d’un système n × n pour n ∈ {2, 3} en fonction de ses coefficients sont énoncés par Maclaurin en 1748, puis
généralisés pour un entier n quelconque quelques années plus tard par Cramer ; il présente alors les formules
qui portent aujourd’hui son nom.
L’utilisation des déterminants et des matrices s’étend par la suite à l’ensemble de la
communauté mathématique. Sylvester introduit pour la première fois le terme de
matrice, matrices que Cayley étudie de son côté comme des entités propres dans son
traité de 1858 A Memoir on the Theory of Matrices. Les mathématiciens manipulaient
cependant depuis un certain temps les tableaux de nombres (citons par exemple les
travaux de Gauß à ce sujet).
L’algèbre linéaire, en tant que telle, ne prend son essort qu’aux alentours de 1840,
moment à partir duquel les mathématiciens commencent à s’intéresser à l’étude
de propriétés communes (à travers la linéarité) applicables à toute sorte d’objets.
Grassman cherche de son côté à poser les bases d’un calcul véritablement géomé-
trique débarrassé des choix de coordonnées : les espaces vectoriels voient enfin le
jour. Les travaux en dimension supérieure à trois font cependant apparaître quelques
résistances de la part de ceux qui considèrent que tout objet mathématique doit avoir Arthur Cayley
une interprétation dans le monde sensible. Une fois dégagés de cette contrainte, les mathématiciens ont pu
développer puis généraliser des résultats en dimension quelconque. Il n’en reste pas moins que le langage
géométrique a irrigué l’algèbre linéaire, les termes vecteurs et hyperplans en sont de bons exemples. C’est
finalement Peano qui propose en 1888 une définition axiomatisée des espaces vectoriels, peu différente de
celle qui est aujourd’hui adoptée.

I | Espaces vectoriels

A – Espaces vectoriels
Nous ne reviendrons pas ici sur la définition d’un K-espace vectoriel, K désignant R ou C. Les différents points
de cette définition permettent d’effectuer des opérations sur les vecteurs analogues à celles qu’on effectue
plus habituellement dans R2 ou R3 (somme de vecteurs, multiplication d’un vecteur par un scalaire).
2 Chap. 1 Compléments d’algèbre linéaire

Exemples
Quelques exemples classiques d’espaces vectoriels (munis des lois usuelles) :
• R, C et plus généralement Kn ;
• K[X ], l’ensemble des polynômes à coefficients dans K ;
• Mn,p (K), l’ensemble des matrices à coefficients dans K à n lignes et p colonnes ;
• F (R, R), l’ensemble des fonctions définies sur R et à valeurs dans R ;
• KN , l’ensemble des suites à valeurs réelles ou complexes.
Il s’agit de résultats classiques du cours qui peuvent être réutilisés sans démonstration le jour du concours.

B – Sous-espaces vectoriels
E désigne dans toute la suite du chapitre un K-espace vectoriel.

Définition 1.1 : Sous-espace vectoriel


Soit F un sous-ensemble (ou partie) de E . On dit que F est un sous-espace vectoriel de E si :
• F 6= ∅ ;
• ∀x , y ∈ F, x +y ∈F ;
• ∀x ∈ F, ∀λ ∈ K λx ∈ F .

On vérifie qu’un sous-espace vectoriel est lui-même un espace vectoriel. Ce résultat est très pratique : pour
montrer qu’un ensemble possède une structure d’espace vectoriel, il suffit de prouver qu’il s’agit d’un sous-
espace vectoriel d’un espace vectoriel déjà connu. On se ramènera notamment aux exemples fondamentaux
présentés précédemment. On peut même avoir plus simplement recours à la caractérisation suivante :

Théorème 1.2 : Caractérisation d’un sous-espace vectoriel


F est un sous-espace vectoriel de E si et seulement si :
• 0E ∈ F ;
• ∀x , y ∈ F ∀λ ∈ K λx + y ∈ F . (stabilité par combinaison linéaire)

S’en suit toute une série d’exemples qu’il convient de maîtriser parfaitement.

Exemple 1
{0E } est un sous-espace vectoriel de E .

Exemple 2
C ∞ (R), l’ensemble des fonctions de classe C ∞ sur R, est un espace vectoriel en tant que sous-espace
vectoriel de F (R, R) :
• la fonction nulle est évidemment de classe C ∞ ;
• si f , g ∈ C ∞ (R) et λ ∈ R, λf + g est de classe C ∞ sur R comme somme de fonctions de classe C ∞ .

Exemple 3
Rn [X ], l’ensemble des polynômes à coefficients réels de degré au plus n , est un espace vectoriel en tant que
sous-espace vectoriel de R[X ] :
• le polynôme nul est de degré au plus n ;
• si P,Q ∈ Rn [X ] et λ ∈ R, le polynôme λP + Q est bien de degré au plus n. Donc λP + Q ∈ Rn [X ].

Exemple 4
Sn (K), l’ensemble des matrices symétriques de taille n ×n à coefficients dans K, est un sous-espace vectoriel
de Mn (K) :
• la matrice nulle est symétrique ;
• soient M , N ∈ Sn (K) et λ ∈ K. (λM + N )> = λM > + N > = λM + N . Donc λM + N ∈ Sn (K).

© Mickaël PROST Année 2021/2022


Partie I – Espaces vectoriels 3

On montre de même que An (K) est un sous-espace vectoriel 1 .

Exemple 5
L’ensemble des suites convergentes à valeurs réelles est un sous-espace vectoriel de l’ensemble des suites à
valeurs réelles :
• la suite nulle converge (vers 0) ;
• si (u n )n∈N et (vn )n∈N sont deux suites qui convergent respectivement vers ` et `0 , λ un réel, alors la suite
(λu n + vn )n ∈N converge (vers λ` + `0 ).
Il y a bien stabilité par combinaison linéaire.

Exemple 6
F = {(x , y , z ) ∈ R3 | x + 2y − 3z = 0} est un sous-espace vectoriel de R3 :
• le vecteur nul appartient bien à F car 0 + 2 · 0 − 3 · 0 = 0 ;
• si u (x , y , z ), v = (x 0 , y 0 , z 0 ) ∈ R3 , λ ∈ R alors λu + v ∈ F . En effet, λu + v = (λx + x 0 , λy + y 0 , λz + z 0 ) et :

(λx + x 0 ) + 2(λy + y 0 ) − 3(λz + z 0 ) = λ(x + 2y − 3z ) + (x 0 + 2y 0 − 3z 0 ) = λ · 0 + 0 = 0

Exemple 7
G = {(x + y , x − y , 2y ) ∈ R3 | (x , y ) ∈ R2 } est un sous-espace vectoriel de R3 :
• Pour x = y = 0, (x + y , x − y , 2y ) = 0R3 donc 0R3 ∈ G .
• Soient u , v ∈ G et λ ∈ R.    
x+y x0 + y 0
Il existe x , x 0 , y , y 0 ∈ R tels que u =  x − y  et v =  x 0 − y 0 .
2y 2y 0
       
x+y x0 + y 0 (λx + x 0 ) + (λy + y 0 ) x 00 + y 00
λu + v = λ  x − y  +  x 0 − y 0  = (λx + x 0 ) − (λy + y 0 ) =  x 00 − y 00 
2y 2y 0 2(λy + y 0 ) 2y 00

avec x 00 = λx + x 0 et y 00 = λy + y 0 . On a bien montré que λu + v ∈ G .

Proposition 1.3 : Intersection de deux sous-espaces vectoriels


L’intersection de deux sous-espaces vectoriels de E est un sous-espace vectoriel de E .

Démonstration
Montrons que F ∩ G est un sous-espace vectoriel de E .
• 0E ∈ F et 0E ∈ G car F et G sont deux sous-espaces vectoriels (s.e.v.) de E . Donc 0E ∈ F ∩ G .
• Soient x , y ∈ F ∩ G et λ ∈ K.
λx + y ∈ F car F est un s.e.v. de E . De même, λx + y ∈ G car G est un s.e.v. de E . Donc λx + y ∈ F ∩ G . „

Il n’en va pas de même pour l’union. En général, F ∪ G n’est pas un espace vectoriel.

C – Familles quelconques de vecteurs


1 – Familles finies de vecteurs

Commençons par rappeler quelques définitions et propriétés fondamentales vues en première année sur les
familles finies de vecteurs.

1. À vos crayons !

Année 2021/2022 Lycée Jacques-Decour – MP


4 Chap. 1 Compléments d’algèbre linéaire

Définition 1.4
Soit (u 1 , . . . , u n ) une famille de vecteurs de E .
On note Vect(u 1 , . . . , u n ) l’ensemble des combinaisons linéaires des vecteurs u 1 , . . . , u n , c’est-à-dire :
¨ n «
X
n
Vect(u 1 , . . . , u n ) = αi u i | (α1 , . . . , αn ) ∈ K
i =1

Théorème 1.5
Soit (u 1 , . . . , u n ) une famille de vecteurs de E . Vect(u 1 , . . . , u n ) est un espace vectoriel.

En pratique, il suffit d’écrire F = Vect(· · · ) pour justifier que F est un sous-espace vectoriel. Utile, non ?

Définition 1.6 : Famille génératrice


Une famille (u 1 , . . . , u n ) de E est dite génératrice si tout vecteur de E s’écrit comme combinaison linéaire
des vecteurs u 1 , . . . , u n . Autrement dit,
n
X
n
∀x ∈ E , ∃(α1 , . . . , αn ) ∈ K , x= αi u i .
i =1

On dit alors que la famille (u 1 , . . . , u n ) engendre E et on a E = Vect(u 1 , . . . , u n ).


,→ Existence de la décomposition.

Attention, il existe plusieurs familles génératrices distinctes. Elles peuvent ne pas avoir le même cardinal !

Proposition 1.7 : Propriétés des familles génératrices


Soient u 1 , . . . , u n ∈ E . On pose F = Vect(u 1 , . . . , u n ). On ne change pas l’espace vectoriel engendré F si :
(i) on permute plusieurs vecteurs dans la famille (u 1 , . . . , u n ).

Vect(u 1 , . . . , u i , . . . , u j , . . . , u n ) = Vect(u 1 , . . . , u j , . . . , u i , . . . , u n )

(ii) on ajoute à la famille un vecteur combinaison linéaire des u 1 , . . . , u n .


(iii) on multiplie l’un des vecteurs par un scalaire non nul.
(iv) on retranche à la famille un vecteur combinaison linéaire des autres.

Proposition 1.8
Toute famille de vecteurs de E qui contient une famille génératrice de E est génératrice de E .

Définition 1.9 : Famille libre


Une famille (u 1 , . . . , u n ) de E est dite libre si
n
X
λ1 u 1 + · · · + λn u n = λi u i = 0E =⇒ λ1 = · · · = λn = 0
i =1

On dit alors que les vecteurs u 1 , . . . , u n sont linéairement indépendants. Une famille non libre est dite liée.

Proposition 1.10
• Une famille est liée dès qu’elle contient le vecteur nul.
• Une famille composée d’un seul vecteur est libre si et seulement si ce vecteur n’est pas nul.
• Une famille composée de deux vecteurs est libre si et seulement s’ils ne sont pas colinéaires.

La dernière propriété est fausse dès qu’il y a plus de deux vecteurs. Il faudrait vérifier que chaque vecteur n’est
pas combinaison des autres pour prouver que la famille est libre, ce qu’on ne fait pas en pratique.

© Mickaël PROST Année 2021/2022


Partie I – Espaces vectoriels 5

Théorème 1.11 : Caractérisation des familles liées


La famille (u 1 , . . . , u n ) est liée si et seulement si (au moins) un des vecteurs est combinaison linéaire des
n − 1 autres.

Théorème 1.12 : Caractérisation des familles libres


La famille (u 1 , . . . , u n ) est libre si et seulement si :

∀x ∈ Vect(u 1 , . . . , u n ), ∃!(λ1 , . . . , λn ) ∈ Kn , x = λ1 u 1 + · · · + λn u n

,→ Unicité de la décomposition.

Proposition 1.13
• Toute sous-famille d’une famille libre est libre.
• Toute famille contenant une famille liée est liée.

Pour les familles de polynômes échelonnées en degré (c’est-à-dire que les degrés sont deux à deux distincts),
on dispose d’une propriété relativement utile en pratique.

Proposition 1.14
Une famille de polynômes non nuls échelonnée en degré est libre.

Démonstration
Procédons par récurrence sur le nombre n de polynômes de la famille.
– Initialisation
Si P1 est non nul, la famille (P1 ) qui ne contient qu’un seul vecteur est libre.
– Hérédité
Considérons une famille (P1 , . . . , Pn , Pn+1 ) de polynômes non nuls échelonnés en degré. On peut sans perte
de généralité supposer que les polynômes sont ordonnés dans le sens des puissantes croissantes. Soit
λ1 , . . . , λn+1 ∈ K tels que :
λ1 P1 + · · · + λn Pn + λn+1 Pn+1 = 0
1
Si λn+1 6= 0, Pn+1 = − λn+1 (λ1 P1 + · · · + λn Pn ), ce qui est absurde pour une question de degré.
D’où λn+1 = 0 et λ1 P1 + · · · + λn Pn = 0. La famille (P1 , . . . , Pn ) est échelonnée en degré donc par hypothèse
de récurrence, elle est libre. Ce qui conduit à λ1 = · · · = λn = 0. Donc (P1 , . . . , Pn , Pn+1 ) est libre.
Ceci achève la démonstration par récurrence. „

Exemple
On prouve ainsi sans aucun calcul que la famille (X + 1, X 3 − 3X 2 + 1, X 5 + 6X 2 , X 4 − 3) est libre.

Définition 1.15 : Base


Une base d’un espace vectoriel E est une famille libre et génératrice.

Théorème 1.16 : Caractérisation d’une base


(u 1 , . . . , u n ) est une base de E ssi

∀x ∈ E , ∃!(λ1 , . . . , λn ) ∈ Kn , x = λ1 u 1 + · · · + λn u n

,→ Existence et unicité de la décomposition

Année 2021/2022 Lycée Jacques-Decour – MP


6 Chap. 1 Compléments d’algèbre linéaire

Définition 1.17 : Espace vectoriel de dimension finie


Un espace vectoriel de dimension finie est un espace qui admet une famille génératrice finie, c’est-à-dire
qui contient un nombre fini de vecteurs.

Théorème 1.18 : Théorème de la base extraite


Soit E un espace vectoriel admettant une famille génératrice finie F . Alors F contient une sous-famille
qui est une base de E .

Un espace de dimension finie admet donc une base finie.


Si on connaît une famille génératrice de E , on peut toujours enlever des vecteurs combinaisons linéaires des
autres jusqu’à obtenir une famille libre donc une base de E .

Théorème / Définition 1.19 : Dimension


Soit E un espace vectoriel de dimension finie. Toutes les bases de E ont même cardinal.
On appelle dimension de E ce cardinal et on le note dim E .

À retenir : pour déterminer la dimension d’un espace vectoriel de dimension finie, il suffit d’exhiber une base
de cet espace et de compter le nombre de vecteurs obtenus.
Par convention, dim({0E }) = 0.

Définition 1.20
On appelle droite vectorielle un espace de dimension 1, plan vectoriel un espace de dimension 2.

Théorème 1.21
Soient E un espace vectoriel de dimension n et F une famille génératrice de E .
Alors Card(F ) ¾ n , et si Card(F ) = n , c’est une base de E .

Dans la pratique, ce résultat a une importance capitale : il suffit qu’une famille soit génératrice et comporte
autant de vecteurs que la dimension de E pour que celle-ci soit une base de E .
Attention, ce n’est pas parce qu’une famille contient plus de n = dim(E ) vecteurs qu’elle est génératrice ! Par
exemple, (X , 2X , 3X ) n’est pas génératrice de R1 [X ] car le polynôme constant 1 ne peut s’écrire comme une
combinaison linéaire des trois vecteurs précédents.
Voici maintenant l’analogue du théorème de la base extraite pour les familles libres :

Théorème 1.22 : Théorème de la base incomplète


Soient E un espace vectoriel de dimension n et F une famille libre de E .
On peut compléter F en une base de E .

Théorème 1.23
Soient E un espace vectoriel de dimension n et F une famille libre de E .
Alors Card(F ) ¶ n , et si Card(F ) = n , c’est une base de E .

Si on connaît une famille libre d’un espace vectoriel E qui contient n = dim(E ) vecteurs, c’est une base !

Théorème 1.24 : Dimension d’un s.e.v.


Soit F un sous-espace vectoriel de E , E étant supposé de dimension finie.
Alors F est de dimension finie et dim F ¶ dim E . De plus, si dim F = dim E alors F = E .

Pour montrer que deux espaces vectoriels E et F de dimension finie sont égaux, il suffit donc de prouver que
F ⊂ E puis que dim(F ) = dim(E ). La double inclusion ne sera alors pas nécessaire.

© Mickaël PROST Année 2021/2022


Partie I – Espaces vectoriels 7

Proposition 1.25
Soient F et G sont deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie.
Alors, F × G = {(x , y ) | x ∈ F, y ∈ G } est un sous-espace vectoriel de E et dim(F × G ) = dim(F ) × dim(G ).

2 – Extension au cas des familles quelconques

On ne se limite désormais plus au cas des familles finies de vecteurs. Soit I un ensemble d’indices non
nécessairement fini. On peut par exemple prendre I = ¹1, 7º, I = N, I = R, etc. On considère de plus une
famille F de vecteurs de E indexée par I et on écrit F = (u i )i ∈I .

Exemples
Quelques exemples simples de familles infinies de vecteurs :
• (x 7→ x n )n∈N est une famille infinie (dénombrable) de F (R, R).
• (x 7→ eαx )α∈R est une famille infinie (non dénombrable) de F (R, R).
• (X n )n∈N est une famille infinie de R[X ].

On appelle combinaison linéaire de la famille F tout vecteur de la forme j ∈J λ j u j où J est une partie finie
P

de I . On ne manipule donc que des sommes finies ! Comme dans le cas d’une famille finie, on note Vect(F )
l’ensemble des combinaisons linéaires des vecteurs de F . C’est le sous-espace vectoriel engendré par la famille
(u i )i ∈I , c’est même le plus petit 2 sous-espace vectoriel de E contenant les éléments de F .

Définition 1.26 : Familles libres, génératrices et bases


• F est dite libre si toute sous-famille finie de F est libre.
X
∀J ⊂ I , J finie, λ j u j = 0E =⇒ ∀ j ∈ J , λ j = 0
j ∈J

• F est dite génératrice si tout vecteur de E est combinaison linéaire des vecteurs de F .
X
∀u ∈ E , ∃ J ⊂ I , J finie, u = λ j u j avec λ j ∈ R
j ∈J

• F est une base de E si elle est libre et génératrice.

Proposition 1.27 : Famille de polynômes échelonnée en degré


Toute famille (quelconque) de polynômes non nuls échelonnée en degré est libre.

Démonstration
Il suffit de montrer que toute sous-famille finie d’une telle famille est libre, ce qui a déjà été fait. „

Corollaire 1.28
La famille (X n )n∈N est une base de K[X ].

Démonstration
La famille (X n )n∈N engendre K[X ] par définition même de K[X ] et la liberté découle du résultat précédent.
„
On peut plus généralement prouver la propriété suivante.

Proposition 1.29
Toute famille (Pk )k ∈N de polynômes telle que deg(Pk ) = k pour tout k est une base de K[X ].

2. au sens de l’inclusion

Année 2021/2022 Lycée Jacques-Decour – MP


8 Chap. 1 Compléments d’algèbre linéaire

Démonstration
La famille (Pk ) constituée de polynômes non nuls (deg(Pk ) 6= −∞) est échelonnée en degré ; elle est libre.
Reste cependant à montrer qu’elle est génératrice.
Considérons pour cela un polynôme P ∈ K[X ] et posons n = deg(P ). La famille (P0 , . . . , Pn ) est une base
de Kn [X ] puisqu’elle est libre et contient n + 1 = dim(Kn [X ]) éléments. Comme P ∈ Kn [X ], il s’écrit bien
comme combinaison linéaire des polynômes P0 , . . . , Pn et donc plus généralement comme une combinaison
linéaire de la famille (Pk )k ∈N . „

D – Représentation matricielle et changement de base


On considère un espace vectoriel E de dimension finie n et une base B = (e1 , . . . , en ) de E .
Soit x un vecteur de E . Il existe alors un unique n-uplet (x1 , . . . , xn ) ∈ Kn tel que x = x1 e1 + · · · + xn en .

Définition 1.30
Les scalaires x1 , . . . , xn sont alors appelés coordonnées du vecteur x dans la base B. On peut alors choisir
de représenter x par la matrice colonne de ses coordonnées dans la base B :

x1
 
.
MatB (x ) =  .. 
xn

Ce qu’on pourrait qualifier de « vecteur coordonnées » dépend donc de la base choisie.


On peut de même représenter une famille de vecteurs F = (u 1 , . . . , u p ) dans la base B par :

u 11 ... up 1
 
. .. 
MatB (F ) =  .. . ∈ Mn,p (K)
u 1n . . . up n
n
X
où u i j représente la j e coordonnée du vecteur u i dans la base B, c’est-à-dire que l’on a u i = ui j e j .
j =1
La matrice dépend là encore de la base choisie.
On considère plus généralement deux bases B = (e1 , . . . , en ) et B 0 = (e10 , . . . , en0 ) d’un espace vectoriel de
dimension finie E et on cherche à déterminer un lien entre les coordonnées d’un même vecteur dans les bases
B et B 0 .

Définition 1.31
Soient B = (e1 , . . . , en ) et B 0 = (e10 , . . . , en0 ) deux bases d’un espace vectoriel de dimension finie E .
On appelle matrice de passage de la base B à la base B 0 , et on note PB→B 0 , la matrice de Mn (K) dont les
vecteurs colonnes représentent les coordonnées des vecteurs de la base B 0 dans la base B, soit :

e10 e20 ... en0


e1 α11 α12 α1n
 
...
e2  α21 α22 ... α2n  n
X
..  . .. ..  = PB→B 0 où ek0 = α j k e j pour tout k ∈ ¹1, n º
.  .. . .  j =1
en αn1 αn2 . . . αnn

Théorème 1.32 : Inversibilité d’une matrice de passage


Soient B = (e1 , . . . , en ) et B 0 = (e10 , . . . , en0 ) deux bases d’un espace vectoriel de dimension finie E .
La matrice de passage PB→B 0 est inversible et son inverse est PB 0 →B .

© Mickaël PROST Année 2021/2022


Partie I – Espaces vectoriels 9

Théorème 1.33 : Formule de passage


Soient B = (e1 , . . . , en ) et B 0 = (e10 , . . . , en0 ) deux bases d’un espace vectoriel de dimension finie E .
Soit x ∈ E . On pose X = MatB (x ) et X 0 = MatB 0 (x ). On a X = P X 0 avec P = PB→B 0 .

Comme P est inversible, on trouve X 0 = P −1 X . Pour ne pas confondre P et P −1 , on se souviendra que pour
obtenir les coordonnées X 0 dans la nouvelle base en fonction des coordonnées X dans l’ancienne base, il est
nécessaire d’inverser un système, donc d’inverser une matrice.

Définition 1.34 : Rang


Soit F = (u 1 , . . . , u p ) une famille de vecteurs de E . On appelle rang de F la dimension du sous-espace
vectoriel de E engendré par F , c’est-à-dire dim Vect(u 1 , . . . , u p ). On le note rg(u 1 , . . . , u p ).

Exemples
Soit E un espace vectoriel de dimension quelconque.
• Si u ∈ E est non nul, rg(u ) = dim(Vect(u )) = 1.
• Si u, v ∈ E sont non colinéaires, rg(u , v ) = dim(Vect(u , v )) = 2.
• Si u, v ∈ E sont colinéaires et non nuls, rg(u , v ) = dim(Vect(u, v )) = 1.

Proposition 1.35
Soient E un espace vectoriel de dimension n et F = (u 1 , . . . , u p ) une famille de p vecteurs de E .
(i) rg(u 1 , . . . , u p ) ¶ p ;
(ii) rg(u 1 , . . . , u p ) ¶ n ;
(iii) rg(u 1 , . . . , u p ) = p si et seulement si la famille est libre ;
(iv) rg(u 1 , . . . , u p ) = n si et seulement si la famille est génératrice de E.

Corollaire 1.36
Soit (u 1 , . . . , u n ) une famille de vecteurs d’un espace vectoriel E de dimension n .
La famille (u 1 , . . . , u n ) est une base de E si et seulement si rg(u 1 , . . . , u n ) = n .

Théorème 1.37
Soit (u 1 , . . . , u p ) une famille de vecteurs d’un espace vectoriel E de dimension finie n , admettant pour base
la famille B = (e1 , . . . , en ). Alors, le rang de la famille (u 1 , . . . , u p ) est égal au rang de la matrice représentative
des vecteurs u 1 , . . . , u p dans la base B, c’est-à-dire :

rg(u 1 , . . . , u p ) = rg(MatB (u 1 , . . . , u p ))

Ce théorème fournit deux informations :


• Pour déterminer le rang d’une famille de vecteurs, il suffit de calculer le rang d’une matrice.
• Si l’on change de base, le rang de la matrice obtenue est invariant. Autant choisir une base simple !

Exemple
Montrons que la famille F = (1 + 2X + 3X 2 , 2 + X + 3X 2 , 3 + 2X + X 2 ) est une base de R2 [X ]. Pour cela,
montrons que rg(F ) = 3 = dim(R2 [X ]) en écrivant la matrice M représentative de cette famille dans la base
canonique de R2 [X ].
     
1 2 3 1 2 3 1 2 3
M = 2 1 2 et rg(M ) = rg 0 −3 −4 = rg  0 -3 −4  = 3
L 2 ←L 2 −2L 1 L ←L −L
3 3 1 L 3 ←L 3 −3L 1 0 −3 −8 3 3 2 0 0 -4

Année 2021/2022 Lycée Jacques-Decour – MP


10 Chap. 1 Compléments d’algèbre linéaire

Théorème 1.38
Soient E un espace vectoriel de dimension n et (u 1 , . . . , u n ) une famille de vecteurs de E .
On considère la matrice représentative M de la famille (u 1 , . . . , u n ) dans une base quelconque de E .

(u 1 , . . . , u n ) est une base de E ⇐⇒ det(M ) 6= 0 ⇐⇒ rg(M ) = n

Dans ce cas, la matrice M est inversible.

Attention, le déterminant n’a de sens que lorsqu’on manipule une famille de n vecteurs dans un espace de
dimension n. Sinon, la matrice n’est pas carrée (et la famille ne peut être une base de E ). On peut néanmoins
déterminer son rang.

Exemple
Reprenons l’exemple de la famille F = (1 + 2X + 3X 2 , 2 + X + 3X 2 , 3 + 2X + X 2 ) de R2 [X ]. Il suffit en fait de
calculer le déterminant de la matrice M , matrice représentative de cette famille dans la base canonique de
R2 [X ], pour montrer qu’il s’agit bien d’une base de R2 [X ].

1 2 3
1 2 2 3 2 3
2 1 2 = −2 +3 = −5 + 14 + 3 = 12 6= 0
3 1 3 1 1 2
3 3 1

E – Somme de sous-espaces vectoriels


1 – Cas de deux sous-espaces vectoriels

Soient E un espace vectoriel de dimension quelconque, F et G deux sous-espaces vectoriels de E .

Définition 1.39 : Somme de deux sous-espaces


On appelle somme de F et G l’ensemble noté F + G défini par :

F + G = {x1 + x2 | x1 ∈ F, x2 ∈ G }

Cela signifie que pour tout x ∈ F + G , il existe x1 ∈ F et x2 ∈ G tels que x = x1 + x2 .


La décomposition n’est pas nécessairement unique !

Proposition 1.40
F + G est un sous-espace vectoriel de E ; il contient F et G .

Définition 1.41 : Somme directe


On dit que la somme de F et de G est directe lorsque la décomposition de tout vecteur de F + G comme
somme d’un vecteur de F et d’un vecteur de G est unique. On la note alors F ⊕ G .

x
Autrement dit, si x ∈ F ⊕ G alors il existe un unique couple
(x1 , x2 ) ∈ F × G tel que x = x1 + x2 .
x2

Chaque vecteur se décompose de manière unique comme la


somme d’un élément de F et d’un élément de G .

F
x1

© Mickaël PROST Année 2021/2022


Partie I – Espaces vectoriels 11

Proposition 1.42 : Caractérisation d’une somme directe


F et G sont en somme directe si et seulement si F ∩ G = {0E }.

Définition 1.43 : Espaces supplémentaires


On dit que F et G sont supplémentaires dans E si E = F + G et F ∩ G = {0E }.
On note alors E = F ⊕ G . Cela revient à dire que :

∀x ∈ E , ∃!(x1 , x2 ) ∈ F × G , x = x1 + x2

On dit également que G est un supplémentaire de F dans E . Attention, un supplémentaire n’est pas unique !
Cependant, le théorème suivant permet de s’assurer de l’existence d’au moins un supplémentaire (tout du
moins en dimension finie).

Théorème 1.44 : Existence d’un supplémentaire


Soient E un espace vectoriel de dimension finie et F un sous-espace vectoriel de E . Alors F possède (au
moins) un supplémentaire dans E .

Lorsque E est de dimension finie, on a souvent recours à la caractérisation suivante qui s’appuie sur la formule
de Grassman.
Lemme 1.45 : Formule de Grassman
dim(F + G ) = dim(F ) + dim(G ) − dim(F ∩ G ).

Théorème 1.46 : Caractérisation de la supplémentarité en dimension finie


Si E est un espace de dimension finie, F et G sont supplémentaires dans E si et seulement si deux des
trois propositions suivantes sont vérifiées (la troisième étant automatiquement vraie) :

(i) E = F + G (ii) F ∩ G = {0E } (iii) dim(E ) = dim(F ) + dim(G )

En dimension finie, tout supplémentaire de F a donc pour dimension dim(E ) − dim(F ).

Exercice 1
On considère les deux espaces vectoriels :

x −y +t =0
  
4
G = λ(1, 1, 2, 0) + µ(2, 0, 1, 1) | (λ, µ) ∈ R2 .

F = (x , y , z , t ) ∈ R | ;
2x + z = 0

Déterminer une base de F et trouver un système d’équations vérifiées par les éléments de G .
F et G sont -ils supplémentaires dans R4 ?

Exercice 2
E = R4 [X ] et F = {P ∈ E | P (0) = P 0 (0) = P 0 (1) = 0}. Montrer que F est un espace vectoriel, déterminer une
base de F et préciser sa dimension puis que G = Vect(1, X , 1 + X + X 2 ) est un supplémentaire de F dans E .

Exercice 3
Montrer que Mn (R) = Sn (R) ⊕ An (R). Préciser les dimensions de ces espaces.

Théorème 1.47 : Base adaptée


Soient E un espace vectoriel de dimension finie et F,G deux sous-espaces vectoriels de E de bases
respectives (e1 , . . . , ep ) et (ep +1 , . . . , en ). Alors, E = F ⊕G si, et seulement si, la famille (e1 , . . . , ep , ep +1 , . . . , en )
est une base de E . Dans ce cas, la famille (e1 , . . . , ep , ep +1 , . . . , en ) est qualifiée de base adaptée.

On peut ainsi montrer que deux sous-espaces sont supplémentaires en montrant que la concaténation de
deux bases est encore une base (mais de l’espace tout entier cette fois !).

Année 2021/2022 Lycée Jacques-Decour – MP


12 Chap. 1 Compléments d’algèbre linéaire

2 – Cas d’un nombre fini de sous-espaces vectoriels

Soit E un espace vectoriel de dimension quelconque. On considère p sous-espaces vectoriels F1 , . . . , Fp de E .

Définition 1.48 : Somme de p sous-espaces


p
X
On appelle somme de F1 , . . . , Fp l’ensemble noté F1 + · · · + Fp ou bien Fi défini par :
i =1

F1 + · · · + Fp = {x1 + · · · + xp | (x1 , . . . , xp ) ∈ F1 × · · · × Fp }

Définition 1.49 : Somme directe


Les espaces F1 , . . . , Fp sont en somme directe lorsque la décomposition de tout vecteur de F1 + · · · + Fp
Mp
comme somme de vecteurs des sous-espaces Fi est unique. On la note alors Fi ou bien F1 ⊕ · · · ⊕ Fp .
i =1

Proposition 1.50 : Caractérisation de la somme directe


Les sous-espaces F1 , . . . , Fp sont en somme directe si, et seulement si, la décomposition du vecteur nul
comme somme de vecteurs des sous-espaces Fi est unique.

Démonstration
Le sens direct est immédiat, par définition d’une somme directe. Reste à montrer que l’unicité de la décom-
position du vecteur nul implique l’unicité de la décomposition de n’importe quel vecteur.
Supposons que x1 + · · · + xp = x10 + · · · + xp0 avec xi , xi0 ∈ Fi . On a alors :

(x1 − x10 ) + · · · + (xi − xi0 ) + · · · + (xp − xp0 ) = 0E

L’unicité de la décomposition du vecteur nul conduit à xi − xi0 = 0E pour tout i ∈ ¹1, p º, i.e. xi = xi0 . „

Proposition 1.51 : Caractérisation bis de la somme directe


‚ p Œ p
X X
On a dim Fi ¶ dim(Fi ). Il y a égalité si, et seulement si, les sous-espaces sont en somme directe.
i =1 i =1

Exercice 4
Soit E l’espace vectoriel des fonctions continues sur [−1; 1] à valeurs dans R et les sous-espaces suivants :
• F l’ensemble des fonctions constantes de E ;
• G l’ensemble des fonctions nulles sur [−1, 0] ;
• H l’ensemble des fonctions nulles sur [0, 1].
Montrer que E = F ⊕ G ⊕ H .

Théorème 1.52 : Base adaptée


Soit E un espace vectoriel de dimension finie. E = F1 ⊕ · · · ⊕ Fp si et seulement si la famille obtenue par
concaténation de bases des espaces F1 , . . . , Fp est une base de E , appelée base adaptée à la somme directe.

Exercice 5
 
0 2 −1
Soit f l’endomorphisme de R3 canoniquement associé à la matrice M =  3 −2 0 .
−2 2 1
Montrer que R3 = Ker(f − idR3 ) ⊕ Ker(f − 2idR3 ) ⊕ Ker(f + 4idR3 ) puis écrire la matrice représentative de f
dans une base adaptée à cette somme directe.

© Mickaël PROST Année 2021/2022


Partie II – Applications linéaires 13

II | Applications linéaires
A – Définitions et premières propriétés

Définition 1.53
On dit que f est une application linéaire de E dans F si :

∀x , y ∈ E , ∀λ ∈ K, f (λx + y ) = λf (x ) + f (y ).

On note L (E , F ) l’ensemble des applications linéaires de E dans F .

Exemple 1
Montrons que l’application f : R2 −→ R3 est linéaire.
(x , y ) 7−→ (x + 2y , −x , 2y )
Soient u (x , y ), u 0 (x 0 , y 0 ) ∈ R2 et λ ∈ R.
Comme λu + u 0 = (λx + x 0 , λy + y 0 ), on a :

f (λu + u 0 ) = ((λx + x 0 ) + 2(λy + y 0 ), −(λx + x 0 ), 2(λy + y 0 ))


= λ(x + 2y , −x , 2y ) + (x 0 + 2y 0 , −x 0 + 2y 0 ) = λf (u ) + f (u 0 )

Exemple 2
Montrons que l’application ϕ définie sur R[X ] par ϕ(P ) = X 2 P 0 − P est linéaire.
Soient P,Q ∈ R[X ] et λ ∈ R.

ϕ(λP + Q ) = X 2 (λP + Q )0 − (λP + Q ) = λ(X 2 P 0 − P ) + (X 2Q 0 − Q ) = λϕ(P ) + ϕ(Q )

Proposition 1.54
Si f : E → F est linéaire, alors f (0E ) = 0F .

Démonstration
Supposons que f ∈ L (E , F ).
f (0E ) = f (0E + 0E ) = f (0E ) + f (0E ) = 2f (0E ). Donc f (0E ) = 0F . „

Cette propriété nous permet de montrer qu’une application n’est pas linéaire.

Exemple
L’application ϕ définie sur R2 par ϕ(x , y ) = (x + 2y + 1, x − y ) n’est pas linéaire.
En effet, ϕ(0, 0) = (1, 0) 6= (0, 0).

Proposition 1.55
Soient f , g : E → F deux applications linéaires. Alors,
• λf + g et g ◦ f sont linéaires.
• Si f est de plus bijective alors f −1 est également linéaire.

On remarquera que si f : E → F , f −1 : F → E donc f −1 ◦ f = idE alors que f ◦ f −1 = idF .

Année 2021/2022 Lycée Jacques-Decour – MP


14 Chap. 1 Compléments d’algèbre linéaire

Proposition 1.56
L’ensemble L (E , F ) muni des lois + et · est un K-espace vectoriel.

Précisons que (L (E , F ), +, ◦) possède quant à lui une structure d’anneau.

Proposition 1.57
Si E et F sont de dimension finie, L (E , F ) est un K-e.v. de dimension finie et

dim(L (E , F )) = dim E × dim F

En particulier, l’espace vectoriel L (E , K) des formes linéaires a même dimension que E .

Définition 1.58
• Un endomorphisme de E est une application linéaire de E dans lui-même.
On note L (E ) l’ensemble des endomorphismes de E .
• Un isomorphisme est une application linéaire bijective.
• Un automorphisme est un endomorphisme bijectif.
On note GL(E ) l’ensemble des automorphismes de E . Il est appelé groupe linéaire.
• Une forme linéaire est une application linéaire à valeurs dans K.

Exemple
L’application f : R3 → R définie par f (x , y , z ) = x + 2y − z est une forme linéaire de R3 .
• f est bien à valeurs dans R.
• f est linéaire car pour tous u(x , y , z ), u 0 (x 0 , y 0 , z 0 ) ∈ R3 et λ ∈ R, on a :

f (λu + u 0 ) = (λx + x 0 ) + 2(λy + y 0 ) − (λz + z 0 ) = λ(x + 2y − z ) + (x 0 + 2y 0 − z 0 ) = λf (u ) + f (u 0 )

Attention, GL(E ) n’est pas un espace vectoriel. Il possède cependant une structure de groupe, d’où son nom.

B – Noyau et image d’une application linéaire


Dans toute cette partie, on considère f ∈ L (E , F ).

1 – Noyau et injectivité

Définition 1.59
On appelle noyau de f et on note Ker(f ) l’ensemble défini par :

Ker(f ) = {x ∈ E | f (x ) = 0F } = f −1 ({0F })

Attention, si A est un ensemble, la notation f −1 (A) ne signifie pas que f est bijective ! f −1 (A) désigne l’ensemble
des antécédents des éléments de A par f . Autrement dit, f −1 (A) = {x ∈ E | f (x ) ∈ A}.
On retiendra que :
x ∈ Ker(f ) ⇐⇒ f (x ) = 0F

Théorème 1.60
Ker(f ) est un sous-espace vectoriel de E .

Démonstration
Montrons que Ker(f ) est un sous-espace vectoriel de E .
? Tout d’abord, 0E ∈ Ker(f ).
En effet, nous avons montré que f (0E ) = 0F .
? Soient x , y ∈ Ker(f ) et λ ∈ K.
f (λx + y ) = λf (x ) + f (y ) = λ0F + 0F = 0F donc λx + y ∈ Ker(f ). „

© Mickaël PROST Année 2021/2022


Partie II – Applications linéaires 15

Attention, 0E n’est pas toujours le seul antécédent de 0F , on se méfiera fortement de l’implication souvent
fausse : f (x ) = 0F =⇒ x = 0E . Cette propriété est vraie lorsque l’application est injective. Et dans le cas
d’une application linéaire, il suffit réciproquement que cette propriété soit vérifiée pour que l’application soit
injective. En d’autres termes, on a la théorème suivant :

Théorème 1.61
L’application linéaire f est injective si et seulement si Ker(f ) = {0E }

Démonstration
Démontrons ce résultat par double implication.
=⇒ Supposons f injective, c’est-à-dire que : ∀(x , y ) ∈ E 2 f (x ) = f (y ) =⇒ x = y .
Soit x ∈ Ker(f ). Montrons que x = 0E .
Comme f (x ) = 0F et f (0E ) = 0F , on a f (x ) = f (0E ) et par injectivité, x = 0E .
⇐= Supposons maintenant que Ker(f ) = {0E }.
Montrons que f est injective et considérons pour cela x , y ∈ E quelconques.

f (x ) = f (y ) ⇐⇒ f (x ) − f (y ) = 0E ⇐⇒ f (x − y ) = 0E ⇐⇒ x − y ∈ Ker(f )
f ∈L (E ,F )

Comme Ker(f ) = {0E }, x − y = 0E , c’est-à-dire x = y . „

Exemple 1
Soit f l’endomorphisme de R3 défini par f (x , y , z ) = (2x − y , y + z , z − x ). Étudions l’injectivité de f .
Déterminons pour cela son noyau.

(x , y , z ) ∈ Ker(f ) ⇐⇒ f (x , y , z ) = (0, 0, 0) ⇐⇒ (2x − y , y + z , z − x ) = (0, 0, 0)

Ce qui conduit à la résolution suivante :

2x − y = 0

y +z =0 ⇐⇒ x = y =z =0
z −x =0

Ainsi, Ker(f ) = {0R3 } et f est injective.


On laisse au lecteur le soin de montrer au préalable que f est bien un endomorphisme de R3 .

Exemple 2
Éudions l’injectivité de l’endomorphisme ϕ : P 7→ X P 0 − P de R2 [X ].
? Vérifions pour commencer que ϕ est bien un endomorphisme de R2 [X ] :
• ϕ est linéaire : pour tout P,Q ∈ R2 [X ] et pour tout λ ∈ R,

ϕ(λP + Q ) = X (λP + Q )0 − (λP + Q ) = λ(X P 0 − P ) + (X Q 0 − Q ) = λϕ(P ) + ϕ(Q )

• ϕ est à valeurs dans R2 [X ]. En effet, on peut raisonner sur le degré ou bien effectuer le calcul suivant
avec P = a X 2 + b X + c :

ϕ(P ) = X (2a X + b ) − (a X 2 + b X + c ) = a X 2 − c ∈ R2 [X ]

? Déterminons le noyau de ϕ.

P = a X 2 + b X + c ∈ Ker(ϕ) ⇐⇒ ϕ(X ) = a X 2 + c = 0R[X ]


Or deux polynômes sont égaux si et seulement s’ils ont mêmes coefficients. Donc par identification,
a = c = 0. Ainsi, P = b X , ce qui prouve que Ker(ϕ) = Vect(X ). L’application n’est donc pas injective.

Année 2021/2022 Lycée Jacques-Decour – MP


16 Chap. 1 Compléments d’algèbre linéaire

2 – Image, rang et surjectivité

Définition 1.62
On appelle image de f et on note Im(f ) l’ensemble défini par :

Im(f ) = f (E ) = {y ∈ F | ∃x ∈ E y = f (x )} = { f (x ) | x ∈ E }

Les trois écritures précédentes sont équivalentes. On retiendra que :


y ∈ Im(f ) ⇐⇒ ∃x ∈ E y = f (x )
Tout vecteur s’écrivant sous la forme f (· · · ) appartient à l’image de f .

Théorème 1.63
Im(f ) est un sous-espace vectoriel de F .

Démonstration
Montrons que Im(f ) est un sous-espace vectoriel de F .
? Comme 0F = f (0E ), on a bien 0F ∈ Im(f ).
? De plus, si x , y ∈ Im(f ) et λ ∈ K, il existe x 0 , y 0 ∈ E tels que x = f (x 0 ) et y = f (y 0 ). D’où,

λx + y = λf (x 0 ) + f (y 0 ) = f (λx 0 + y 0 ) ∈ Im(f )

Le théorème suivant montre que l’on peut aisément obtenir une famille génératrice de l’image (en prenant
l’image par f de vecteurs constituant une base de E ). Il suffit alors de retirer les vecteurs combinaisons linéaires
des autres afin d’obtenir une famille libre, donc une base. Un résultat extrêmement utile pour déterminer
l’image !

Théorème 1.64
Soient E , F deux espaces vectoriels, E étant supposé de dimension finie, et f ∈ L (E , F ).
Si (e1 , . . . , en ) est une base de E alors Im f = Vect(f (e1 ), . . . , f (en )).

Démonstration

y ∈ Im(f ) ⇐⇒ ∃x ∈ E , y = f (x ) ⇐⇒ ∃(λ1 , . . . , λn ) ∈ Kn , y = f (λ1 e1 + . . . + λn en )


n
⇐⇒ ∃(λ1 , . . . , λn ) ∈ K , y = λ1 f (e1 ) + . . . + λn f (en )

Donc on a bien Im(f ) = Vect(f (e1 ), . . . , f (en )). „

Définition 1.65
Soit f ∈ L (E , F ) avec E de dimension finie.
Alors Im(f ) est de dimension finie et on appelle rang de f , noté rg(f ), la dimension de Im(f ).

En effet, si E est de dimension finie, avec les notations précédente, Im(f ) = Vect(f (e1 ), . . . , f (en )) donc Im(f )
admet une famille génératrice finie et on a même dim(Im(f )) ¶ n.

Théorème 1.66
L’application linéaire f est surjective si et seulement si Im(f ) = F .

Démonstration
Rappelons qu’une application f : E → F est surjective si et seulement si tout élément de F admet au moins
un antécédent par f . Cela revient à dire que f (E ) = F , soit Im(f ) = F . „

© Mickaël PROST Année 2021/2022


Partie II – Applications linéaires 17

Corollaire 1.67
Si f ∈ L (E , F ) et E de dimension finie, alors f surjective si et seulement si rg(f ) = dim(F ).

Démonstration
On a Im(f ) ⊂ F et si rg(f ) = dim(Im(f )) = dim(F ), l’égalité des dimensions nous donne alors Im(f ) = F .

Reprenons les deux exemples du paragraphe précédent pour voir si les applications étudiées sont surjectives.

Exemple 1
Soit f l’endomorphisme de R3 défini par f (x , y , z ) = (2x − y , y + z , z − x ). Étudions la surjectivité de f .
Déterminons pour cela son image.
Im(f ) = Vect(f (e1 ), f (e2 ), f (e3 )) avec (e1 , e2 , e3 ) la base canonique de R3 . On trouve :

f (e1 ) = (2, 0, −1); f (e2 ) = (−1, 1, 0); f (e3 ) = (0, 1, 1)

2 −1 0
Cette dernière famille, qui engendre Im(f ), est également libre : 0 1 1 = 3 6= 0 (on peut aussi revenir à
−1 0 1
la définition d’une famille libre).
C’est donc une base de Im(f ), qui est ainsi de dimension 3, et on a Im(f ) = R3 . f est donc surjective.

Exemple 2
Étudions la surjectivité de l’endomorphisme ϕ : P 7→ X P 0 − P de R2 [X ]. Déterminons l’image de ϕ.
De la même façon que dans l’exemple précédent,

Im(ϕ) = Vect(ϕ(1), ϕ(X ), ϕ(X 2 )) = Vect(−1, 0, X 2 ) = Vect(1, X 2 )

Cette dernière famille est libre (deux vecteurs non colinéaires), mais Im(ϕ) 6= R2 [X ] car dim(Im(ϕ)) = 2 < 3 =
dim(R2 [X ]) donc ϕ n’est pas surjective.

3 – Théorème du rang et bijectivité

Théorème 1.68 : Théorème du rang


On suppose que E est de dimension finie. Soit f ∈ L (E , F ). Alors,

dim E = dim Ker(f ) + dim(Im(f ))


| {z }
=rg(f )

Démonstration (1)
On pose n = dim(E ). Soit (e1 , . . . , ep ) une base de Ker f complétée en une base (e1 , . . . , ep , ep +1 , . . . , en ) de E .
| {z } | {z }
p vecteurs n−p vecteurs
Prouvons que rg f = n − p en montrant que (f (ep +1 ), . . . , f (en )) est une base de Im f .
• Im f = Vect(f (e1 ), . . . , f (ep ), f (ep +1 ), . . . , f (en )) = Vect(f (ep +1 ), . . . , f (en )).
La famille (f (ep +1 ), . . . , f (en )) est donc génératrice.
• La famille est également libre. En effet, soit λp +1 , . . . , λn ∈ K tels que :
n
X
λp +1 f (ep +1 ) + · · · + λn f (en ) = λi f (ei ) = 0F
i =p +1

!
n
X n
X
Alors, f λi ei = 0F par linéarité, ce qui montre que λi ei ∈ Ker f .
i =p +1 i =p +1

Année 2021/2022 Lycée Jacques-Decour – MP


18 Chap. 1 Compléments d’algèbre linéaire

La famiIle (e1 , . . . , ep ) étant une base de Ker(f ), il existe donc λ1 , . . . , λp tels que :

n
X p
X
λi ei = λi ei , soit λ1 e1 + · · · + λp ep − λp +1 ep +1 − · · · − λn en = 0E
i =p +1 i =1

La famille (e1 , . . . , en ) étant une base de E , elle est libre et dès lors, tous les λi sont nuls.
En particulier, λp +1 = · · · = λn = 0.
Ainsi, (f (ep +1 ), . . . , f (en )) est une base de Im(f ) et Im(f ) est de dimension n − p = n − dim(Ker(f )). „

On notera que dans le théorème du rang, seule la dimension de l’espace de départ intervient. Ce résultat n’a
plus de sens lorsqu’il est de dimension infinie mais nous pouvons en donner une forme plus générale.

Théorème 1.69 : Forme géométrique du théorème du rang


Soient E et F deux espaces vectoriels de dimensions quelconques et f ∈ L (E , F ). Si Ker(f ) possède un
supplémentaire I dans E , alors f|I est un isomorphisme de I sur Im(f ).

Travaillant en dimension infinie, l’existence d’un supplémentaire de Ker(f ) n’est pas acquis.

Démonstration
On suppose donc que E = Ker(f ) ⊕ I . Rappelons que la restriction f|I est linéaire et f|I : I → Im(f ).
• L’application f|I est injective : Ker(f|I ) = Ker(f ) ∩ I = {0E }.
• L’application f|I est surjective. En effet, soit y ∈ Im(f ). On a y = f (x ) avec x ∈ E . Il existe alors (x1 , x2 ) ∈
Ker(f ) × I tel que x = x1 + x2 . Ainsi, y = f (x ) = f (x1 ) + f (x2 ) = f (x2 ) = f|I (x2 ).
Tout supplémentaire à Ker(f ) est donc isomorphe à Im(f ). „

Théorème 1.70
Soit f un endomorphisme de E , avec E de dimension finie. Alors,

f injective ⇐⇒ f sujective ⇐⇒ f bijective

Démonstration
La preuve repose sur le théorème du rang :

f injective ⇐⇒ Ker(f ) = {0E } ⇐⇒ dim(Ker(f )) = 0


⇐⇒ dim(E ) = dim(Im(f )) ⇐⇒ Im(f ) = E ⇐⇒ f surjective

L’hypothèse de dimension finie nous permet d’utiliser le théorème du rang, le fait que f soit un endomor-
phisme permet de justifier que Im(f ) ⊂ E puis que Im(f ) = E par égalité des dimensions. „

En dimension finie, un endomorphisme est bijectif dès qu’il est injectif ou surjectif ! C’est une propriété
importante des applications linéaires. On pourra se reporter aux exemples traités précédemment.

Il est souvent plus simple de prouver la bijectivité en commençant par justifier l’injectivité de l’application et
ce, en montrant que le noyau est réduit à {0E }. Mais il n’y a pas de règle générale...

Théorème 1.71
Soit f ∈ L (E , F ). f est un isomorphisme si et seulement s’il existe une base B de E telle que f (B) est
une base de F .

© Mickaël PROST Année 2021/2022


Partie II – Applications linéaires 19

Démonstration
On considère une application f ∈ L (E , F ).
=⇒ Supposons que f est un isomorphisme et considérons une base B = (e1 , . . . , en ) quelconque de E .
f étant surjective, la famille (f (e1 ), . . . , f (en )) engendre F = Im(f ).
Cette famille comporte n = dim(E ) vecteurs et comme dim(E ) = dim(F ) (cf. corollaire précédent), on
en déduit que cette famille génératrice est une base de Im(f ).
⇐= Considérons une base B = (e1 , . . . , en ) de E telle que f (B) = (f (e1 ), . . . , f (en )) soit une base de F .
• F = Vect(f (e1 ), . . . , f (en )) = Im(f ) donc f est surjective.
• Soit x ∈ Ker(f ).
n
‚ n Œ n
X X X
Il existe α1 , . . . , αn ∈ K tels que x = αi ei . Ainsi, f (x ) = f αi ei = αi f (ei ) = 0F .
linéarité
i =1 i =1 i =1
Mais comme (f (e1 ), . . . , f (en )) est une base de F , la famille est liibre.
Ce qui montre que α1 = · · · = αn = 0. Ainsi, x = 0E et on a bien Ker(f ) = {0E }, f est injective.
Au final, f est un isomorphisme de E vers F . „

L’image de toute base par un isomorphisme est donc une base, et réciproquement.

4 – Résolution d’une équation linéaire

On cherche à résoudre l’équation f (x ) = y avec f ∈ L (E , F ) et y ∈ F .

? Si y ∈
/ Im(f ), il n’y a aucune solution.
? Si y ∈ Im(f ), il existe x0 ∈ E tel que y = f (x0 ).
Le problème admet donc au moins une solution. De plus,

y = f (x ) ⇐⇒ f (x ) = f (x0 ) ⇐⇒ f (x − x0 ) = 0F ⇐⇒ x − x0 ∈ Ker(f )

Donc les solutions de l’équation sonc de la forme x0 + u avec u ∈ Ker(f ), c’est-à-dire f (u) = 0F . L’ensemble
des solutions S s’écrira :
S = x0 + Ker(u )
Il possède une structure de sous-espace affine.
Si Ker(f ) = {0E }, il n’y a qu’une solution, x0 . Si dim(Ker(f )) ¾ 1, il y en a une infinité.
On retrouve un résultat bien connu : dans un problème linéaire, les solutions s’écrivent comme la somme
d’une solution particulière et de la solution générale de l’équation homogène...

C – Représentation matricielle
On considère une application f ∈ L (E , F ). Dans toute cette partie, E et F sont supposés de dimension finie
(toutes deux non nulles).

1 – Trace d’une matrice

Définition 1.72
On appelle trace d’une matrice M ∈ Mn (K) et on note Tr(M ) la somme des coefficients diagonaux de M .
n
X
Autrement dit, Tr(M ) = mi i .
i =1

Exemple
 
1 2 3
Si M = 4
 5 6 alors Tr(M ) = 1 + 5 + 9 = 15.
7 8 9

Année 2021/2022 Lycée Jacques-Decour – MP


20 Chap. 1 Compléments d’algèbre linéaire

Proposition 1.73
Si A, B ∈ Mn (K), alors Tr(AB ) = Tr(B A).

Attention, les matrices AB et B A sont généralement différentes, même si elles ont la même trace.

Démonstration
n
X n X
X n n
X n X
X n
On a (AB )i j = a i k bk j donc Tr(AB ) = a i k bk i et (B A)i j = bi k a k j donc Tr(B A) = bi k a k i .
k =1 i =1 k =1 k =1 i =1 k =1
n X
X n
Les indices de sommation étant muets, on a Tr(B A) = a i k bk i . De plus, les sommes considérées sont
k =1 i =1
finies donc l’ordre de sommation n’importe pas. L’égalité est donc établie. „

Exemple
Les deux matrices suivantes ont bien même trace :
         
1 2 5 6 19 22 5 6 1 2 23 34
= ; =
3 4 7 8 43 50 7 8 3 4 31 46

Exercice 6
Déterminer la dimension de H = {M ∈ Mn (C) | Tr(M ) = 0}.

2 – Représentation matricielle d’une application linéaire

Soient B = (e1 , . . . , ep ) une base de E et B 0 = (f1 , . . . , fn ) une base de F .


Xp
Soit u ∈ E quelconque. Il existe λ1 , . . . , λp ∈ K tels que u = λ j e j . Par linéarité,
j =1

!
p
X p
X
f (u ) = f λj ej = λ j f (e j )
j =1 j =1

Pour déterminer f (u ) à partir de u , il faut et il suffit de connaître l’image des vecteurs de la base B par f ,
c’est-à-dire de connaître les vecteurs f (e j ). On vient simplement de montrer :

Théorème 1.74
Une application linéaire est entièrement déterminée par l’image d’une base de E .

De plus, les vecteurs f (e j ) sont des éléments de F . Ils peuvent donc s’écrire comme combinaisons linéaires
des vecteurs fi , à savoir :
n
X
∀ j ∈ ¹1, p º, f (e j ) = mi , j fi
i =1

Définition 1.75 : Matrice d’une application linéaire


On appelle matrice de f relativement aux bases B et B 0 la matrice (mi , j ) 1¶i ¶n .
1¶ j ¶p
On la note Mat(f , B, B 0 ) ou bien MatB,B 0 (f ).
f (e1 ) f (e2 ) . . . f (ep )
f1
 
f2  
..   = MatB,B 0 (f ) ∈ Mn,p (K)
.  
fn

© Mickaël PROST Année 2021/2022


Partie II – Applications linéaires 21

Si E = F , on prend généralement B = B 0 et on obtient la matrice carrée :

f (e1 ) . . . f (en )
 
e1
..   = MatB (f ) ∈ Mn (K)
.
en

Si f = idE alors dans toute base B de E , MatB (f ) = In .

Exemple 1
Soit f l’endomorphisme de R3 défini par f (x , y , z ) = (2x − y , y + z , z − x ).
On note B = (e1 , e2 , e3 ) la base canonique de R3 et B 0 = (e10 , e20 , e30 ) avec :

e10 = (1, 1, 0), e20 = (0, 0, 1), e30 = (0, 1, 1)

Montrer que la famille B 0 est une base de R3 et déterminer les matrices MatB,B (f ), MatB,B 0 (f ) et
MatB 0 ,B 0 (f ).
1 0 0
? Tout d’abord, B 0 est bien une base de R3 car 1 0 1 = −1 6= 0.
0 1 1
? f (e1 ) = (2, 0, −1) = 2e1 − e3 , f (e2 ) = (−1, 1, 0) = −e1 + e2 et f (e3 ) = (0, 1, 1) = e2 + e3 donc :

f (e1 ) f (e2 ) f (e3 )


 
e1 2 −1 0
e2  0 1 1  = MatB (f )
e3 −1 0 1

? f (e1 ) = (2, 0, −1) = 2e10 + e20 − 2e30 , f (e2 ) = (−1, 1, 0) = −e10 − 2e20 + 2e30 et f (e3 ) = (0, 1, 1) = e30 donc :

f (e1 ) f (e2 ) f (e3 )


 
e10 2 −1 0
e20  1 −2 0  = MatB,B 0 (f )
e30 −2 2 1

Pour déterminer les coordonnées du vecteur f (e1 ) dans la base B 0 , on peut déterminer α, β , γ ∈ R tels
que f (e1 ) = αe10 + β e20 + γe30 à l’aide d’un système linéaire, ou bien effectuer les calculs de tête.
? f (e10 ) = (1, 1, −1) = e10 − e20 , f (e20 ) = (0, 1, 1) = e30 et f (e30 ) = (−1, 2, 1) = −e10 − 2e20 + 3e30 donc :

f (e10 ) f (e20 ) f (e30 )


 
e10 1 0 −1
e20  −1 0 −2  = MatB 0 (f )
e30 0 1 3

Pour s’entraîner, on déterminera MatB 0 ,B (f ).

Exemple 2
Écrire la matrice dans la base canonique de R2 [X ] de l’endomorphisme ϕ : P 7→ X P 0 − P .
ϕ(1) = −1, ϕ(X ) = 0 et ϕ(X 2 ) = X 2 donc la matrice de ϕ dans la base canonique est :

ϕ(1) ϕ(X ) ϕ(X 2 )


 
1 −1 0 0
X  0 0 0 
2
X 0 0 1

Pour s’entraîner, on écrira la matrice représentative de ϕ dans la base (1 + X , X 2 + X , X 2 + X + 1) en montrant


préalablement qu’il s’agit bien d’une base de R2 [X ].

Année 2021/2022 Lycée Jacques-Decour – MP


22 Chap. 1 Compléments d’algèbre linéaire

3 – Image d’un vecteur

Proposition 1.76
Soient E et F deux espaces vectoriels de dimension finie, de bases respectives B et B 0 .
Soient x ∈ E et f ∈ L (E , F ). On pose X = MatB (x ) et M = MatB,B 0 (f ). Alors MatB 0 (f (x )) = M X .

Exemple 1 (bis)
Reprenons l’exemple 1 du paragraphe précédent. f (1, 2, 3) = (0, 5, 2) mais on peut également vérifier que :
    
2 −1 0 1 0
0 1 1 2 = 5
   
−1 0 1 3 2

Nous avons choisi de travailler dans la base canonique B, ce qui est de loin le plus simple. Mais tout
fonctionne également dans la base B 0 : (1, 2, 3) = e10 + 2e20 + e30 et,
    
1 0 −1 1 0
−1 0 −2 2 = −3
0 1 3 1 5

Donc f (1, 2, 3) = −3e20 + 5e30 = (0, 5, 2).

Exemple 2 (bis)
Reprenons l’exemple 2 du paragraphe précédent. ϕ(2X 2 − 3X + 5) = 2X 2 − 5 mais on peut également vérifier
que :     
−1 0 0 5 −5
 0 0 0 −3 =  0 
0 0 1 2 2

Donc on retrouve bien ϕ(2X 2 − 3X + 5) = 2X 2 − 5.

4 – Composition d’applications et produit matriciel

On suppose par la suite que f est un endomorphisme de E , ce qui revient à prendre F = E .

Proposition 1.77
On considère deux endomorphismes f et g de E et on note B une base de cet espace.
(i) MatB (f + g ) = MatB (f ) + MatB (g ) ;
(ii) MatB (f ◦ g ) = MatB (f ) × MatB (g ) ;
(iii) f est bijective si et seulement si MatB (f ) est inversible. Dans ce cas, MatB (f −1 ) = MatB (f )−1 .

Voici un tableau de correspondance synthétisant les propriétés qui viennent d’être exposées :

Représentation vectorielle Représentation matricielle

x ∈E X ∈ Mn1 (K)
f ∈ L (E ) M ∈ Mn (K)
f (x ) ∈ E M X ∈ Mn1 (K)
f + g ∈ L (E ) M + N ∈ Mn (K)
f ◦ g ∈ L (E ) M N ∈ Mn (K)
f −1 , f ∈ GL(E ) M −1 , M ∈ GLn (K)

© Mickaël PROST Année 2021/2022


Partie II – Applications linéaires 23

5 – Changement de base, équivalence et similitude

Soient B et B 0 deux bases de E et f ∈ L (E ). On rappelle que P = PB→B 0 ∈ GLn (K) désigne la matrice de
passage de la base B à la base B 0 – ses colonnes représentent les coordonnées des vecteurs de B 0 dans la
base B :
e10 ... en0
 
e1
..   = PB→B 0
.
en

La matrice P est inversible et P −1 représente la matrice de passage de la base B 0 à la base B.

Théorème 1.78 : Formules de changement de base


(i) Soit x ∈ E . On note X (resp. X 0 ) le vecteur coordonnées de x dans la base B (resp. B 0 ). On a :

X =PX0 c’est-à-dire X 0 = P −1 X

(ii) Soit f ∈ L (E ). On note M (resp. M 0 ) la matrice de f dans la base B (resp. B 0 ). On a :

M 0 = P −1 M P

Démonstration

(ii) D’après ce qui précède, f (x ) a pour coordonnées M X dans la base B et M 0 X 0 dans la base B 0 .
Ainsi, M 0 X 0 = P −1 (M X ), ce qui donne

M 0 P −1 X = P −1 M X

L’égalité précédente étant valable quel que soit le vecteur X , un résultat de première année montre
que M 0 P −1 = P −1 M , c’est-à-dire que M 0 = P −1 M P . „

N’oublions pas que pour déterminer X 0 en fonction de X , on doit inverser un système. D’où la présence de la
matrice P −1 dans la formule X 0 = P −1 X .

Exemple 1 (ter)
Reprenons l’endomorphisme f de R3 défini par f (x , y , z ) = (2x − y , y + z , z − x ). Notons M sa matrice dana
la base canonique et M 0 sa matrice dans la base B 0 = (e10 , e20 , e30 ) où e10 = (1, 1, 0), e20 = (0, 0, 1), e30 = (0, 1, 1).
     
2 −1 0 1 0 0 1 0 0
On a M =  0 1 1 et P = 1 0 1. Après calcul, on trouve P −1 =  1 −1 1 et :
−1 0 1 0 1 1 −1 1 0
        
1 0 0 2 −1 0 1 0 0 1 0 0 1 0 −1 1 0 −1
M 0 = P −1 M P =  1 −1 1  0 1 1 1 0 1 =  1 −1 1  1 1 2  = −1 0 −2
−1 1 0 −1 0 1 0 1 1 −1 1 0 −1 1 1 0 1 3

ce qui était exactement ce que nous avions trouvé auparavant.

Définition 1.79 : Matrices semblables


Deux matrices M et M 0 sont dites semblables s’il existe une matrice P inversible telle que :

M 0 = P −1 M P

Toute matrice inversible pouvant s’interpréter comme une matrice de passage, deux matrices semblables
représentent le même endomorphisme dans deux bases différentes. Elles vérifient donc, comme nous allons
le constater, un certain nombre de propriétés communes.

Année 2021/2022 Lycée Jacques-Decour – MP


24 Chap. 1 Compléments d’algèbre linéaire

Proposition 1.80
Deux matrices semblables ont même rang, même trace et même déterminant.

Démonstration
Considérons deux matrices M , M 0 ∈ Mn (K) vérifiant M 0 = P −1 M P avec P ∈ GLn (K).
(i) Le rang d’un endomorphisme étant égal au rang de sa matrice représentative dans n’importe quelle
base, rg(M ) = rg(M 0 ).
(ii) Tr(M 0 ) = Tr(P −1 M P ) = Tr(P −1 (M P )) = Tr((M P )P −1 ) = Tr(M ) car Tr(AB ) = Tr(B A) ;
1
(iii) det(M 0 ) = det(P −1 M P ) = det(P −1 ) det(M ) det(P ) = det(M ) det(P ) = det(M ). „
det(P )
Le déterminant et la trace étant invariants par changement de base, on peut donner la définition suivante.

Définition 1.81
On appelle déterminant (respectivement trace) d’un endomorphisme f et on note det(f ) (respectivement
Tr(f )), le déterminant (respectivement la trace) de toute matrice représentative de f .

Exemple
Dans l’exemple 1, on vérifie bien que : Tr(M ) = Tr(M 0 ) = 4 et det(M ) = det(M 0 ) = 3.

Théorème 1.82 : Formule de changement de base (généralisation)


Soit f ∈ L (E , F ). On considère deux bases B et B 0 de E et deux bases C et C 0 de F . On pose P = PB→B 0 ,
Q = PC →C 0 ainsi que M = MatB,C (f ) et M 0 = MatB 0 ,C 0 (f ). On a alors :

M 0 = Q −1 M P

Définition 1.83 : Matrices équivalentes


Soient M , M 0 ∈ Mn,p (K). M et M 0 sont dites équivalentes s’il existe deux matrices P ∈ GLp (K) et Q ∈ GLn (K)
telles que :
M 0 = Q −1 M P

On rappelle que lorsque M et M 0 sont deux matrices équivalentes, on peut passer de M à M 0 par une série
d’opérations élémentaires sur les lignes, c’est même une caractérisation des matrices équivalentes.

Théorème 1.84
Deux matrices de Mn,p (K) sont équivalentes si, et seulement si, elles ont le même rang.

6 – Matrice, image et noyau

Il est souvent plus simple de travailler avec des matrices que des applications linéaires.
Soit B = (e1 , . . . , en ) une base de E .

Pour déterminer le noyau d’une application linéaire, on pourra procéder comme suit :

x ∈ Ker(f ) ⇐⇒ M X = 0 avec X = MatB (x ) et M = MatB (f )

Exemple
L’endomorphisme ϕ : P 7→ X P 0 − P de R2 [X ] admet comme matrice dans labase canonique
 : ϕ(1) = −1,
−1 0 0
ϕ(X ) = 0 et ϕ(X 2 ) = X 2 donc la matrice de ϕ dans la base canonique est M =  0 0 0. D’où,
0 0 1

© Mickaël PROST Année 2021/2022


Partie II – Applications linéaires 25

Exemple (suite)
              
−1 0 0 a 0 −a 0 a 0 0
P = a + b X + c X 2 ∈ Ker(ϕ) ⇐⇒  0 0 0 b  = 0 ⇐⇒  0  = 0 ⇐⇒ b  = b  = b 1
0 0 1 c 0 c 0 c 0 0
 
0
Attention à ne pas conclure que Ker(ϕ) = Vect 1, n’oublions pas que Ker(ϕ) ⊂ R2 [X ]. On travaillait
0
jusqu’à présent avec des coordonnées. On a en fait Ker(ϕ) = Vect(X ).

Pour déterminer l’image d’une application linéaire, on pourra procéder comme suit :

x ∈ Im(f ) ⇐⇒ x ∈ Vect(f (e1 ), . . . , f (en ))


⇐⇒ X ∈ Vect(C1 , . . . , Cn ) avec X = MatB (x ) et Ci la ie colonne de M = MatB (f )

Exemple (suite)
La matrice de l’exemple précédent nous donne directement Im(ϕ) = Vect(−1, 0, X 2 ) = Vect(1, X 2 ). Cette
famille génératrice est même une base car (1, X 2 ) est libre.

7 – Rang d’une matrice / d’une famille de vecteurs / d’une application linéaire

Il reste pour finir à faire le lien entre les différentes notions de rang apparues tout au long du chapitre. Rappelons
que l’on avait défini :
• le rang d’un système linéaire comme le nombre de pivots de n’importe quel système échelonné équivalent ;
• le rang d’une matrice comme le rang du système homogène associé ;
• le rang d’une famille de vecteurs comme la dimension du sous-espace vectoriel engendré par ces vecteurs ;
• le rang d’une application comme la dimension de son image.

La cohérence de ces définitions est vérifiée grâce au résultat suivant :

Théorème 1.85
Soit f ∈ L (E , F ) où E et F sont de dimension finie, avec B une base de E et B 0 une base de F .
Si on note M = MatB,B 0 (f ), alors rg(f ) = rg(M ).

Démonstration
L’image de f est engendrée par f (B) = (f (e1 ), . . . , f (en )) donc :

rg(f ) = dim(Im(f )) = dim(Vect(f (e1 ), . . . , f (en ))) = rg(f (e1 ), . . . , f (en ))


= rg(MatB 0 (f (e1 ), . . . , f (en ))) = rg(M )

Proposition 1.86
 
I 0
Soit M ∈ Mn,p (K) de rang r . Alors M est équivalente à Jr = r ∈ Mn,p (K).
0 0

Démonstration
Notons f ∈ L (Kp , Kn ) l’application linéaire canoniquement associée à M .
Construisons une base B = (e1 , . . . , ep ) de Kp et une base C = (f1 , . . . , fn ) de Kn telles que MatB,C (f ) = Jr .
• Ker(f ) étant de dimension p − r (théorème du rang), considérons une base de (e r +1 , . . . , ep ) de Ker(u )
que l’on complète en une base B = (e1 , . . . , ep ) de Kp .
Les p − r dernières colonnes de MatB,C (f ) seront nulles.

Année 2021/2022 Lycée Jacques-Decour – MP


26 Chap. 1 Compléments d’algèbre linéaire

Démonstration (suite)
• Pour obtenir les p colonnes que l’on souhaite, il suffit de poser f j = f (e j ) pour j ∈ ¹1, r º. Cette dernière
famille est libre puisque c’est l’image d’une famille libre par l’isomorphisme f| Vect(e1 ,...,e r ) qui n’est rien
d’autre que la restriction de f à un supplémentaire de Ker(f ) : c’est le théorème du rang qu’on utilise
ici. On complète alors cette famille (f1 , . . . , f r ) en une base C = (f1 , . . . , fn ) de Kn . „

D – Sous-espaces stables et endomorphismes induits (?)

Définition 1.87
On dit qu’un sous-espace vectoriel F ⊂ E est stable par f ∈ L (E ) si f (F ) ⊂ F , autrement dit si :

∀x ∈ F, f (x ) ∈ F

Si c’est le cas, l’application restreinte f|F définie sur F par f|F (x ) = f (x ) est à valeurs dans F .
Étant de plus linéaire, f|F est un endomorphisme de F , appelé endomorphisme induit.

Définition 1.88
Soit E un espace vectoriel de dimension n . On suppose que F est un s.e.v. de E stable par f ∈ L (E ).
L’application f|F est est appelée endomorphisme induit.

Si (e1 , . . . , ep ) est une base de F que l’on complète en une base (e1 , . . . , en ) de E , on a alors :

f (e1 ) ··· f (ep ) f (ep +1 ) · · · f (en )


 
e1
..
?

. Mat f|F
 
 
ep 
 

 = Mat(f )
 

ep +1 



.. 
?

.  0 
en

Si E = F ⊕ G et si F et G sont stables par f , on aura dans une base adaptée :


f (e1 ) ··· f (ep ) f (ep +1 ) · · · f (en )
 
e1
.. 
. Mat f|F 0
 
 
ep 
 

 = Mat(f )
 

ep +1 



..   
.  0 Mat f|G 
en

Réciproquement, toute présence de blocs nuls dans une matrice définie par blocs peut s’interpréter comme
une condition de stabilité.

Exemple
Soit f l’endomorphisme de R4 donc la matrice dans la base canonique (e1 , e2 , e3 , e4 ) est la suivante :
 
1 2 0 0
3 4 0 0
M = 0 0 5 6

0 0 7 8

Posons F = Vect(e1 , e2 ) et G = Vect(e3 , e4 ). F et G sont stables par f et les blocs non nuls font apparaître les
matrices représentatives des endomorphismes induits f|F et f|G respectivement dans les bases (e1 , e2 ) de F
et (e3 , e4 ) de G .

© Mickaël PROST Année 2021/2022


Partie II – Applications linéaires 27

Exercice 7
Soit E = R[X ] et ϕ l’aplication définie sur E par ϕ(P ) = X 2 P 0 − (2X + 1)P .
(i) Montrer que ϕ est un endomorphisme de E .
(ii) Montrer que R2 [X ] est stable par ϕ. On note ϕ̃ l’endomorphisme induit.
(iii) Déterminer la matrice de ϕ̃ dans la base canonique de R2 [X ].

E – Endomorphismes remarquables d’un espace vectoriel


1 – Homothétie

On appelle homothétie de rapport λ l’application linéaire h définie par :

∀x ∈ E , h (x ) = λx

Autrement dit, h = λidE et quelle que soit la base B de E , MatB (h ) = λIn .

2 – Projecteur vectoriel

Définition 1.89 : Projecteur vectoriel


On suppose que E = F ⊕ G . Si x ∈ E , il existe un unique couple (x1 , x2 ) ∈ F × G tel que x = x1 + x2 .
On appelle projection sur F parallèlement à G l’application linéaire p définie par :
∀x ∈ E , p (x ) = x1

L’application p est linéaire et on a alors : F = Im(p ), G = Ker(p ) donc E = Im(p ) ⊕ Ker(p ).

x
)
p (x
x−
x2 =

F
x1 = p (x )

Projection d’un vecteur x sur F parallèlement à G

Théorème 1.90 : Caractérisation des projecteurs


Soit p ∈ L (E ). p est une projection vectorielle sur Im(p ), parallèlement à Ker(p ) ssi p ◦ p = p .

Démonstration
En utilisant les notations de la définition,
=⇒ Supposons que p est la projection vectorielle sur F parallèlement à G et considérons x ∈ E .

p (p (x )) = p (x1 ) = x1 = p (x ) car x1 ∈ F

⇐= Supposons que p ◦ p = p et montrons que E = Im p ⊕ Ker p .


• E = Im(p ) + Ker(p ). En effet, pour tout x ∈ E , x = p (x ) + (x − p (x )). p (x ) ∈ Im(p ), reste à montrer
que x − p (x ) ∈ Ker(p ) ce qui est bien le cas car :

p (x − p (x )) = p (x ) − p (p (x )) = p (x ) − p (x ) = 0E

Année 2021/2022 Lycée Jacques-Decour – MP


28 Chap. 1 Compléments d’algèbre linéaire

• De plus, Im p ∩ Ker p = {0E }. En effet, soit x ∈ Im p ∩ Ker p .


On a donc p (x ) = 0E et il existe y ∈ E tel que x = p (y ). Ainsi, p (x ) = 0E = p (p (y )) = p (y ) = x et on a
bien x = 0E .
Donc on a bien E = Im p ⊕ Ker p .
Enfin, si x = x1 + x2 avec (x1 , x2 ) ∈ Im p × Ker p alors,

p (x ) = p (x1 + x2 ) = p (x1 ) + p (x2 ) = p (x1 ) = p (p (y1 )) = p (y1 ) = x1

p est bien la projection vectorielle sur Im(p ) parallèlement à Ker(p ). „

Exemple
Montrons que si p est un projecteur, alors Im(p ) = Ker(p − idE ).
• Im(p ) ⊂ Ker(p − idE )
Soit x ∈ Im(p ). Il existe y ∈ E tel que x = p (y ).
Or (p − idE )(x ) = p (x ) − x = p (p (y )) − p (y ) = 0E donc x ∈ Ker(p − idE ).
• Ker(p − idE ) ⊂ Im(p )
Soit x ∈ Ker(p − idE ). On a p (x ) − x = 0E donc x = p (x ) ∈ Im(p ).

Exercice 8
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est :
 
1 2 1
M = −1 −2 −1
2 4 2

Montrer que f est un projecteur et préciser ses caractéristiques géométriques.

Soit p une projection vectorielle. Comme nous ve- Dans cette base, la matrice de p est diagonale.
nons de le voir, tout vecteur x ∈ Ker(p ) vérifie  
1
p (x ) = 0E et tout vecteur x ∈ Im(p ) vérifie p (x ) = x .
..
Considérons maintenant une base B adaptée à  . 
 
1
E = Im(p )⊕Ker(p ) obtenue par concaténation d’une MatB (p ) = 
 
0

base de Im(p ) et d’une base de Ker(p ). 
..

.
 
0

Si l’on pose q = idE − p , q est également un projecteur : il s’agit du projecteur sur G parallèlement à F .
On a p ◦ q = q ◦ p = 0L (E ) et p + q = idE .
Généralisons ce résultat pour une somme directe de n espaces vectoriels en supposant donc que

E = E1 ⊕ · · · ⊕ En

Ainsi, tout vecteur x de E se décompose de façon unique sous la forme x = x1 + · · · + xn où xi ∈ Ei . Notons


alors, pour i ∈ ¹1, n º, pi l’application définie sur E par pi (x ) = xi . On montre aisément le résultat suivant :

Proposition 1.91
n
M
Pour tout i ∈ ¹1, n º, pi est la projection vectorielle sur Ei parallèlement à Ek . De plus,
k =1
k 6=i

p1 + · · · + pn = idE et ∀i 6= j , pi ◦ p j = 0L (E )

© Mickaël PROST Année 2021/2022


Partie II – Applications linéaires 29

3 – Symétrie vectorielle

Définition 1.92 : Symétries vectorielles


On suppose que E = F ⊕ G . Si x ∈ E , il existe un unique couple (x1 , x2 ) ∈ F × G tel que x = x1 + x2 .
On appelle symétrie par rapport à F parallèlement à G l’application linéaire s définie par :

∀x ∈ E , s (x ) = x1 − x2 .

L’application s est linéaire et on a : F = Ker(s − idE ) et G = Ker(s + idE ), donc E = Ker(s − idE ) ⊕ Ker(s + idE ). On
rappelle que x ∈ Ker(s − idE ) ⇐⇒ s (x ) = x et x ∈ Ker(s + idE ) ⇐⇒ s (x ) = −x .

x2
F
x1
2
−x

s (x )

Symétrie d’un vecteur x par rapport à F et parallèlement à G

Attention, deux sous-espaces vectoriels F et G de E ne sont pas nécessairement orthogonaux 3 , les normes
des vecteurs x et s (x ) – sauf cas particuliers – sont distinctes.

Théorème 1.93 : Caractérisation des symétries


Soit s ∈ L (E ). s est une symétrie vectorielle par rapport à Ker(s − idE ) et parallèlement à Ker(s + idE ) si et
seulement si s ◦ s = idE .

Démonstration

=⇒ Supposons que s est la symétrie vectorielle par rapport à F , parallèlement à G et considérons x ∈ E .

s (s (x )) = s ( x1 + (−x2 )) = x1 + x2 = x
|{z} | {z }
∈F ∈G

⇐= Supposons que s ◦ s = idE .


(a) Montrons que E = Ker(s − idE ) ⊕ Ker(s + idE ). Procédons pour cela par analyse/synthèse.
• Analyse
Soit x ∈ E . On suppose qu’il existe deux vecteurs x1 ∈ Ker(s − idE ) et x2 ∈ Ker(s + idE ) tels que
x = x1 + x2 . On a s (x ) = x1 − x2 . Donc nécessairement,

x + s (x ) x − s (x )
x1 = et x2 =
2 2

• Synthèse
x + s (x ) x − s (x )
Soit x ∈ E . Posons x1 = et x2 = . On a bien x = x1 + x2 . De plus,
2 2
s (x ) + s (s (x )) x + s (x ) s (x ) − s (s (x )) x − s (x )
s (x1 ) = = = x1 et s (x2 ) = =− = −x2
2 2 2 2

3. La notion de produit scalaire, donc d’orthogonalité, dans un espace vectoriel quelconque sera abordée plus tard dans l’année.

Année 2021/2022 Lycée Jacques-Decour – MP


30 Chap. 1 Compléments d’algèbre linéaire

donc (x1 , x2 ) ∈ Ker(s − idE ) × Ker(s + idE ).


Nous avons donc prouvé que E = Ker(s − idE ) ⊕ Ker(s + idE ).
(b) Enfin, si x = x1 + x2 avec (x1 , x2 ) ∈ Ker(s − idE ) × Ker(s + idE ) alors,

s (x ) = s (x1 + x2 ) = s (x1 ) + s (x2 ) = x1 − x2

s est bien la symétrie vectorielle sur Ker(s − idE ) parallèlement à Ker(s + idE ). „

Exercice 9
Soit g l’endomorphisme de R3 dont la matrice dans la base canonique est :
 
1 −1 1
M = 2 −2 1
2 −1 0

Montrer que g est une symétrie vectorielle et préciser ses caractéristiques géométriques.

Soit s une projection vectorielle. Comme nous ve- Dans cette base, la matrice de s est diagonale.
nons de le voir, tout vecteur x ∈ Ker(s − idE ) véri-  
fie s (x ) = x et tout vecteur x ∈ Ker(s + idE ) vérifie 1
..
s (x ) = −x . Considérons maintenant une base B 
 . 

adaptée à E = Ker(s −idE )⊕Ker(s +idE ) obtenue par 1
MatB (s ) = 
 
−1

concaténation d’une base de Ker(s − idE ) et d’une 
..

.
 
base de Ker(s + idE ).
−1

Exercice 10
Pour chacun des endomorphismes précédemment définis (homothétie, projecteur, symétrie), préciser leur
trace, leur rang et leur déterminant. Sont-ils des automorphismes ?

III | Formes linéaires et hyperplans


E désigne dans tout ce paragraphe un espace vectoriel de dimension quelconque.

Définition 1.94 : Hyperplan


On appelle hyperplan de E tout sous-espace vectoriel de E admettant une droite comme supplémentaire.
Autrement dit, si H est un hyperplan de E , il existe u ∈ E non nul tel que E = H ⊕ Vect(u ).

D’après la définition d’un hyperplan, il est immédiat que


celui-ci est de dimension n − 1 lorsque E est un espace de di-
mension finie n . Réciproquement, tout espace de dimension
u n − 1 est un hyperplan de E d’après les propriétés précédem-
ment énoncées.
H
Ainsi, les hyperplans de R2 seront les droites vectorielles ; les
hyperplans de R3 les plans vectoriels.
Vect(u) Les hyperplans ne sont que la généralisation de la notion de
plan en dimension supérieure.
Représentation d’un hyperplan en dimension 3

Théorème 1.95 : Caractérisation d’un hyperplan en dimension finie


On suppose E de dimension n . H est un hyperplan de E si et seulement si dim(H ) = n − 1.

Tout droite du plan admet une équation de la forme a x + b y = 0 et tout plan de l’espace admet une équation
de la forme a x + b y + c z = 0. Nous allons généraliser ce résultat.

© Mickaël PROST Année 2021/2022


Partie III – Formes linéaires et hyperplans 31

Notons pour cela (x1 , . . . , xn ) les coordonnées d’un vecteur x dans une base quelconque de E et remarquons
que l’équation a 1 x1 + · · · + a n xn = 0 correspond au noyau d’une application linéaire bien choisie. Ce qui amène
naturellement au théorème suivant.
Théorème 1.96 : Caractérisation d’un hyperplan (bis)
H est un hyperplan de E si et seulement si H = Ker(ϕ) où ϕ ∈ L (E , K) est non nulle.

Une application ϕ : E → K linéaire est qualifiée de forme linéaire. Les hyperplans sont donc les noyaux des
formes linéaires non nulles.

Démonstration

=⇒ Soit H un hyperplan de E , donc un sous-espace de dimension n − 1. On considère alors une base


(e1 , . . . , en−1 ) de cet espace que l’on complète en une base (e1 , . . . , en ) de E . Comme tout élément
x ∈ E s’écrit de manière unique sous la forme x = x1 e1 + · · · + xn en , on peut considérer l’application
ϕ : x 7→ xn . ϕ est bien une forme linéaire (forme coordonnée). Elle est non nulle car ϕ(en ) = 1 et enfin :

x ∈ Ker(ϕ) ⇐⇒ ϕ(x ) = 0K ⇐⇒ x = x1 e1 + · · · + xn−1 en−1 ∈ H

⇐= Supposons maintenant que H = Ker(ϕ) avec ϕ ∈ L (E , K) non nulle.


Im ϕ ⊂ K donc 0 ¶ rg(ϕ) ¶ 1. Comme ϕ est non nulle, rg(ϕ) = 1 donc d’après le théorème du rang, on
a bien dim Ker ϕ = n − 1. „

Comme ϕ(x ) = ϕ(x1 e1 + · · · + xn en ) = x1 ϕ(e1 ) + · · · + xn ϕ(en ), on peut alors poser a i = ϕ(ei ) ∈ K pour tout
i ∈ ¹1, n º et on obtient l’équation linéaire recherchée :

x = x1 e1 + · · · + xn en ∈ H ⇐⇒ a 1 x1 + · · · + a n xn = 0

Attention, tout comme il n’y a pas unicité de l’équation d’un hyperplan dans une base donnée, il n’y a pas non
plus unicité de la forme linéaire ϕ.

Exercice 11
Soient H = Ker(ϕ) un hyperplan de E et a ∈ E \ Ker(ϕ).
Montrer que E = H ⊕ Vect(a ) et déterminer le projeté de x sur H parallèlement à Vect(a ).

Exemple
Déterminons un supplémentaire de F = {(x , y , z , t ) ∈ R4 | 3x − 2y + z = t }.
F est un hyperplan de R4 comme noyau de la forme linéaire non nulle (x , y , z , t ) 7→ 3x − 2y + z − t .
/ F pour avoir un supplémentaire de F (qui est la
D’après ce qu’il précède, il suffit de prendre un vecteur u ∈
droite vectorielle Vect(u)). On prendra par exemple u = (1, 1, 1, 1).

Proposition 1.97 : Intersection de p hyperplans


Soient E un espace de dimension n et p un entier inférieur ou égal à n .
(i) L’intersection de p hyperplans de E est un sous-espace de dimension au moins n − p .
(ii) Tout sous-espace de dimension n − p est l’intersection de p hyperplans de E .

Démonstration
Utilisons le théorème précédent pour prouver ce résultat.
(i) Considérons p hyperplans de E , notés H1 , . . . , Hp . Pour tout i ∈ ¹1, p º, notons ϕi une forme linéaire
non nulle de E telle que Hi = Ker(ϕi ). Considérons enfin l’application linéaire :

ϕ : E −→ Kp
x 7−→ (ϕ1 (x ), . . . , ϕp (x ))

Année 2021/2022 Lycée Jacques-Decour – MP


32 Chap. 1 Compléments d’algèbre linéaire

p
\ p
\
Ker(ϕ) = Ker(ϕi ) = Hi et, comme Im(ϕ) ⊂ Kp , d’après le théorème du rang :
i =1 i =1
 p
\

dim Hi = dim(E ) − rg(ϕ) ¾ n − p
i =1

Nous verrons en exercice comment procéder autrement en raisonnant par récurrence.


(ii) Considérons maintenant un sous-espace F de E de dimension n − p . Notons (ep +1 , . . . , en ) une base
de F que l’on complète en une base (e1 , . . . , ep , ep +1 , . . . , en ) de E . Posons alors :

∀i ∈ ¹1, p º Hi = Vect (ek )


1¶k ¶n
k 6=i

On laisse aux lecteurs le soin de montrer que les espaces Hi sont des hyperplans dont l’intersection est
égale à F . „

Considérons le système d’équation linéaires n × p sans second membre suivant :

a 11 x1 + a 12 x2 + · · · + a 1n xn = 0



..





 .
(Σ) a i 1 x1 + a i 2 x2 + · · · + a i n xn = 0


 ..


 .

a p 1 xp + a p 2 x2 + · · · + a p n xn = 0

L’ensemble des solutions de ce système est un sous-espace vectoriel de Kn . Il peut s’interpréter naturellement
comme l’intersection de p hyperplans, chaque équation linéaire représentant un hyperplan donné. D’après ce
qui précède, l’ensemble des solutions sera donc un espace vectoriel de dimension au moins n − p . Attention
cependant, la dimension ne sera égale à n −p que si les équations sont linéairement indépendantes. Dans le cas
d’équations indépendantes, chaque équation supplémentaire impose une nouvelle contrainte sur l’ensemble
des solutions, d’où la perte d’un degré de liberté.

Exemples
Considérons les deux systèmes :

 x + 2y + z = 0  x + 2y + z = 0
 

(Σ1 ) 2x − y + z = 0 (Σ2 ) 2x − y + z = 0
x + 2y − z = 0 3x + y + 2z = 0
 

Les deux premières équations de ces deux systèmes sont linéairement indépendantes. L’ensemble des
solutions est donc de dimension au plus 1. La dernière équation de (Σ1 ) est linéairement indépendante des
deux autres donc l’ensemble des solutions est de dimension 0, seul le triplet (0, 0, 0) est solution. La dernière
équation de (Σ2 ) étant quant à elle la somme des deux premières, l’ensemble des solutions est un espace de
dimension 1, c’est la droite vectorielle d’équations :

x + 2y + z = 0


2x − y + z = 0

© Mickaël PROST Année 2021/2022

Vous aimerez peut-être aussi