Vous êtes sur la page 1sur 24

Christophe Bertault — Mathématiques en MPSI

APPLICATIONS LINÉAIRES

Dans ce chapitre, K est l’un des corps R ou C et I est un ensemble non vide quelconque. Tous les résultats présentés sont
en réalité vrais pour un corps K quelconque — à l’exception de ceux du paragraphe sur les symétries.

1 APPLICATIONS LINÉAIRES, ÉQUATIONS LINÉAIRES

1.1 DÉFINITION ET PREMIERS EXEMPLES

Définition (Application linéaire) Soient E et F deux K-espaces vectoriels. On appelle application linéaire de E dans F
toute application f : E −→ F qui préserve les combinaisons linéaires :

∀x, y ∈ E, ∀λ, µ ∈ K, f (λx + µ y) = λ f (x) + µ f ( y).

L’ensemble des applications linéaires de E dans F est noté L (E, F ).


Cas particulier où E = F : Une application linéaire de E dans E est aussi appelée un endomorphisme de E. L’ensemble
des endomorphismes de E est noté L (E).
Cas particulier où F = K : Une application linéaire de E dans K est aussi appelée une forme linéaire de E.

 Explication  Soient E et F deux K-espaces vectoriels et f ∈ L (E, F ).

• Remarquons que : f (0 E ) = f (0 E + 0 E ) = f (0 E ) + f (0 E ), donc après simplification : f (0 E ) = 0 F .

• Si A est un sous-espace vectoriel de E, alors f A est aussi linéaire — mais sur A. En effet, s’il est vrai pour tous x, y ∈ E
et λ, µ ∈ K que : f (λx + µ y) = λ f (x) + µ f ( y), c’est a fortiori vrai pour tous x, y ∈ A .

Définition (Homothétie)
§ Soient E un K-espace vectoriel et λ ∈ K. On appelle homothétie de E de rapport λ l’application
E −→ E
λId E , i.e. : Cette application est un endomorphisme de E. En particulier : Id E ∈ L (E).
x 7−→ λx.

Démonstration Pour tous x, y ∈ E et α, β ∈ K :

(λId E )(αx + β y) = λ(αx + β y) = α(λId E )(x) + β (λIdE )( y). „

f 
Exemple L’application (x, y) 7−→ x, x + y, x − 2 y est linéaire de R2 dans R3 .
Démonstration Pour tous (x, y), (x ′ , y ′ ) ∈ R2 et λ, λ′ ∈ R :
€ Š  €    Š
f λ(x, y) + λ′ (x ′ , y ′ ) = f λx + λ′ x ′ , λ y + λ′ y ′ = λx + λ′ x ′ , λx + λ′ x ′ + λ y + λ′ y ′ , λx + λ′ x ′ − 2λ y + 2λ′ y ′
 
= λ x, x + y, x − 2 y + λ′ x ′ , x ′ + y ′ , x ′ − 2 y ′ = λ f (x, y) + λ′ f (x ′ , y ′ ).

Exemple
• Pour tout x ∈ K, l’application P 7−→ P(x) d’évaluation en x est une FORME linéaire de K[X ].
• Pour tout A ∈ K[X ], l’application P 7−→ AP de multiplication par A est un endomorphisme de K[X ].
• Pour tout Q ∈ K[X ], l’application P 7−→ P ◦ Q de composition À DROITE par Q est un endomorphisme de K[X ].
• L’application P 7−→ P ′ de dérivation est un endomorphisme de K[X ].

1
Christophe Bertault — Mathématiques en MPSI

Exemple
• Pour tout intervalle I , l’application f 7−→ f ′ est linéaire de D(I , R) dans RR ou de C 1 (I , R) dans C (I , R). Comme elle
envoie C ∞ (I , R) dans lui-même, c’est également un endomorphisme de C ∞ (I , R).
Z1

• L’application f 7−→ f est une FORME linéaire de C [0, 1], R .
0
• L’application u 7−→ lim un est une FORME linéaire de l’espace vectoriel des suites réelles convergentes.
n→+∞

Exemple
ϕ
• L’application (x, y) 7−→ x + y + 1 N’est PAS linéaire de R2 dans R car : ϕ(0, 0) = 1 6= 0.
ψ 
• L’application (x, y) 7−→ x 2 + y 2 N’est PAS linéaire de R2 dans R car : ψ 2(1, 1) = ψ(2, 2) = 8 6= 4 = 2ψ(1, 1).

Définition-théorème (Application linéaire canoniquement associée à une matrice) Soit A ∈ Mn,p (K). L’application
X 7−→ AX est linéaire de K p dans Kn et appelée l’application linéaire canoniquement associée à A. Nous la noterons souvent
b dans ce cours mais il ne s’agit pas là d’une notation universelle.
A

 Explication 
• L’application X 7−→ AX est définie de K p dans Kn et non l’inverse pour une simple raison de compatibilité des formats.

• Pour tous A ∈ M p,q (K) et B ∈ Mq,r (K) : c =A


AB b◦ B
b car pour tout X ∈ K r :

c ) = (AB)X = A(BX ) = A(BX
AB(X b )=A bBb(X ) = Ab◦ Bb(X ).

 ‹
0 1 2
Exemple L’application linéaire canoniquement associée à est l’application (x, y, z) 7−→ ( y + 2z, 3x + 4 y + 5z)
3 4 5
de R3 dans R2 .

Définition-théorème (Formes coordonnées relativement à une base) Soit E un K-espace vectoriel. On suppose que
E possède une base B = (ei )i∈I . Pour tout i ∈ I , l’application qui associe à tout vecteur de E sa coordonnée dans B selon
le vecteur ei est une forme linéaire de E appelée la i ème forme coordonnée de E (dans B ).

Démonstration
X Xx, y ∈ X
Soient E de coordonnées respectives (x i )i∈I , ( yi )i∈I dans B et λ, µ ∈ K. Comme :
 
λx +µ y = λ x i ei +µ yi ei = λx i +µ yi ei , le vecteur λx +µ y admet λx i +µ yi i∈I pour coordonnées
i∈I i∈I i∈I
dans B . En particulier, pour tout i ∈ I , la coordonnée selon ei de λx + µ y est λx i + µ yi . Si on y réfléchit bien,
c’est exactement la linéarité souhaitée. „

Exemple
• Les formes coordonnées de R3 pour sa base canonique sont les applications (x, y, z) 7−→ x, (x, y, z) 7−→ y et
(x, y, z) 7−→ z.
• Les formes coordonnées de R3 [X ] pour sa base canonique sont les applications P 7−→ d, P 7−→ c, P 7−→ b et P 7−→ a
si on note a, b, c, d les coefficients de P : P = aX 3 + bX 2 + cX + d.

Théorème (Composition d’applications linéaires) Soient E, F et G trois K-espaces vectoriels. Pour tous f ∈ L (E, F )
et g ∈ L (F, G) : g ◦ f ∈ L (E, G).

Démonstration Pour tous x, y ∈ E et λ, µ ∈ K :


      
g ◦ f (λx + µ y) = g f (λx + µ y) = g λ f (x) + µ f ( y) = λg f (x) + µg f ( y) = λ g ◦ f (x) + µ g ◦ f ( y). „

ψ 
Exemple L’application P 7−→ X P ′ X 2 est un endomorphisme de K[X ].
 
Démonstration Les applications P 7−→ P ′ , P 7−→ P X 2 et P 7−→ X P sont linéaires, donc P 7−→ X P ′ X 2 aussi
par composition.

2
Christophe Bertault — Mathématiques en MPSI

Z 1
χ  
Exemple L’application f 7−→ f t 2 dt est linéaire de C [0, 1], R dans R.
0 Z 1

Démonstration Les applications f 7−→ f ◦ t 7−→ t 2 et f 7−→ f (x) dx sont linéaires, donc χ aussi par
0
composition.

1.2 IMAGE D’UN SOUS -ESPACE VECTORIEL PAR UNE APPLICATION LINÉAIRE

Théorème (Image d’un sous-espace vectoriel par une application linéaire) Soient E et F deux K-espaces vectoriels
et f ∈ L (E, F ).
• Pour tout sous-espace vectoriel A de E, l’image f (A) de A par f est un sous-espace vectoriel de F .
• En particulier, Im f = f (E) est un sous-espace vectoriel de F sur lequel on peut lire la surjectivité de f :
f est surjective de E sur F ⇐⇒ Im f = F .

Démonstration Soit A un sous-espace vectoriel de E. Montrons que f (A) est un sous-espace vectoriel de F .
Pour commencer : f (A) ⊂ F et 0 F = f (0 E ) ∈ f (A). Ensuite, pour la stabilité par combinaison linéaire,
soient y, y ′ ∈ f (A) et λ, λ′ ∈ K, disons : y = f (a) et y ′ = f (a′ ) pour certains a, a′ ∈ A. Par linéarité
de f : λ y + λ′ y ′ = λ f (a) + λ′ f (a′ ) = f λa + λ′ a′ , et par ailleurs λa + λ′ a′ ∈ A car A est un sous-espace
vectoriel de E, donc comme voulu : λ y + λ′ y ′ ∈ f (A). „

g 
Exemple L’image de l’endomorphisme (x, y, z) 7−→ x +2 y +z, 2x + y −z, x +2 y +z de R3 est le plan d’équation : z = x.

Démonstration Pour tout (x, y, z) ∈ R3 : (x, y, z) ∈ Im g ⇐⇒ ∃ (a, b, c) ∈ R3 / (x, y, z) = g(a, b, c)


 C’est l’ EXISTENCE
 a + 2b + c = x d’un antécédent qui compte.
⇐⇒ ∃ (a, b, c) ∈ R3 / 2a + b − c = y
 a + 2b + c = z

 a + 2b + c = x
⇐⇒ ∃ (a, b, c) ∈ R3 / 3b + 3c = 2x − y L 2 ← 2L 1 − L 2 ⇐⇒ z = x.
 0 = z−x L3 ← L3 − L1

La dernière équivalence dans laquelle le système disparaît n’est pas un tour de passe-passe à reproduire bêtement.
Le système final possède une solution — EXISTENCE — si et seulement si : z = x. Il est clair qu’il n’a pas de
solution si : z 6= x, et on en obtient si : z = x en utilisant c comme paramètre.

Théorème (Image d’un Vect par une application linéaire) Soient E et F deux K-espaces vectoriels et f ∈ L (E, F ).
€ Š € Š
• Pour toute partie X de E : f Vect(X ) = Vect f (X ) .
€ Š
• En particulier, si E possède une base (ei )i∈I : Im f = Vect f (ei ) .
i∈I

 
Démonstration ¨ « ¨ ‚ Œ« ¨ «
€ Š X X X € Š
f Vect(X ) = f  λi x i = f λi x i = λi f (x i ) = Vect f (X ) .
i∈I (λi )i∈I ∈K I i∈I (λi )i∈I ∈K I i∈I (λi )i∈I ∈K I
presque nulle presque nulle presque nulle
€ Š € Š
Dans le cas particulier d’une base (ei )i∈I de E : Im f = f (E) = f Vect(ei )i∈I = Vect f (ei ) . „
i∈I

 € Š
Exemple On note f l’application linéaire (x, y) 7−→ 2x + y, 3x + 5 y, y de R2 dans R3 . Alors (2, 3, 0), (1, 5, 1) est une
base de Im f .
€ Š € Š € Š
Démonstration La famille (1, 0), (0, 1) est une base de R2 , donc f (1, 0), f (0, 1) = (2, 3, 0), (1, 5, 1)
engendre Im f d’après le théorème précédent, et cette famille est évidemment libre.

3
Christophe Bertault — Mathématiques en MPSI

Exemple Pour tout n ∈ N∗ , l’image de la dérivation D des polynômes sur Kn [X ] est Kn−1 [X ].

Démonstration Comme 1, X , . . . , X n est une base de Kn [X ] :
€ Š € Š € Š
Im D = Vect D(1), D(X ), . . . , D X n = Vect 0, 1, 2X , . . . , nX n−1 = Vect 1, X , . . . , X n−1 = Kn−1 [X ].

Définition-théorème (Image d’une matrice) Soit A ∈ Mn,p (K) de colonnes C1 , . . . , C p .


• Définition : On appelle image de A et on note Im A l’image de son application linéaire canoniquement associée
X 7−→ AX de K p dans Kn .
• Lien avec les colonnes : Im A = Vect(C1 , . . . , C p ).

Démonstration € Š 
Notons (Ei )1¶i¶n la base canonique de Kn : b i)
Im A = Vect A(E = Vect AEi = Vect(Ci )1¶i¶n . „
1¶i¶n 1¶i¶n
 
1 1 4 0 € Š
Exemple L’image de la matrice 0 1 0 1 est le sous-espace vectoriel de R3 : Vect (1, 0, 1), (1, 1, 2), (4, 0, 4), (0, 1, 1)
1 2 4 1 € Š
= Vect (1, 0, 1), (0, 1, 1) .

1.3 ÉQUATIONS LINÉAIRES ET NOYAU D ’UNE APPLICATION LINÉAIRE

Nous avons déjà rencontré beaucoup d’équations linéaires, mais nous n’avions pas jusqu’ici un concept clair de linéarité.
On approfondit dans ce paragraphe en les généralisant quelques-unes de vos connaissances antérieures, dont le fameux :
« Solution générale de l’équation complète = solution particulière + solution générale de l’équation homogène ».

Théorème (Image réciproque d’un sous-espace vectoriel par une application linéaire) Soient E et F deux K-espaces
vectoriels, f ∈ L (E, F ) et B un sous-espace vectoriel de F . L’image réciproque f −1 (B) de B par f est alors un sous-espace
vectoriel de E.

Démonstration Pour commencer : f −1 (B) ⊂ E et 0 E ∈ f −1 (B) car : f (0 E ) = 0 F . Pour la stabilité


par combinaison linéaire, soient x, x ′ ∈ f −1 (B) et λ, λ′ ∈ K. Par hypothèse : f (x) ∈ B et f (x ′ ) ∈ B et B
est un sous-espace vectoriel de F , donc : λ f (x) + λ′ f (x ′ ) ∈ B. Or : f λx + λ′ x ′ = λ f (x) + λ′ f (x ′ ) par

linéarité de f , donc : f λx + λ′ x ′ ∈ B, i.e. : λx + λ′ x ′ ∈ f −1 (B) comme voulu. „

Définition-théorème (Noyau d’une application linéaire ou d’une matrice)


• Soient E et F deux K-espaces vectoriels et f ∈ L (E, F ). On appelle noyau de f et on note Ker f l’ensemble :
€ Š 
Ker f = f −1 0 F = x ∈ E/ f (x) = 0 F .

Il s’agit là d’un sous-espace vectoriel DE E et on peut notamment y lire l’injectivité de f :



f est injective sur E ⇐⇒ Ker f = 0 E .

• Soit A ∈ Mn,p (K). On appelle noyau de A le noyau de son application linéaire canoniquement associée, noté Ker A,
qui est donc un sous-espace vectoriel de K p .

 Explication  Le noyau de f n’est jamais que l’ensemble des solutions de l’ÉQUATION LINÉAIRE HOMOGÈNE :
f (x) = 0 F d’inconnue x ∈ E. On peut dire aussi que Ker f est l’ensemble des éléments de E qui ne comptent pas aux
yeux de f , qu’elle ne voit pas. En effet, pour tous x ∈ E et k ∈ Ker f : f (x + k) = f (x) par linéarité.

 En pratique 
• En tant que sous-espace vectoriel deE, Ker f contient 0 E , donc pour montrer que f est injective, il suffit en réalité
de montrer l’INCLUSION : Ker f ⊂ 0 E .

4
Christophe Bertault — Mathématiques en MPSI

 
1 2 3 −6
• Le noyau d’une matrice se lit souvent bien sur ses coefficients. Notons par exemple A la matrice 0 1 1 −2 et
1 1 2 −4
   
1
0
1
C1 , C2 , C3 , C4 ses colonnes. L’égalité : C3 = C1 + C2 , i.e. : C1 + C2 − C3 = 0, s’écrit aussi : A   = 0,
−1
0
0
   
1 1
1 1
ou encore : −1 ∈ Ker A. De la même manière : C1 + C2 + C3 + C4 = 0, donc : 1 ∈ Ker A.
0 1

Démonstration
 
• Supposons f injective et montrons qu’alors : Ker f = 0 E . ou encore : Ker f ⊂ 0 F . Or pour
tout x ∈ Ker f : f (x) = 0 F = f (0 E ), donc comme f est injective : x = 0 E .

• Sous l’hypothèse que : Ker f = 0 E , montrons que f est injective. Soient x, x ′ ∈ E pour lesquels :
 
f (x) = f (x ′ ). Alors : f x − x ′ = f (x) − f (x ′ ) = 0 F par linéarité, donc : x − x ′ ∈ Ker f = 0 E ,
donc : x − x ′ = 0 E , i.e. : x = x ′ . „

D
Exemple La dérivation polynomiale P 7−→ P ′ sur K[X ] a pour noyau : Ker D = K0 [X ].


Exemple Notons f l’application linéaire (x, y, z) 7−→ 2x + y − z, x − y de R3 dans R2 .
€ Š  ‹
2 1 −1
Alors : Ker f = Vect (1, 1, 3) , mais comme f est l’application linéaire canoniquement associée à la matrice ,
1 −1 0
 ‹ € Š
2 1 −1
on peut aussi dire que : Ker = Vect (1, 1, 3) .
1 −1 0
Démonstration Pour tout (x, y, z) ∈ R3 : (x, y, z) ∈ Ker f ⇐⇒ f (x, y, z) = (0, 0)
§ §
2x + y − z = 0 y = x
⇐⇒ ⇐⇒
x − y = 0 z = 3x,
 € Š
donc : Ker f = (x, x, 3x) x∈R = Vect (1, 1, 3) .

 ‹
1 2 ϕ
Exemple On pose : A= . L’endomorphisme M 7−→ AM − tr(M )A de M2 (R) est injectif.
2 1
  ‹
a c
Démonstration Il nous suffit de montrer l’inclusion : Ker ϕ ⊂ 0 , or pour tout M = ∈ M2 (R)
b d
 ‹
2b − d c − 2a
avec a, b, c, d ∈ R : ϕ(M ) = après calcul, donc si M ∈ Ker ϕ, alors en effet : M = 0
b − 2d 2c − a
car : 2b − d = b − 2d = c − 2a = 2c − a = 0.

S
Exemple L’endomorphisme f 7−→ f × sin de RR N’est PAS injectif, mais sa restriction S C (R,R)
l’est.
Démonstration
• Le noyau Ker S de S est l’ensemble des fonctions f pour lesquelles pour tout x ∈ R : f (x) sin x = 0,
c’est donc l’ensemble des fonctionsde R dans R qui sont nulles sur R \ πZ — mais de valeurs quelconques
sur πZ. En particulier : Ker S 6= 0RR , donc S N’est PAS injective.
¦ ©
• Ensuite : Ker S C (R,R) = f ∈ C (R, R)/ S( f ) = 0RR = C (R, R) ∩ Ker S. Or dans Ker S, seule la

fonction nulle est CONTINUE, donc : Ker S C (R,R) = 0RR , et donc S C (R,R) est injective.

 En pratique  Que faut-il retenir de l’exemple précédent ? Soient E et F deux K-espaces vectoriels, f ∈ L (E, F ) et A

un sous-espace vectoriel de E. Alors : Ker f A = A ∩ Ker f , mais par contre ATTENTION : Im f A = A ∩ Im f ,

ne serait-ce que pour la raison suivante : Im f ⊂ F alors que : A ⊂ E.

5
Christophe Bertault — Mathématiques en MPSI

Théorème (Solutions d’une équation linéaire) Soient E et F deux K-espaces vectoriels, f ∈ L (E, F ) et y0 ∈ F .
• Si : y0 ∈
/ Im f , l’équation : f (x) = y0 d’inconnue x ∈ E n’a pas de solution.
• Si : y0 ∈ Im f , l’ensemble des solutions de l’équation : f (x) = y0 d’inconnue x ∈ E est un sous-espace
affine de E de direction Ker f .

Solution générale Solution générale


 Explication  Solution particulière
de l’équation complète de l’équation HOMOGÈNE

Démonstration Dans le cas où y0 ∈ Im f : y0 = f (x 0 ) pour un certain x 0 ∈ E, donc pour tout x ∈ E :


y0 = f (x) ⇐⇒ f (x 0 ) = f (x) ⇐⇒ f (x − x 0 ) = 0 F ⇐⇒ x − x 0 ∈ Ker f ⇐⇒ x ∈ x 0 + Ker f .
L’ensemble des solutions de l’équation : f (x) = y0 d’inconnue x ∈ E est ainsi l’ensemble x 0 + Ker f , donc
un sous-espace affine de E de direction Ker f . „

Exemple On note (un )n∈N la suite définie par : u0 = 0 et u1 = 5 et pour tout n ∈ N : un+2 = 3un+1 − 2un − 4.
Pour tout n ∈ N : un = 2n + 4n − 1.
Démonstration
T 
• L’application (x n )n∈N 7−→ x n+2 − 3x n+1 + 2x n n∈N est linéaire de RN dans RN comme on le vérifie aisé-

ment. La suite (un )n∈N étudiée est donc une solution de l’équation LINÉAIRE : T (x n )n∈N = (−4)n∈N
d’inconnue (x n )n∈N .
• Les solutions de l’équation homogène associée sont toutes les suites récurrentes linéaires d’ordre 2 de po-
lynôme caractéristique X 2 − 3X + 2, i.e. les suites 2n λ + µ n∈N , λ et µ décrivant R.
• Il est facile de vérifier que la suite (4n)n∈N
 est solution particulière de l’équation complète. Notre suite
(un )n∈N est donc de la forme 2n λ + µ + 4n n∈N pour certains λ, µ ∈ R, or : u0 = 0 et u1 = 5, donc
en fait : λ = 1 et µ = −1.

1.4 ISOMORPHISMES ET ESPACES VECTORIELS ISOMORPHES

Définition (Isomorphisme, espaces vectoriels isomorphes) Soient E et F deux K-espaces vectoriels.


• On appelle isomorphisme de E sur F toute application linéaire bijective de E sur F .
Cas particulier où E = F : Un isomorphisme de E sur E est aussi appelée un automorphisme de E. L’ensemble des
automorphismes de E est noté GL(E) et appelé le groupe linéaire de E.
• On dit que F est isomorphe à E s’il existe un isomorphisme de E sur F .

 Explication  Le fait que deux espaces vectoriels soient isomorphes signifie intuitivement que ces deux espaces
sont « identiques » d’un strict point de vue vectoriel. Un isomorphisme est alors comme un dictionnaire parfait pour passer
de l’un de ces espaces à l’autre. Toute propriété vectorielle — i.e. que l’on peut exprimer en termes de combinaisons linéaires
— de l’un des espaces a son analogue dans l’autre espace.

Théorème (Composition d’isomorphismes, réciproque d’un isomorphisme) Soient E, F et G trois K-espaces vecto-
riels.
(i) Si f est un isomorphisme de E sur F et g un isomorphisme de F sur G, g ◦ f est un isomorphisme de E sur G.
(ii) Si f est un isomorphisme de E sur F , alors f −1 est un isomorphisme de F sur E.

 Explication  En d’autres termes, la relation d’isomorphisme entre espaces vectoriels est une relation d’équivalence
— pour la réflexivité, remarquer simplement que Id E est un isomorphisme de E pour tout K-espace vectoriel E.

6
Christophe Bertault — Mathématiques en MPSI

Démonstration
(i) La composée de deux applications bijectives (resp. linéaires) est bijective (resp. linéaire).
(ii) Nous savons que f −1 est bijective de F sur E, mais est-elle linéaire ? Pour tous y, y ′ ∈ F et λ, λ′ ∈ K :
 €  Š € Š
f −1 λ y + λ′ y ′ = f −1 λ f f −1 ( y) + λ′ f f −1 ( y ′ ) = f −1 f λ f −1 ( y) + λ′ f −1 ( y ′ ) = λ f −1 ( y) + λ′ f −1 ( y ′ ). „

Théorème (Traduction de l’inversibilité en termes d’application linéaire canoniquement associée) Soit A ∈ Mn (K).

b canoniquement associée à A est un automorphisme de Kn .


A est inversible si et seulement si l’application linéaire A

Dans ce cas : A d
b−1 = A−1 .

Démonstration D’après la caractérisation de l’inversibilité en termes de systèmes linéaires :

A est inversible ⇐⇒ ∀Y ∈ Kn , ∃ ! X ∈ Kn / Y = AX ⇐⇒ ∀Y ∈ Kn , ∃ ! X ∈ Kn / b )
Y = A(X
⇐⇒ b est un automorphisme de Kn .
A

Dans ce cas : A d
b◦ A Ö
−1 = A A−1 = Ò
I n = IdKn et de même : d
A b = IdKn ,
−1 ◦ A donc en effet : A d
b−1 = A−1 . „

Exemple L’application (x, y) 7−→ (3x + y, 5x + 2 y) est un automorphismede R2‹.  ‹


3 1 2 −1
Sa réciproque est l’application (x, y) 7−→ (2x − y, −5x + 3 y) car la matrice est inversible d’inverse .
5 2 −5 3

S 
Exemple L’application f 7−→ f ′ , f (0) est un isomorphisme de C 1 (R, R) sur C (R, R) × R.
Démonstration Pour tout f ∈ C 1 (R, R), il est bien clair que : S( f ) ∈ C (R, R) × R.
1
• Linéarité : Pour tous f , g ∈ C (R, R) et λ, µ ∈ R :
€ Š € Š  
S(λ f +µg) = (λ f +µg)′ , (λ f +µg)(0) = λ f ′ +µg ′ , λ f (0)+µg(0) = λ f ′ , f (0) +µ g ′ , g(0) = λS( f )+µS(g).

• Bijectivité : Il n’est pas dur de comprendre


Z x que l’application T qui, à tout couple (g, a) ∈ C (R, R) × R,
associe la fonction de classe C 1 x 7−→ a + g(t) dt est réciproque de S, i.e. que : T ◦ S = IdC 1 (R,R) et
0
S ◦ T = IdC (R,R)×R . Tout simplement, on connaît tout d’une fonction de classe C 1 quand on connaît sa
dérivée et sa valeur en 0 !
€ Š
Exemple Pour tout n ∈ N, l’application P 7−→ P(0), P ′ (0), . . . , P (n) (0) est un isomorphisme de Kn [X ] sur Kn+1 de réci-
Xn
ak k
proque (ak )0¶k¶n 7−→ X — c’est la formule de Taylor polynomiale.
k=0
k!
X2
 Explication  En particulier R3 et R2 [X ] sont (0, 0, 1) 2
isomorphes, i.e. « identiques » comme espaces vectoriels. R 3 1 R2 [X ] X2
0, 1, X+
La figure ci-dessous illustre la manière dont CET ISOMOR- 2 Isomorphisme 4
b b

PHISME « GÉOMÉTRISE » L’ESPACE R2 [X ]. On y associe à X


tout triplet (a, b, c) ∈ R3 , comme dans l’exemple précé- (0, 1, 0)
(1, 0, 0) 1
c
dent, le polynôme a + bX + X 2 ∈ R2 [X ].
2

En réalité, le théorème qui suit montre que les K-espaces vectoriels de dimension finie sont tous « identiques » à un Kn .

Théorème (Effet d’un isomorphisme sur la dimension)


(i) Soient E et F deux K-espaces vectoriels. Si E est de dimension finie et si F est isomorphe à E, alors F est de
dimension finie et : dim E = dim F .
(ii) Réciproquement, deux K-espaces vectoriels de MÊMES dimensions finies sont isomorphes. En particulier, tout
K-espace vectoriel de dimension finie n 6= 0 est isomorphe à Kn .

7
Christophe Bertault — Mathématiques en MPSI

 Explication  D’après (i), si deux espaces vectoriels sont « identiques » comme espaces vectoriels, ils ont en par-
ticulier la même dimension. D’après (ii), on connaît tout d’un espace vectoriel de dimension finie en tant que tel quand on
connaît sa dimension. À ISOMORPHISME PRÈS, les seuls K-espaces vectoriels de dimension finie non nulle sont les espaces
Kn , n décrivant N∗ . C’est à la fois un résultat satisfaisant — chouette, nous les avons tous trouvés et Kn est une grande vérité
des mathématiques — et décevant — mince, quel manque d’exotisme !

Démonstration

(i) On peut supposer E 6= 0 E et noter f un isomorphisme de E sur F . De dimension finie n 6= 0, E possède
€ Š
une base (ei )1¶i¶n . En particulier, par surjectivité de f : F = Im f = Vect f (ei ) , donc F est
 1¶i¶n
engendré par la famille f (ei ) 1¶i¶n — donc est de dimension finie. Nous allons en fait montrer que cette
famille est libre. Il en découlera que c’est une base de F , et donc que : dim F‚= n = dimŒ E.
X
n Xn
Soient λ1 , . . . , λn ∈ K pour lesquels : λi f (ei ) = 0 F . Aussitôt : f λi ei = 0 F , donc :
i=1 i=1
X
n X
n
λi ei ∈ Ker f , mais comme f est injective : λi ei = 0 E . Finalement comme voulu, la famille
i=1 i=1
(ei )1¶i¶n étant libre : λ1 = . . . = λn = 0.

(ii) Soient E et F deux K-espaces vectoriels de même dimension finie n. On peut supposer n 6= 0. Nous allons
montrer que E est isomorphe à Kn , ce sera aussi le cas de F pour la même raison et E et F seront alors
isomorphes tout court.
X
n
Comme n 6= 0, E possède une base (ei )1¶i¶n et nous pouvons noter ϕ l’application (x i )1¶i¶n 7−→ x i ei de
i=1
Kn dans E. Il nous suffit de montrer que ϕ est un isomorphisme de Kn sur E. En tout cas, ϕ est linéaire car
pour tous (x i )1¶i¶n , (x i′ )1¶i¶n ∈ Kn et λ, λ′ ∈ K :
€ Š  Xn
 X
n X
n
ϕ λ(x 1 , . . . , x n ) + λ′ (x 1′ , . . . , x n′ ) = ϕ λx 1 + λ′ x 1′ , . . . , λx n + λ′ x n′ = λx i + λ′ x i′ ei = λ x i e i + λ′ x i′ ei
i=1 i=1 i=1
= λϕ(x 1 , . . . , x n ) + λ′ ϕ(x 1′ , . . . , x n′ ).
Enfin, ϕ est bijective de Kn sur E, car (ei )1¶i¶n étant une base de E, tout vecteur de E en est combinaison
Xn € Š
linéaire d’une et une seule manière : ∀x ∈ E, ∃ ! (x i )1¶i¶n ∈ Kn / x = x i ei = ϕ (x i )1¶i¶n . „
i=1

 Explication  L’application ϕ de la preuve précédente mérite qu’on s’y attarde un instant. Soient E un K-espace
ϕ X
n
vectoriel et (ei )1¶i¶n une famille QUELCONQUE de E — plus forcément une base de E. L’application (x i )1¶i¶n 7−→ x i ei est
i=1
toujours linéaire de Kn dans E.
X
n
— À quelle condition ϕ est-elle surjective ? Elle l’est si et seulement si : ∀x ∈ E, ∃ (x i )1¶i¶n ∈ Kn / x = x i ei ,
i=1
i.e. si et seulement si la famille (ei )1¶i¶n engendre E.
 ©
— À quelle condition ϕ est-elle injective ? Elle l’est si et seulement si : Ker ϕ = (0, . . . , 0) , i.e. si et seulement si :
X
n
∀(x i )1¶i¶n ∈ Kn , x i ei = 0 E =⇒ x 1 = . . . = x n = 0, i.e. si et seulement si la famille (ei )1¶i¶n est libre.
i=1

Le théorème qui suit n’est pas vraiment à sa place dans ce paragraphe, mais il complète utilement l’explication qui précède.

Théorème (Caractérisation de l’injectivité/surjectivité d’une application linéaire par l’image d’une base) Soient
E et F deux K-espaces vectoriels et f ∈ L (E, F ). On suppose que E possède une base (ei )i∈I .
€ Š
(i) f est surjective de E sur F si et seulement si f (ei ) engendre F .
i∈I
€ Š
(ii) f est injective sur E si seulement si f (ei ) est libre.
i∈I
€ Š
(iii) f est un isomorphisme de E sur F si et seulement si f (ei ) est une base de F .
i∈I

Démonstration
€ Š € Š
(i) On sait que : Im f = Vect f (ei ) . Ainsi : Im f = F si et seulement si f (ei ) engendre F .
i∈I i∈I

8
Christophe Bertault — Mathématiques en MPSI

€ Š
(ii) Supposons f injective et montrons que f (ei ) est libre. Soit (λi )i∈I ∈ K I presque nulle telle que :
‚ Œ i∈I
X X X
λi f (ei ) = 0 F . Aussitôt : f λi ei = 0 F donc : λi ei ∈ Ker f , donc comme f est
i∈I X i∈I i∈I
injective : λi ei = 0 E , et comme enfin (ei )i∈I est libre : λi = 0 pour tout i ∈ I .
i∈I € Š 
Réciproquement, supposons f (ei ) est libre et montrons que f est injective, i.e. que : Ker f ⊂ 0 E .
i∈I ‚ Œ
X X
Soient x ∈ Ker f de coordonnées (x i )i∈I dans (ei )i∈I . Alors : 0 F = f (x) = f x i ei = x i f (ei ),
i∈I i∈I
donc par hypothèse pour tout i ∈ I : x i = 0, et donc a fortiori : x = 0E . „

€ Š
Exemple Pour tous x 1 , . . . , x n ∈ K distincts, l’application P 7−→ P(x 1 ), . . . , P(x n est un isomorphisme de Kn−1 [X ] sur Kn .

Démonstration Linéaire, cette application transforme la base (L1 , . . . , L n ) des polynômes de Lagrange de
x 1 , . . . , x n en une BASE de Kn , à savoir la base canonique de Kn car pour tous i, j ∈ ¹1, nº : L i (x j ) = δi j .

2 UN LIEN ÉTROIT ENTRE LE NOYAU ET L’IMAGE

2.1 EFFET D’UNE APPLICATION LINÉAIRE SUR LA DIMENSION ET NOTION DE RANG

Définition (Application linéaire de rang fini, rang) Soient E et F deux K-espaces vectoriels pas nécessairement de
dimension finie et f ∈ L (E, F ).
• On dit que f est de rang fini si Im f est de dimension finie, et de rang infini sinon.
• Si f est de rang fini, on appelle rang de f , noté rg( f ), la dimension de Im f .

 Explication  Les notions de rang d’une famille de vecteurs et de rang d’une application linéaire ne sont pas sans

rapport. Dans le cas où E est de dimension finie non nulle et de base B : rg( f ) = dim Im f = dim Vect f (B ) = rg f (B ) .

Théorème (Inégalités sur le rang et cas d’égalité) Soient E et F deux K-espaces vectoriels et f ∈ L (E, F ).
(i) Si F est de dimension finie, f est de rang fini et : rg( f ) ¶ dim F , avec égalité si et seulement si f est surjective.
(ii) Si E est de dimension finie, f est de rang fini et : rg( f ) ¶ dim E, avec égalité si et seulement si f est injective.

 Explication  f est injective si et seulement si : rg( f ) = dim E.

E Im f F E Im f F

En général, une application ne peut que


« contracter » son ensemble de définition. Si E et
F sont de dimension finie, il est donc clair que :
E F = Im f
rg( f ) ¶ dim E et rg( f ) ¶ dim F.

f est surjective si et seulement si : rg( f ) = dim F .

9
Christophe Bertault — Mathématiques en MPSI

Démonstration
(i) Comme : Im f ⊂ F , alors Im f est de dimension finie et : rg( f ) = dim Im f ¶ dim F , avec égalité
si et seulement si : Im f = F , i.e. si et seulement si f est surjective.
 € Š
(ii) Supposons E 6= 0 E et donnons-nous une base (ei )1¶i¶n de E. Aussitôt : Im f = Vect f (ei ) ,
1¶i¶n
donc
€ Š f est de dimension finie et : rg( f ) = dim Im f ¶ n = dim E,
Im avec égalité si et seulement si
f (ei ) est libre, i.e. si et seulement si f est injective. „
1¶i¶n

Théorème (Applications linéaires entre espaces vectoriels de mêmes dimensions finies)


(i) Soient E et F deux K-espaces vectoriels de dimensions finies ÉGALES et f ∈ L (E, F ).

f est bijective ⇐⇒ f est injective ⇐⇒ f est surjective.

(ii) Soient E un K-espace vectoriel de dimension finie et f ∈ L (E).

f ∈ GL(E) ⇐⇒ f est inversible à gauche ⇐⇒ f est inversible à droite


i.e. : ∃ g ∈ L (E)/ g ◦ f = Id E i.e. : ∃ g ∈ L (E)/ f ◦ g = Id E .

 Explication  Rappelons que par définition, f est inversible dans l’anneau L (E) si et seulement s’il existe g ∈ L (E)
tel que : f ◦ g = Id E ET g ◦ f = Id E . Lorsque E est de dimension finie, une seule de ces deux égalités suffit donc.

$ ATTENTION ! $ L’assertion (i) ne dit pas que : bijectif = surjectif = injectif en algèbre linéaire ! Elle affirme
seulement que c’est vrai lorsque les espaces vectoriels de départ et d’arrivée ont MÊME DIMENSION FINIE.

Démonstration
(i) Par hypothèse : dim E = dim F . Du coup, f est injective si et seulement si : rg( f ) = dim E, i.e. si
et seulement si : rg( f ) = dim F , i.e. si et seulement si f est surjective.
(ii) Si : f ◦ g = Id E pour un certain g ∈ L (E), nous savons que f est surjective, et si : g ◦ f = Id E , que
f est injective. Le résultat découle alors de l’assertion (i). „

ϕ 
Exemple L’application (x, y, z) 7−→ x + y, −x + y, z est un automorphisme de R3 .
Démonstration
• Preuve n◦ 1 : E NDOmorphisme EN DIMENSION FINIE, ϕ sera bijective si nous  montrons simplement qu’elle
est injective. Pour tout (x, y, z) ∈ Ker ϕ : ϕ(x, y, z) = x + y, −x + y, z = (0, 0, 0), donc rapidement :

x = y = z = 0. Comme voulu : Ker ϕ = (0, 0, 0) .  
1 1 0
• Preuve n◦ 2 : ϕ n’est jamais que l’application linéaire canoniquement associée à la matrice −1 1 0,
0 0 1
laquelle est inversible car la famille de ses colonnes, clairement, est libre.

ψ
Exemple Soit n ∈ N. L’application P 7−→ X P ′ + P(0) est un automorphisme de Kn [X ].
Démonstration L’application ψ est bien à valeurs dans Kn [X ] car pour tout P ∈ Kn [X ] :
 ¦ © ¦ ©
deg X P ′ + P(0) ¶ max deg(X P ′ ), deg P(0) ¶ max 1 + deg(P ′ ), deg P(0) ¶ deg(P) ¶ n.

Comme ψ est un ENDOmorphisme EN DIMENSION FINIE, il nous suffit, pour en montrer la bijectivité, d’en montrer
l’injectivité. Soit P ∈ Ker ψ. Aussitôt : X P ′ = −P(0), donc : 1 + deg(P ′ ) ¶ 0, ce qui n’est
possible que si
P est constant. Ainsi : ψ(P) = P(0) = 0, donc : P = 0. Comme voulu : Ker ψ = 0 .

Théorème (Inversibilité à gauche/à droite d’une matrice carrée) Soient A, B ∈ Mn (K). Si : AB = I n , alors A et
B sont toutes deux inversibles et inverses l’une de l’autre.

 Explication  Par définition, A est inversible si et seulement s’il existe une matrice B pour laquelle : AB = I n
ET BA = I n , mais nous découvrons aujourd’hui qu’une seule des deux relations suffit et que l’autre en découle de fait.

10
Christophe Bertault — Mathématiques en MPSI

Démonstration Si : AB = I n , alors : A b◦ B b = AB
c=Ò b est ainsi inversible
I n = IdKn . L’endomorphisme B
à gauche dans L Kn , donc est un automorphisme de Kn d’après le théorème précédent. Nous avons déjà vu
qu’alors B est inversible. Pour finir : B −1 = I n B −1 = ABB −1 = A. „

2.2 LE THÉORÈME DU RANG

Le noyau et l’image d’une application linéaire


 sont fortement
 liés, on s’en rend déjà bien compte sur l’exemple simple des
1 1 2
matrices. Notons par exemple A la matrice 2 −1 1 de colonnes C1 , C2 et C3 . Clairement : C3 = C1 + C2 , donc :
1 2 3
Im A = Vect(C ,
 1 2 3 C , C ) = Vect(C1 , C2 ), donc Im A est de dimension au plus 2. Or la relation : C3 = C1 +C2 , indique aussi
1
que :  1  ∈ Ker A, et donc que Ker A est au moins de dimension 1. Il semblerait ainsi que la somme dim Ker A+rg(A) soit
−1

constante, i.e. que : ce qu’on perd d’un côté, on le gagne de l’autre. C’est exactement ce que nous allons démontrer.

Théorème (Forme géométrique du théorème du rang) Soient E et F deux K-espaces vectoriels pas nécessairement
de dimension finie et f ∈ L (E, F ).
Si Ker f possède un supplémentaire I dans E, alors f I
est un isomorphisme de I sur Im f .

 Explication 
• Nous l’avons dit, Ker f est exactement l’ensemble des éléments de E que f ne voit pas. Dans l’égalité : E = I ⊕Ker f ,
f ne voit donc passer que I , et comme il ne touche Ker f que du bout de son zéro, f y est injective et envoie donc
bijectivement I sur Im f .
• De manière moins imagée, f −1 est l’application qui, à tout élément de Im f , associe son unique antécédent dans I .
I

Démonstration Par restriction, f I est linéaire de I dans Im f .



• Pour l’injectivité, sachant que I et Ker f sont en somme directe : Ker f I = I ∩ Ker f = 0 E .
• Pour la surjectivité, soit y ∈ Im f , disons : y = f (x) pour un certain x ∈ E. Comme E = I + Ker f :
x = i + k pour certains i ∈ I et k ∈ Ker f , donc : y = f (x) = f (i) + f (k) = f (i) + 0 F = f I (i). „

Théorème (Théorème du rang) Soient E et F deux K-espaces vectoriels et f ∈ L (E, F ).


Si E est de dimension finie : dim E = dim Ker f + rg( f ).

 Explication  Morale de l’histoire : Si je connais le noyau, je connais un peu l’image — et vice versa.

Plus précisément, le théorème du rang est une LOI DE CONSERVATION DE LA DIMENSION AU DÉPART au même titre qu’il existe
une loi de conservation de l’énergie en mécanique newtonienne pour un système isolé.
L’hypothèse selon laquelle E est de dimension finie garantit en particulier que Ker f et Im f le sont aussi.

Démonstration Comme E est de dimension finie, Ker f possède un supplémentaire I dans E. Ensuite, la forme
géométrique du théorème du rang montre que f I est un isomorphisme de I sur Im f , donc :

rg( f ) = dim Im f = dim I = dim E − dim Ker f . „

 
1 2 −1 € Š € Š
Exemple On pose : A = 2 −1 8 . Alors : Ker A = Vect (3, −2, −1) et Im A = Vect (1, 2, 1), (2, −1, 1) .
1 1 1

11
Christophe Bertault — Mathématiques en MPSI

Démonstration 
 x + 2y − z = 0
• Noyau : Pour tout (x, y, z) ∈ R3 : (x, y, z) ∈ Ker A ⇐⇒ 2x − y + 8z = 0
 x + y + z = 0

 x + 2y − z = 0
⇐⇒ y − 2z = 0 L 2 ← 52 L 1 − 51 L 2 ⇐⇒ y = 2z et x = −3z.
 y − 2z = 0 L3 ← L1 − L3

 € Š
Conclusion : Ker A = (−3z, 2z, z) z∈R = Vect (3, −2, −1) .
• Image : D’après
€ le théorème du rang, Im Š A est de dimension
€ : dim Im AŠ= 3 − dim Ker A = 2. Or :
Im A = Vect (1, 2, 1), (2, −1, 1), (−1, 8, 1) et la famille (1, 2, 1), (2, −1, 1) est libre, donc cette famille
est une base de Im A.

Exemple Soient E un K-espace vectoriel de dimension finie et f ∈ L (E). Si : f 3 = 0L (E) , alors : rg( f )+rg f 2 ¶ dim E.

Démonstration L’égalité : f 3 = 0L (E) montre que pour tout x ∈ E : f f 2 (x) = 0 E , i.e. que :

Im f 2 ⊂ Ker f , et donc en particulier que : rg f 2 ¶ dim Ker f . Appliquons alors le théorème du rang à

f , ce qui est possible car E est de dimension finie : dim E = dim Ker f + rg( f ) ¾ rg( f ) + rg f 2 .

2.3 RANG D’UNE MATRICE

Définition (Rang d’une matrice) Soit A ∈ Mn,p (K).


(i) Définition : Le rang de l’application linéaire canoniquement associée à A est égal au rang de la famille des colonnes
de A. On appelle rang de A, noté rg(A), la valeur commune de ces deux rangs.

En particulier : rg(A) ¶ min n, p .
(ii) Lien avec l’inversibilité : Dans le cas où : n = p, A est inversible si et seulement si : rg(A) = n.

Démonstration Notons C1 , . . . , C p les colonnes de A. Pour (i), nous savons déjà que : Im A = Vect(C1 , . . . , C p ),
et pour (ii) avec : n = p, que A est inversible si et seulement si (C1 , . . . , Cn ) est libre, i.e. si et seulement si :
rg(C1 , . . . , Cn ) = n. „

Le gros problème de cette définition, c’est qu’elle ne nous donne pas d’algorithme de calcul du rang, mais le résultat qui
suit, en apparence éloigné du sujet, va nous en donner un.

Théorème (Invariance du rang par composition avec un isomorphisme) Soient E, F, E ′ , F ′ des K-espaces vectoriels
de dimension finie et f ∈ L (E, F ).
(i) Pour tout isomorphisme ϕ de E ′ sur E : rg( f ◦ ϕ) = rg( f ).
(ii) Pour tout isomorphisme ψ de F sur F ′ : rg(ψ ◦ f ) = rg( f ).

Démonstration
 
(i) Puisque Im ϕ = E : Im ( f ◦ ϕ) = f ◦ ϕ(x) x∈E ′ = f ( y) y∈E = Im f , donc : rg( f ◦ ϕ) = rg( f ).
 ¦ © ¦ ©
(ii) Pour commencer : Im(ψ ◦ f ) = ψ ◦ f (x) x∈E = ψ Im f f (x) = ψ Im f ( y) = Im ψ Im f .
x∈E y∈Im f
Ensuite, ψ est injective donc ψ Im f également, donc ψ Im f est un isomorphisme de Im f sur son image
Im(ψ ◦ f ). En particulier : rg( f ) = dim Im f = dim Im(ψ ◦ f ) = rg(ψ ◦ f ). „

Théorème (Les opérations élémentaires préservent le rang) Toute opération élémentaire sur les lignes ou les colonnes
d’une matrice en préserve le rang.

12
Christophe Bertault — Mathématiques en MPSI

Démonstration Soit A ∈ Mn,p (K). Nous avons déjà vu que toute opération élémentaire sur les LIGNES de A
peut être obtenue par multiplication À GAUCHE par une certaine matrice inversible. Soit donc P ∈ GLn (K). Parce
que P est inversible, son application b n
   linéaire canoniquement associée P est un automorphisme de K , donc :
c = rg b
rg(PA) = rg PA b = rg A
P ◦A b = rg(A). On procéderait de même sur les colonnes. „

 En pratique  (Algorithme du pivot pour le calcul du rang) Soit A ∈ Mn,p (K). L’algorithme qui suit, fondé sur
celui du pivot, ramène le calcul du rang de A au calcul du rang d’une matrice de taille strictement plus petite (n− 1)× (p − 1).
Le procédé doit être ensuite répété à l’identique jusqu’à obtention du résultat.
0) Si : A = 0, alors : rg(A) = 0 — sortie de l’algorithme.
1) Sinon au moins un coefficient de A est non nul, disons a, et va pouvoir nous servir de pivot. On le place en position
(1, 1) par une éventuelle permutation de lignes et colonnes.
2) À l’aide du pivot a, on annule par des opérations élémentaires sur les lignes tous les termes de la première colonne
situés sous a.
Étape facultative — toujours à l’aide du pivot a, on annule par des opérations élémentaires sur les colonnes tous les
termes de la première ligne situés à droite de a.
3) À ce stade, la première colonne de la matrice obtenue est clairement NON combinaison linéaire des autres colonnes,
donc la sous-matrice A′ obtenue par oubli des première ligne et colonne est de rang : rg(A′ ) = rg(A) − 1.
L’algorithme ainsi décrit se termine avec certitude car A′ est strictement plus petite en taille que A.
Étape facultative
Étape 1) Étape 2) z }| { Étape 3)
     
a × ··· × a × ··· × a 0 ··· 0
× × ··· × 0  0 
rg(A) = rg 
 .. .. ..  
 = rg  .. ′  
 = rg  .. ′  ′
 = rg(A ) + 1.
. . . . A . A
× × ··· × 0 0
Une dernière remarque. Alors que vous devez choisir de travailler sur les lignes OU-EXCLUSIF sur les colonnes pour inverser
une matrice avec l’algorithme que nous avons étudié au chapitre « Matrices et systèmes linéaires », vous pouvez ici mélanger
comme vous voulez les opérations sur les lignes et celles sur les colonnes.

     
0 0 1 3 0 0 1 3 4 −2 −4 1
1 0 −1 2 0 1 −1 2 0 1 −1 2
     
Exemple rg  0 0 1 2 = rg 0 0 1 2 C1 ↔ C2 = rg 0 0 1 2 L1 ↔ L4
−2 4 −4 1 4 −2 −4 1 0 0 1 3
−1 0 3 0 0 −1 3 0 0 −1 3 0
     
1 −1 2 1 −1 2
1 2
0 1 2 0 1 2
= 1 + rg  = 2 + rg 1 3 = 2 + 2 = 4.
3
= 1 + rg 
0 1 0 1 3
1 1 1 1
−1 3 0 0 1 1 L4 ← L1 + L4
2 2

3 IL SUFFIT DE PEU POUR CONNAÎTRE UNE APPLICATION LINÉAIRE

3.1 DÉTERMINATION D’UNE APPLICATION LINÉAIRE SUR UNE BASE

Pour connaître une application en général, on n’a pas trop d’autre choix que de connaître l’ensemble de ses valeurs point
par point. Pour une application linéaire en revanche, ce lot considérable d’informations peut être résumé par un nombre
restreint de valeurs stratégiques. On connaît par exemple parfaitement l’application (x, y, z) 7−→ (2x + y +z, 3x −z) de R3 dans
R2 SI ON SAIT QU’ELLE EST LINÉAIRE et si on sait que : f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 0) et f (0, 0, 1) = (1, −1).
En effet, pour tout (x, y, z) ∈ R3 :
€ Š Linéarité
f (x, y, z) = f x(1, 0, 0)+ y(0, 1, 0)+z(0, 0, 1) = x f (1, 0, 0)+ y f (0, 1, 0)+z f (0, 0, 1) = x(2, 3)+ y(1, 0)+z(1, −1) = (2x+ y+z, 3x−z).

Le théorème qui suit, fondamental, généralise ce principe.

13
Christophe Bertault — Mathématiques en MPSI

Théorème (Détermination d’une application linéaire par l’image d’une base) Soient E et F deux K-espaces vec-
toriels. On suppose que E possède une base (ei )i∈I . Pour toute famille ( f i )i∈I de vecteurs de F , il existe une et une seule
application linéaire u de E dans F telle que pour tout i ∈ I : u(ei ) = f i .

Pour connaître/définir une application linéaire complètement, il suffit de


 Explication  connaître/définir les valeurs qu’elle prend sur une base de l’espace de départ.

Démonstration Pour tout j ∈ I , nous noterons e⋆j la forme coordonnée de E selon e j dans la base (ei )i∈I —
c’est-à-dire l’application qui, à tout vecteur de E, associe sa coordonnée selon e j dans la base (ei )i∈I . Nous avons
déjà vu que les formes coordonnées sont des formes linéaires de E.
Soit ( f i )i∈I une famille de vecteurs de F .

• Analyse : Soit u ∈ L (E, F ). On suppose


‚ que pourŒ tout i ∈ I : u(ei ) = f i .
X X X
Alors pour tout x ∈ E : u(x) = u ei⋆ (x) ei = ei⋆ (x) u(ei ) = ei⋆ (x) f i .
i∈I i∈I i∈I
X
• Synthèse : Posons : u= ei⋆ fi . Il s’agit bien là d’une application de E dans F . Elle est linéaire car
i∈I
les formes coordonnées le sont, mais détaillons. Tout simplement, pour tous x, x ′ ∈ E et λ, λ′ ∈ K :
X X€ Š X X
u(λx+λ′ x ′ ) = ei⋆ (λx+λ′ x ′ ) f i = λei⋆ (x)+λ′ ei⋆ (x ′ ) f i = λ ei⋆ (x) f i +λ′ ei⋆ (x ′ ) f i = λu(x)+λ′ u(x ′ )
i∈I i∈I i∈I i∈I
X X
Enfin, pour tout j ∈ I : u(e j ) = ei⋆ (e j ) f i = δi j f i = f j . „
i∈I i∈I

3.2 ESPACES VECTORIELS D ’APPLICATIONS LINÉAIRES

Théorème (Opérations sur les applications linéaires) Soient E, F et G trois K-espaces vectoriels.
(i) L (E, F ) est un sous-espace vectoriel de F E , donc un K-espace vectoriel.
     
(ii) Pour toutes f , f ′ ∈ L (E, F ) et g, g ′ ∈ L (F, G) : g ◦ f + f ′ = g ◦ f + g ◦ f ′ et g + g′ ◦ f = g ◦ f + g′◦ f .

 Explication  D’apparence compliquée, l’assertion (i) signifie seulement que TOUTE COMBINAISON D’APPLICATIONS
LINÉAIRES EST LINÉAIRE . Par exemple, les applications P 7−→ X P ′ et P 7−→ P(0) sont des endomorphismes de K[X ], donc

l’application P −
7 → X P + 2P(0) aussi.

Démonstration
(i) Pour commencer L (E, F ) ⊂ F E et l’application nulle x 7−→ 0 F est linéaire de E dans F .
Pour la stabilité par combinaison linéaire, soient f , g ∈ L (E, F ) et λ, µ ∈ K. Nous devons montrer que
λ f + µg ∈ L (E, F ), i.e. que λ f + µg est linéaire. Or pour tous x, y ∈ E et α, β ∈ K :
  
λ f + µg (αx + β y) = λ f (αx + β y) + µg(αx + β y) = λ α f (x) + β f ( y) + µ αg(x) + β g( y)
= λα f (x) + λβ f ( y) + µαg(x) + µβ g( y)
   
= α λ f (x) + µg(x) + β λ f ( y) + µg( y) = α λ f + µg (x) + β λ f + µg ( y).
  
(ii) À vous de jouer, mais attention ! La relation : g + g′ ◦ f = g ◦ f + g′ ◦ f est vraie sans linéarité
  
alors que la relation : g ◦ f + f ′ = g ◦ f + g ◦ f ′ requiert à tout prix la linéarité de g. „

14
Christophe Bertault — Mathématiques en MPSI

ϕ
Exemple Pour tout A ∈ Mn (K), l’application M 7−→ AM − M A est un endomorphisme de Mn (K).
Démonstration Les applications M 7−→ AM et M 7−→ M A sont linéaires, donc ϕ aussi par différence.

ψ 
Exemple L’application P 7−→ P X 2 + P ′ (1) est un endomorphisme de K[X ].

Démonstration L’application P 7−→ P X 2 est linéaire. Ensuite, P 7−→ P ′ et P 7−→ P(1) sont linéaires, donc
P 7−→ P ′ (1) aussi par composition. Par somme, ψ est comme voulu un endomorphisme de K[X ].

Théorème (Dimension d’un espace vectoriel d’applications linéaires) Soient E et F deux K-espaces vectoriels de
dimension finie. Alors L (E, F ) est de dimension finie et : dim L (E, F ) = dim E × dim F .

Démonstration
• Si : dim E = 0, la seule application linéaire de E dans F est l’application nulle qui envoie 0 E sur 0 F ,
donc : L (E, F ) = 0L (E,F ) et dim L (E, F ) = 0 = dim E × dim F .
• Si : dim E 6= 0, €nous Špouvons nous donner une base (ei )1¶i¶n de E. Il n’est pas trop dur de vérifier que
ϕ
l’application u 7−→ u(ei ) est linéaire de L (E, F ) dans F n , et d’après un théorème précédent :
1¶i¶n

∀( f i )1¶i¶n ∈ F n , ∃ ! u ∈ L (E, F )/ ϕ(u) = ( f i )1¶i¶n .

Conclusion : linéaire bijective, ϕ est un isomorphisme de L (E, F ) sur F n . Or F est de dimension finie, donc
F n aussi par produit, puis L (E, F ) par isomorphisme. Finalement :

dim L (E, F ) = dim F n = n × dim F = dim E × dim F. „

L’énoncé qui suit repose entièrement sur l’idée que pour tout K-espace vectoriel E, la composée de deux endomorphismes
de E est encore un endomorphisme de E. En d’autres termes, la composition est une LOI INTERNE sur L (E).

Théorème (Anneau L (E)) Soit E un K-espace vectoriel.



• L (E), +, ◦ est un anneau, non commutatif en général, avec : 1L (E) = Id E .

• GL(E) est le groupe des inversibles de l’anneau L (E) : U L (E) = GL(E).
On omet souvent de noter le symbole ◦ de composition en notant g f à la place de g ◦ f pour tous f , g ∈ L (E).

 Explication  La loi produit de L (E) est la COMPOSITION. Pour tous f ∈ L (E) et n ∈ N, f n désigne donc Id E si
n = 0 et : f ◦ f ◦ . . . ◦ f si n ¾ 1. Comme dans tout anneau, deux formules importantes sont vraies dans L (E) :
| {z }
n fois
Xn  ‹ X
n−1
n k n−k
( f + g)n = f g (formule du binôme) et f n − g n = ( f − g) f k g n−k−1
k=0
k k=0

pour tous f , g ∈ L (E) QUI COMMUTENT. Il est essentiel que f et g commutent, car pour avoir : ( f + g)( f − g) = f 2 − g 2
par exemple, il faut pouvoir simplifier f g avec g f .

Démonstration Pour commencer, L (E) est un groupe commutatif pour l’addition en tant que sous-espace
vectoriel de E E .
Ensuite la composition est une loi de composition interne sur L (E) car la composée de deux applications linéaires
est linéaire. Cette loi est associative et admet Id E , qui est linéaire, pour élément neutre.
Enfin, d’après le théorème précédent, la composition est distributive sur l’addition. „

D M 
Exemple Les endomorphismes P 7−→ P ′ et P 7−→ X P de K[X ] NE commutent PAS, l’anneau L K[X ] N’est donc PAS
commutatif.
′
Démonstration Par exemple : D ◦ M (X ) = X 2 = 2X alors que : M ◦ D(X ) = X × X ′ = X .

15
Christophe Bertault — Mathématiques en MPSI

3.3 DÉTERMINATION D’UNE APPLICATION LINÉAIRE SUR UNE SOMME DIRECTE

Dans le théorème qui suit, on ne définit plus les applications linéaires par l’image d’une base mais par leurs restrictions
à deux sous-espaces vectoriels supplémentaires — cela dit l’idée est la même.

Théorème (Détermination d’une application linéaire sur une somme directe) Soient E et F deux K-espaces vec-
toriels, E1 et E2 deux sous-espaces vectoriels supplémentaires de E et u1 ∈ L (E1 , F ), u2 ∈ L (E2 , F ). Il existe une et une
seule application linéaire u ∈ L (E, F ) telle que : u E = u1 et u E = u2 .
1 2

 Explication  En résumé, tout élément de L (E, F ) est une sorte de concaténation ou de recollement d’un élément
de L (E1 , F ) et d’un élément de L (E2 , F ).

Démonstration Par hypothèse : E = E1 ⊕ E2 , donc tout vecteur de E est la somme, d’une unique manière,
d’un vecteur de E1 et d’un vecteur de E2 .
• Analyse : Soit u ∈ L (E, F ). On suppose que : u E = u1 et u E = u2 . Pour tout x = x 1 + x 2 ∈ E
1 2
avec x 1 ∈ E1 et x 2 ∈ E2 : u(x) = u(x 1 + x 2 ) = u(x 1 ) + u(x 2 ) = u1 (x 1 ) + u2 (x 2 ). Cette expression qui ne
dépend que de u1 , u2 et x montre l’unicité cherchée.
• Synthèse : Pour tout x = x 1 + x 2 ∈ E avec x 1 ∈ E1 et x 2 ∈ E2 , posons : u(x) = u1 (x 1 ) + u2 (x 2 ). On
définit ainsi une application de E dans F .
— Pour tout x 1 ∈ E1 : u(x 1 ) = u(x 1 + 0 E ) = u1 (x 1 ) + u2 (0 E ) = u1 (x 1 ), donc : u E1
= u1 , et de
même : u E = u2 .
2

 ∈ K et x = x1 + x 2 , y = y1 + y2 ∈ E avec x 1 , y1 ∈ E1 et x 2 , y2 ∈ E2 .
— Pour la linéarité de u, soient λ, µ
Alors : λx + µ y = λx 1 + µ y1 + λx 2 + µ y2 avec : λx 1 + µ y1 ∈ E1 et λx 2 + µ y2 ∈ E2 , donc :
   € Š € Š
u λx + µ y = u1 λx 1 + µ y1 + u2 λx 2 + µ y2 = λu1 (x 1 ) + µu1 ( y1 ) + λu2 (x 2 ) + µu2 ( y2 )
€ Š € Š
= λ u1 (x 1 ) + u2 (x 2 ) + µ u1 ( y1 ) + u2 ( y2 ) = λu(x) + µu( y). „


Exemple C’est bien connu : R4 [X ] = R3 [X ] ⊕ Vect X 4 . D’après le théorème précédent, il existe une et une seule

application linéaire ϕ de R4 [X ] dans R2 [X ] telle que pour tout P ∈ R3 [X ] : ϕ(P) = P ′ et ϕ X 4 = X . Cette

4 4
 de l’application linéaire P 7−→ P de R3 [X ] dans R2 [X ] et de l’unique application linéaire qui
application est obtenue à partir
envoie X sur X de Vect X dans Vect(X ).

Concrètement, pour tout P = aX 4 + bX 3 + cX 2 + d X + e ∈ R4 [X ] : ϕ(P) = aX + 3bX 2 + 2cX + d = 3bX 2 + (a + 2c)X + d.

4 FORMES LINÉAIRES ET HYPERPLANS

Rappelons pour commencer qu’une FORME linéaire n’est jamais qu’une application linéaire À VALEURS DANS K. On ne
confondra pas « APPLICATION linéaire » et « FORME linéaire » !
Nous avons vu quelques exemples de formes linéaires, mais pour comprendre ce concept en général, donnons-nous un
K-espace vectoriel E de dimension finie n et de base (ei )1¶i¶n et une forme linéaire ϕ‚de E. Posons
Œ pour tout i ∈ ¹1, nº :
Xn X
n X
n
ai = ϕ(ei ). Alors pour tout vecteur x de E de coordonnées (x i )1¶i¶n : ϕ(x) = ϕ x i ei = x i ϕ(ei ) = ai x i .
i=1 i=1 i=1
Conclusion : ϕ envoie tout vecteur de E sur une certaine combinaison linéaire de ses coordonnées, toujours avec les mêmes
coefficients — mais qui dépendent tout de même de la base choisie. En résumé :

Combinaison linéaire des formes coordonnées


En dimension finie : Forme linéaire =
dans une base fixée

16
Christophe Bertault — Mathématiques en MPSI

Exemple Soit ϕ une forme linéaire € de R3 . Posons : a = ϕ(1, Š 0, 0), b = ϕ(0, 1, 0) et c = ϕ(0, 0, 1). Pour tout
3
(x, y, z) ∈ R : ϕ(x, y, z) = ϕ x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) = xϕ(1, 0, 0) + yϕ(0, 1, 0) + zϕ(0, 0, 1) = a x + b y + cz,
donc ϕ est l’application (x, y, z) 7−→ a x + b y + cz.


Exemple Soit ϕ une forme linéaire de Rn [X ]. Posons : ϕk = ϕ X k pour tout k ∈ ¹0, nº.
X n Xn
 Xn X
n
k k
Pour tout P = ak X ∈ Rn [X ] : ϕ(P) = ak ϕ X = ϕk ak , donc ϕ est l’application P 7−→ ϕ k ak .
k=0 k=0 k=0 k=0
3 2
Par exemple, la forme linéaire P 7−→ P(2) de R3 [X ] envoie tout polynôme P = aX + bX + cX + d sur la combinaison linéaire
suivante de a, b, c, d : P(2) = 8a + 4b + 2c + d.


Définition (Hyperplan) Soit E 6= 0 E un K-espace vectoriel — pas forcément de dimension finie. On appelle hyperplan
de E tout noyau d’une forme linéaire NON NULLE de E.

 Explication 
• Le noyau de la forme linéaire nulle x 7−→ 0 E est E tout entier. On précise donc « non nulle » dans la définition pour
éviter que E lui-même soit un hyperplan de E.
• En dimension finie, nous pouvons lier la notion d’hyperplan à celles de coordonnées dans une base :

Ensemble décrit par UNE équation linéaire non nulle


En dimension finie : Hyperplan =
sur les coordonnées dans une base fixée

Exemple
¦ ©
• L’ensemble (x, y, z) ∈ R3 / 2x + y − z = 0 est un hyperplan de R3 — noyau de la forme linéaire non nulle
(x, y, z) 7−→ 2x + y − z.
¦ ©
• L’ensemble H = P ∈ R3 [X ]/ P ′ (1) + P(0) = 0 est un hyperplan de R3 [X ] — noyau de la forme linéaire non nulle
P 7−→ P ′ (1)+ P(0). On voit moins bien sur cet exemple que sur le précédent que H est décrit par une équation linéaire
sur les coordonnées, mais si on introduit les coefficients a, b, c, d de P : P = aX 3 + bX 2 + cX + d, alors H est décrit
par l’équation : 3a + 2b + c + d = 0.
¦ ©
• L’ensemble f ∈ C ∞ (R, R)/ f ′ (0) = f (0) est un hyperplan de C ∞ (R, R) — noyau de la forme linéaire non
nulle f 7−→ f (0) − f ′ (0). Comme nous ne connaissons aucune base de C ∞ (R, R), nous ne pouvons pas ici réécrire
l’équation : f ′ (0) = f (0) avec des coordonnées.


Théorème (Caractérisation géométrique des hyperplans) Soient E 6= 0 E un K-espace vectoriel et H une partie de
E. Les assertions suivantes sont équivalentes :

(i) H est un hyperplan de E. (ii) H est supplémentaire d’une droite de E.

En particulier, si E est de dimension finie non nulle n, les hyperplans de E sont exactement ses sous-espaces vectoriels de
dimension n − 1.

 Explication  En dimension 3 : hyperplan = plan. En dimension 2 : hyperplan = droite.

Démonstration
v E = H ⊕ Vect(v)
(ii) =⇒ (i) Par hypothèse : E = H ⊕ Vect(v) pour un certain
v ∈ E non nul. Notons alors ϕ l’unique forme linéaire de E pour
laquelle : ϕ H = 0L (H,K) et ϕ(v) = 1. Une telle forme 0E b

linéaire existe et est unique d’après le théorème de détermination H = Ker ϕ


d’une application linéaire sur une somme directe. Clairement ϕ
est non nulle, et tout aussi clairement : Ker ϕ = H, donc H
est un hyperplan de E.

17
Christophe Bertault — Mathématiques en MPSI

(i) =⇒ (ii) Notons ϕ une forme linéaire non nulle de noyau H. Comme ϕ est non nulle, nous pouvons nous
donner un vecteur v ∈ E \ Ker ϕ. Nous allons montrer qu’alors : E = H ⊕ Vect(v), et comme il est
évident que : H ∩ Vect(v) = 0 E , nous n’avons qu’à montrer l’inclusion : E ⊂ H + Vect(v).
 ‹
ϕ(x) ϕ(x)
Soit x ∈ E. Par définition de v : ϕ(v) 6= 0, donc : ϕ x − v = ϕ(x) − ϕ(v) = 0.
ϕ(v) ϕ(v)
ϕ(x)
Conclusion : x − v ∈ Ker ϕ = H, et enfin : x ∈ H + Vect(v). „
ϕ(v)


Exemple Pour tout n ∈ N, pour une simple raison de dimension, Kn [X ] est un hyperplan de Kn+1 [X ] et Kn × 0 un
hyperplan de Kn+1 .

Exemple
¦ ©
• L’ensemble (x, y, z, t) ∈ R4 / 2x + y = z + t est un sous-espace vectoriel de R4 de dimension 4 − 1 = 3 en tant que
noyau de la FORME linéaire non nulle (x, y, z, t) 7−→ 2x + y − z − t.
¦ ©
• L’ensemble P ∈ R4 [X ]/ P(0) = P(1) est un sous-espace vectoriel de R4 [X ] de dimension 5 − 1 = 4 en tant que
noyau de la FORME linéaire non nulle P 7−→ P(1) − P(0).


Théorème (Comparaison des équations d’un hyperplan) Soient E 6= 0 E un K-espace vectoriel, H un hyperplan de
E et ϕ, ψ deux formes linéaires non nulles de E dont H est le noyau. Alors : ψ = λϕ pour un certain λ ∈ K∗ .

 Explication  Il n’existe donc en réalité qu’une seule « vraie » équation d’un hyperplan, toutes les équations sont
multiples les unes des autres. C’est un résultat que nous connaissions bien en géométrie élémentaire, le plan d’équation :
x + y + 2z = 0 et le plan d’équation : 2x + 2 y + 4z = 0 sont évidemment un seul et même plan, et ce plan n’a pas
d’équation fondamentalement différente.

Démonstration Grâce au théorème précédent, écrivons : E = H ⊕ Vect(v) pour un certain v ∈ E. La forme


linéaire ϕ(v)ψ − ψ(v)ϕ est alors nulle sur H par définition de ϕ et ψ, et par ailleurs nulle en v, donc nulle sur
E tout entier par linéarité. Or : ϕ(v) 6= 0 car sinon ϕ serait nulle sur E tout entier elle aussi, donc enfin :
ψ(v)
ψ = λϕ avec : λ = . „
ϕ(v)

Théorème (Intersections d’hyperplans) Soient E un K-espace vectoriel de dimension finie non nulle n et r ∈ ¹1, nº.
(i) L’intersection de r hyperplans de E est un sous-espace vectoriel de E de dimension AU MOINS n − r.
(ii) Tout sous-espace vectoriel de E de dimension n − r est l’intersection d’exactement r hyperplans de E.

 Explication  Dans l’espace R3 , on sait bien qu’une équation scalaire décrit un plan et que deux telles équations,
pour peu qu’elles ne soient pas multiples l’une de l’autre, décrivent une droite. L’idée générale du théorème ci-dessus, c’est que
dans un système linéaire, chaque équation occasionne POTENTIELLEMENT la perte d’une dimension par rapport au nombre
total d’inconnues. Pourquoi potentiellement ? Parce que certaines  équations peuvent être redondantes et ne pas compter
 x + y − 2z = 0
vraiment dans le système. Par exemple, le système linéaire : 2x − y + z = 0 d’inconnue (x, y, z) ∈ R3
 3x − z = 0
3
décrit une droite et non un point de R car la troisième de ses équations n’est autre que la somme des deux premières.

Démonstration
(i) Soient H1 , . . . , H r des hyperplans de E. Pour tout k ∈ ¹1, rº, notons ϕk une forme linéaire non nulle de
Φ  \
r
E dont H k est le noyau. L’application x 7−→ ϕk (x) 1¶k¶r est linéaire de E dans K r de noyau H k , donc
k=1
\
r
r
d’après le théorème du rang : dim H k = dim E − rg(Φ) ¾ dim E − dim K = n − r.
k=1

18
Christophe Bertault — Mathématiques en MPSI

(ii) Soit F un sous-espace vectoriel de E de dimension n − r. Donnons-nous une base (e1 , . . . , en ) de E dont les
n − r derniers vecteurs forment une base de F et pour tout i ∈ ¹1, nº, notons ei⋆ la i ème forme coordonnée
associée à cette base. Pour tout x ∈ E :
\ r
x ∈ F ⇐⇒ x ∈ Vect(e r+1 , . . . , en ) ⇐⇒ e1⋆ (x) = . . . = e⋆r (x) = 0 ⇐⇒ x ∈ Ker ek⋆ .
k=1
\
r
Conclusion : F= Ker ek⋆ , ce qui fait bien de F l’intersection de r hyperplans de E. „
k=1

5 PROJECTEURS, SYMÉTRIES ET AU-DELÀ

5.1 PROJECTEURS ET SYMÉTRIES

Définition (Projecteur et symétrie) Soient E un K-espace vectoriel et H et H ′ deux sous-espaces vectoriels supplé-
mentaires de E. Tout élément x ∈ E s’écrit d’une et une seule façon comme la somme d’un élément h ∈ H et d’un élément
h′ ∈ H ′ , de sorte que : x = h + h′ . Avec ces notations :
— l’application de E dans E qui à x associe h est appelée projection sur H parallèlement à H ′ ou encore projecteur sur
H de direction H ′ ,
— l’application de E dans E qui à x associe h − h′ est appelée symétrie par rapport à H parallèlement à H ′ ou encore
symétrie par rapport à H de direction H ′ .
Dans les deux cas, H est appelé la base et H ′ la direction de la projection ou de la symétrie.

 Explication  On comprend mieux ces définitions un peu abstraites au moyen de quelques figures. Notons p la
projection sur H parallèlement à H ′ et s la symétrie par rapport à H parallèlement à H ′ .
H′ H′
h′ h′
Projection x Symétrie x

H H
0E b
0E b

h = p(x) h

−h′
h − h′ = s(x)
¦ © € Š
Exemple La projection de R3 par rapport à F = (x, y, z) ∈ R3 / x + y + z = 0 parallèlement à G = Vect (1, 1, 1) est
 
2 −1 −1
1
l’application linéaire canoniquement associée à la matrice −1 2 −1.
3 −1 −1 2

Démonstration Nous allons d’abord montrer que F et G sont supplémentaires dans R3 , le reste en découlera
aisément. Soit (x, y, z) ∈ R3 . Pour tous (a, b, c) ∈ R3 et λ ∈ R :

 a + λ = x
(x, y, z) = (a, b, c) + λ(1, 1, 1) 
b + λ = y
⇐⇒
et (a, b, c) ∈ F  c + λ = z

a + b + c = 0

 a + λ = x

 b + λ = y
⇐⇒ c + λ = z

 x + y +z
 λ = L4 ←
L1 + L2 + L3 − L4
3 3
 ‹
2x − y − z −x + 2 y − z −x − y + 2z x + y +z
⇐⇒ (a, b, c) = , , et λ = .
3 3 3 3

19
Christophe Bertault — Mathématiques en MPSI

La supplémentarité de F et G dans R3 est ainsi démontrée, mais comme le projeté de (x, y, z) par rapport à F
parallèlement à G est par définition le vecteur (a, b, c), la projection cherchée est finalement l’application :
 ‹
2x − y − z −x + 2 y − z −x − y + 2z
(x, y, z) 7−→ , , .
3 3 3

Théorème (Propriétés des projecteurs et des symétries) Soient E un K-espace vectoriel et H et H ′ deux sous-espaces
vectoriels supplémentaires de E. On note p la projection sur H parallèlement à H ′ et s la symétrie par rapport à H
parallèlement à H ′ .
(i) Propriétés des projecteurs : p est un endomorphisme de E et : p2 = p.
 
H = Im p = Ker p − Id E = x ∈ E/ p(x) = x et H ′ = Ker p.
(ii) Propriétés des symétries : s est un automorphisme de E et : s2 = Id E , i.e. : s−1 = s.
   
H = Ker s − IdE = x ∈ E/ s(x) = x et H ′ = Ker s + Id E = x ∈ E/ s(x) = −x .

 Explication  De façon plus générale, habituez-vous à l’idée que pour tous f ∈ L (E) et λ ∈ K :
 ¦  © 
Ker f − λIdE = x ∈ E/ f − λId E (x) = 0 E = x ∈ E/ f (x) = λx .

Démonstration
(i) Par définition, p est l’unique endomorphisme de E pour lequel : p H = IdH et p H ′ = 0L (H ′ ,E) .
Montrons que : p2 = p. Soit x = h + h′ ∈ E avec h ∈ H et h′ ∈ H ′. Alors : p(x) = h, donc :
p(x) = h + 0 E avec : h ∈ H et 0 E ∈ H ′ , donc : p2 (x) = p p(x) = h = p(x).

Par définition de p, si on y réfléchit deux secondes : Im p ⊂ H ⊂ x ∈ E/ p(x) = x ⊂ Im p, donc en
fait ces trois ensembles sont égaux. L’égalité : H ′ = Ker p paraît tout aussi claire.
(ii) Par définition, s est l’unique endomorphisme de E pour lequel : s H = IdH et s H ′ = −IdH ′ . Vous
 
vérifierez seuls que : s2 = IdE ainsi que les égalités concernant Ker s − Id E et Ker s + Id E . „

Théorème (Caractérisation des projecteurs) Soient E un K-espace vectoriel et p : E −→ E une application.

p est un projecteur si et seulement si p est linéaire et : p2 = p.

Dans ce cas, Im p et Ker p sont supplémentaires dans E et p est la projection sur Im p parallèlement à Ker p. Concrètement,
pour tout x ∈ E : x = p(x) + x − p(x).
|{z} | {z }
∈ Im p ∈ Ker p

$ ATTENTION ! $ N’oubliez pas de mentionner/vérifier la linéarité de p, l’égalité : p2 = p ne suffit pas.

Démonstration Nous n’avons plus qu’une implication à prouver. Faisons donc l’hypothèse que p est linéaire et
que : p2 = p. Nous allons montrer d’abord par analyse et synthèse que Im p et Ker p sont supplémentaires
dans E. Soit x ∈ E.
• Analyse : Soient i ∈ Im p et k ∈ Ker p pour lesquels : x = i + k. Alors : p(k) = 0 E et i = p(t)
p2 =p 
pour un certain t ∈ E, donc par linéarité : p(x) = p(i), puis : i = p(t) = p p(t) = p(i) = p(x),
et enfin : k = x − i = x − p(x).
• Synthèse : Posons : i = p(x) et k = x − p(x). Aussitôt : x = i + k, et clairement : i ∈ Im p.
  p2 =p
Pour finir : p x − p(x) = p(x) − p p(x) = p(x) − p(x) = 0 E , donc : x − p(x) ∈ Ker p.
Conclusion : E = Im p ⊕ Ker p,
 et nous avons montré au passage que la décomposition correspondante de
x est : x = p(x) + x − p(x) , donc en effet p(x) est le projeté de x sur Im p parallèlement à Ker p par
définition des projections. „

20
Christophe Bertault — Mathématiques en MPSI
X 3 R[X ]

X
+∞ 2X 3
k 2
Exemple Pour tout P = ak X ∈ R[X ], on pose : τ(P) = a2 X + a1 X + a0 . 2X 3 + X 2 − 4
k=0

L’application τ ainsi définie, dite troncature à l’ordre 2, est le projecteur de R[X ]


R2 [X ]
sur R2 [X ] de direction X 3 R[X ]. 0 b


Par exemple : τ 5X 6 + 2X 5 − 4X 4 + X 2 + 1 = X 2 + 1. X2 − 4 
Démonstration Le théorème de la division euclidienne par X 3 pos- = τ 2X 3 + X 2 − 4
sède un énoncé simplifié en algèbre linéaire : R[X ] = X 3 R[X ] ⊕
R2 [X ]. L’application τ est donc simplement l’endomorphisme de
R[X ] pour lequel à la fois : τ R [X ] = IdR2 [X ] et τ X 3 R[X ] = 0L (X 3 R[X ],R[X ]), c’est donc un projecteur.
2

• Image : Quels sont les points fixes de τ ? Réponse : exactement les polynômes de degré inférieur ou égal
à 2, donc : Im τ = R2 [X ].
• Noyau : Quels sont les polynômes dont la troncature à l’ordre 2 est nulle ? Réponse : tous ceux dont les
trois premiers coefficients sont nuls, i.e. qu’on peut factoriser par X 3 , donc : Ker τ = X 3 R[X ].

Théorème (Caractérisation des symétries) Soient E un K-espace vectoriel et s : E −→ E une application.

s est une symétrie si et seulement si s est linéaire et : s2 = Id E .


  
Dans ce cas, Ker s − Id E et Ker s + Id E sont supplémentaires dans E et s est la symétrie par rapport à Ker s − Id E

parallèlement à Ker s + Id E .

$ ATTENTION ! $ N’oubliez pas de mentionner/vérifier la linéarité de s, l’égalité : s2 = IdE ne suffit pas.

Démonstration Nous n’avons plus qu’une implication à prouver. Faisons donc l’hypothèse  que s est linéaire
 et
que : s2 = Id E . Nous allons montrer d’abord par analyse et synthèse que Ker s − IdE et Ker s + Id E sont
supplémentaires dans E. Soit x ∈ E.
 
• Analyse : Soient x + ∈ Ker s − Id E et x − ∈ Ker s + IdE . Si : x = x + + x − , alors : s(x + ) = x + et
x + s(x) x − s(x)
s(x − ) = −x − donc : s(x) = x + − x − , donc : x + = et x − = .
2 2
x + s(x) x − s(x)
• Synthèse : Posons : x + = et x − = . Alors : x = x + + x − et de plus :
2 2
 ‹
+ x + s(x) s(x) + s2 (x) s2 =Id E x + s(x)
s(x ) = s = = = x+,
2 2 2
 
i.e. : x + ∈ Ker s − Id E . On montre de même que : x − ∈ Ker s + Id E .
 
Conclusion : E = Ker s − Id E ⊕ Ker s + Id E , et nous avons montré que la décomposition correspondante
x + s(x) x − s(x) x + s(x) x − s(x)
de x est : x = + , donc en effet, puisque : s(x) = − , s(x) est le
2 2   2 2
symétrique de x par rapport à Ker s − Id E parallèlement à Ker s + Id E . „

I
Exemple On note σ l’application qui, à toute fonction f ∈ RR , associe la fi
f
fonction x 7−→ f (−x). Alors σ est une symétrie de RR , la symétrie par rapport
à l’ensemble P des fonctions paires, parallèlement à l’ensemble I des fonctions
impaires. P
0RR b

R R
En particulier : R = P ⊕ I . Plus précisément, pour tout f ∈ R , la décom- fp
position de f adaptée à cette égalité est : f = f p + f i où f p est la fonction
f (x) + f (−x) f (x) − f (−x) − fi
x 7−→ et f i la fonction x 7−→ .
2 2
Démonstration f p − f i = σ( f )

• Comme σ est linéaire et : σ2 = IdRR , alors σ est une symétrie.



• L’ensemble Ker σ − IdRR des points fixes de σ est évidemment P par définition de σ, de même que

l’ensemble Ker σ + IdRR est évidemment I .

21
Christophe Bertault — Mathématiques en MPSI

H′
Théorème (Lien projecteur/symétrie) p′ (x)
x
Soient E un K-espace vectoriel et H et H ′ deux sous-espaces vectoriels
supplémentaires de E. On note p la projection sur H parallèlement à H ′ ,
p′ la projection sur H ′ parallèlement à H et s la symétrie par rapport à H 0E b

H parallèlement à H ′ . Dans ces conditions : p(x)


′ ′ ′
p + p = Id E , p ◦ p = p ◦ p = 0L (E) et s = 2p − Id E .
−p(x)

s(x)

5.2 SOMMES D’UN NOMBRE FINI DE SOUS -ESPACES VECTORIELS

On généralise dans ce paragraphe les définitions et résultats obtenus pour les sommes de deux sous-espaces vectoriels à
des sommes d’un nombre fini quelconque de sous-espaces vectoriels. Nous omettrons certaines preuves.

Définition-théorème (Somme d’un nombre fini de sous-espaces vectoriels) Soient E un K-espace vectoriel et
F1 , . . . , F p des sous-espaces vectoriels de E.
X
p

• L’ensemble F k = F1 + . . . + F p = f 1 + . . . + f p f est un sous-espace vectoriel de E appelé la somme de
1 ∈F1 ,..., f p ∈F p
k=1
F1 , . . . , F p .
• Cette somme est également le plus petit sous-espace vectoriel de E contenant F1 , . . . , F p . Cela signifie que tout
X
p
sous-espace vectoriel de E contenant F1 , . . . , F p contient aussi Fk .
k=1

 Explication 
En lien avec ce que nous avons déjà étudié pour la somme de deux sous-espaces vectoriels, on peut
 p  X
[ p
montrer que pour tout K-espace vectoriel E et pour toutes parties X 1 , . . . , X p de E : Vect Xk = Vect(X k ).
k=1 k=1

Définition (Somme directe d’un nombre fini de sous-espaces vectoriels) Soient E un K-espace vectoriel et F1 , . . . , F p
X
p
des sous-espaces vectoriels de E. On dit que F1 , . . . , F p sont en somme directe si la décomposition d’un vecteur de Fk
k=1
M
p
comme somme d’un vecteur de F1 . . . et d’un vecteur de F p est toujours unique. On note alors Fk ou F1 ⊕ . . . ⊕ F p la
k=1
X
p
somme Fk pour indiquer qu’il y a somme directe.
k=1

Théorème (Caractérisation de la somme directe d’un nombre fini de sous-espaces vectoriels) Soient E un K-espace
vectoriel et F1 , . . . , F p des sous-espaces vectoriels de E. Les assertions suivantes sont équivalentes :
(i) F1 , . . . , F p sont en somme directe.

(ii) L’égalité : 0E = 0E + . . . + 0E est la seule décomposition de 0 E comme somme d’un élément de F1 . . . et d’un
X
p
élément de F p : ∀( f1 , . . . , f p ) ∈ F1 × . . . × F p , f k = 0 E =⇒ f1 = . . . = f p = 0 E .
k=1

22
Christophe Bertault — Mathématiques en MPSI

$ ATTENTION ! $ Nous avons caractérisé la somme directe de DEUX sous-espaces vectoriels en termes d’INTERSECTION
€ Š,
mais nous ne ferons rien de tel pour un nombre fini quelconque de sous-espaces vectoriels. Par exemple, les droites Vect (1, 0) ,
€ Š € Š
Vect (0, 1) et Vect (1, 1) de R2 sont deux à deux d’intersection triviale, mais elles ne sont pas, à trois, en somme directe,
car : (1, 0) + (0, 1) + (−1, −1) = (0, 0) + (0, 0) + (0, 0).

Démonstration
(i) =⇒ (ii) Évident par définition de la somme directe.
Xp X
p
(ii) =⇒ (i) Donnons-nous deux décompositions : fk = f k′ d’un même vecteur comme somme d’un
k=1 k=1
 X
p

vecteur de F1 . . . et d’un vecteur de F p , avec ( f1 , . . . , f p ), f1′ , . . . , f p′ ∈ F1 ×. . .×F p . Alors : f k′ − f k = 0 E ,
k=1
| {z }
∈Fk
donc d’après (ii) : f k′ − f k = 0 E pour tout k ∈ ¹1, pº, i.e. : f k = f k′ . „

Exemple Dans C (R, R), on note F l’ensemble des fonctions 1-périodiques nulles en 0, G l’ensemble Vect(sin) et H l’en-
semble des fonctions polynomiales. Ce sont là trois sous-espaces vectoriels de C (R, R) et leur somme est directe.
Démonstration Vous vérifierez seuls que F et H sont des sous-espaces vectoriels de C (R, R). Pour montrer que
leur somme est directe, soient f ∈ F , λ ∈ R et P ∈ H. Faisons l’hypothèse que : f + λ sin +P = 0C (R,R) . Il
s’agit de montrer qu’alors : f = P = 0C (R,R) et λ = 0.
• D’après le théorème des bornes atteintes, f est bornée sur le SEGMENT [0, 1], donc sur R tout entier par
1-périodicité. La fonction P = − f − λ sin est alors bornée à son tour, donc constante car polynomiale. Or :
f (0) = 0, donc : P(0) = 0 et enfin : P = 0C (R,R) . Conclusion : f + λ sin = 0C (R,R) .
f
• Si : λ 6= 0, sin = est 1-périodique — ce qui est faux. Conclusion : λ = 0, donc : f = 0C (R,R) .
λ

Théorème (Dimension d’une somme de sous-espaces vectoriels) Soient E un K-espace vectoriel pas nécessairement
de dimension finie et F1 , . . . , F p des sous-espaces vectoriels de dimension finie de E.
Xp X p Xp
La somme Fk est alors de dimension finie et : dim Fk ¶ dim Fk , avec égalité si et seulement si F1 , . . . , F p
k=1 k=1 k=1
M
p X
p
sont en somme directe. Si F1 , . . . , F p sont en somme directe, on peut donc affirmer que : dim Fk = dim Fk .
k=1 k=1

Démonstration
X
p Y
p X
p
• Notons ϕ l’application ( f1 , . . . , f p ) 7−→ f k de Fk dans Fk . Cette application est linéaire — à vérifier
k=1 k=1 k=1
X
p Y
p X
p
— et surjective par définition de Fk , donc comme Fk est de dimension finie par produit, Fk l’est
k=1 k=1 k=1
X
p Y
p X
p
également avec : dim Fk ¶ dim Fk = dim Fk .
k=1 k=1 k=1

• L’inégalité précédente est une égalité si et seulement si ϕ est un isomorphisme, i.e. si et seulement elle est
injective puisqu’elle est de toute façon surjective, i.e. si et seulement si non noyau est trivial. Or ce noyau
Y
p X
p
est trivial si et seulement si : ∀( f1 , . . . , f p ) ∈ Fk , f k = 0 E =⇒ f1 = . . . = f p = 0 E , i.e. si et
k=1 k=1
seulement si F1 , . . . , F p sont en somme directe. „

Théorème (Construction d’une somme directe à partir d’une famille libre) Soient E un K-espace vectoriel et
G
p
X = (x i )i∈I une famille libre de E. On partitionne I en p parties I1 , . . . , I p disjointes pour lesquelles : I = I k et on
k=1
pose pour tout k ∈ ¹1, pº : Fk = Vect(x i )i∈Ik . Les sous-espaces vectoriels F1 , . . . , F p de E sont alors en somme directe.

23
Christophe Bertault — Mathématiques en MPSI

Théorème (Bases d’une somme directe d’un nombre fini de sous-espaces vectoriels) Soient E un K-espace vectoriel
et F1 , . . . , F p des sous-espaces vectoriels de E. On suppose que pour tout k ∈ ¹1, pº, Fk possède une base Bk . Si F1 , . . . , F p
M p
sont en somme directe, la famille obtenue par concaténation des familles B1 , . . . , B p est une base dite adaptée de Fk .
k=1

Théorème (Détermination d’une application linéaire sur une somme directe) Soient E et F deux K-espaces vecto-
M
p
riels, E1 , . . . , E p des sous-espaces vectoriels de E et u1 ∈ L (E1 , F ), . . . , u p ∈ L (E p , F ). On suppose que : E = Ek . Il
k=1
existe une et une seule application linéaire u ∈ L (E, F ) telle que pour tout k ∈ ¹1, pº : u Ek
= uk .

 Explication 
• Concrètement, pour tout x ∈ E décomposé sous la forme : x = x1 + . . . + x p avec x 1 ∈ E1 , . . . , x p ∈ E p :

u(x) = u1 (x 1 ) + . . . + u p (x p ).

• Rappelons enfin que dans le cas particulier de deux sous-espaces « E = E1 ⊕ E2 » :


— pour : u1 = IdE1 et u2 = Id E2 , u est l’application IdE ,
— pour : u1 = IdE1 et u2 = 0L (E2 ,E) , u est la projection sur H parallèlement à H ′ ,
— pour : u1 = IdE1 et u2 = −Id E2 , u est la symétrie par rapport à H parallèlement à H ′ .

24