Académique Documents
Professionnel Documents
Culture Documents
Plan de cours
I Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
II Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
III Formes linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
I | Espaces vectoriels
A – Espaces vectoriels
Nous ne reviendrons pas ici sur la définition d’un K-espace vectoriel, K désignant R ou C. Les différents points
de cette définition permettent d’effectuer des opérations sur les vecteurs analogues à celles qu’on effectue
plus habituellement dans R2 ou R3 (somme de vecteurs, multiplication d’un vecteur par un scalaire).
2 Chap. 1 Compléments d’algèbre linéaire
Exemples
Quelques exemples classiques d’espaces vectoriels (munis des lois usuelles) :
• R, C et plus généralement Kn ;
• K[X ], l’ensemble des polynômes à coefficients dans K ;
• Mn,p (K), l’ensemble des matrices à coefficients dans K à n lignes et p colonnes ;
• F (R, R), l’ensemble des fonctions définies sur R et à valeurs dans R ;
• KN , l’ensemble des suites à valeurs réelles ou complexes.
Il s’agit de résultats classiques du cours qui peuvent être réutilisés sans démonstration le jour du concours.
B – Sous-espaces vectoriels
E désigne dans toute la suite du chapitre un K-espace vectoriel.
On vérifie qu’un sous-espace vectoriel est lui-même un espace vectoriel. Ce résultat est très pratique : pour
montrer qu’un ensemble possède une structure d’espace vectoriel, il suffit de prouver qu’il s’agit d’un sous-
espace vectoriel d’un espace vectoriel déjà connu. On se ramènera notamment aux exemples fondamentaux
présentés précédemment. On peut même avoir plus simplement recours à la caractérisation suivante :
S’en suit toute une série d’exemples qu’il convient de maîtriser parfaitement.
Exemple 1
{0E } est un sous-espace vectoriel de E .
Exemple 2
C ∞ (R), l’ensemble des fonctions de classe C ∞ sur R, est un espace vectoriel en tant que sous-espace
vectoriel de F (R, R) :
• la fonction nulle est évidemment de classe C ∞ ;
• si f , g ∈ C ∞ (R) et λ ∈ R, λf + g est de classe C ∞ sur R comme somme de fonctions de classe C ∞ .
Exemple 3
Rn [X ], l’ensemble des polynômes à coefficients réels de degré au plus n , est un espace vectoriel en tant que
sous-espace vectoriel de R[X ] :
• le polynôme nul est de degré au plus n ;
• si P,Q ∈ Rn [X ] et λ ∈ R, le polynôme λP + Q est bien de degré au plus n. Donc λP + Q ∈ Rn [X ].
Exemple 4
Sn (K), l’ensemble des matrices symétriques de taille n ×n à coefficients dans K, est un sous-espace vectoriel
de Mn (K) :
• la matrice nulle est symétrique ;
• soient M , N ∈ Sn (K) et λ ∈ K. (λM + N )> = λM > + N > = λM + N . Donc λM + N ∈ Sn (K).
Exemple 5
L’ensemble des suites convergentes à valeurs réelles est un sous-espace vectoriel de l’ensemble des suites à
valeurs réelles :
• la suite nulle converge (vers 0) ;
• si (u n )n∈N et (vn )n∈N sont deux suites qui convergent respectivement vers ` et `0 , λ un réel, alors la suite
(λu n + vn )n ∈N converge (vers λ` + `0 ).
Il y a bien stabilité par combinaison linéaire.
Exemple 6
F = {(x , y , z ) ∈ R3 | x + 2y − 3z = 0} est un sous-espace vectoriel de R3 :
• le vecteur nul appartient bien à F car 0 + 2 · 0 − 3 · 0 = 0 ;
• si u (x , y , z ), v = (x 0 , y 0 , z 0 ) ∈ R3 , λ ∈ R alors λu + v ∈ F . En effet, λu + v = (λx + x 0 , λy + y 0 , λz + z 0 ) et :
Exemple 7
G = {(x + y , x − y , 2y ) ∈ R3 | (x , y ) ∈ R2 } est un sous-espace vectoriel de R3 :
• Pour x = y = 0, (x + y , x − y , 2y ) = 0R3 donc 0R3 ∈ G .
• Soient u , v ∈ G et λ ∈ R.
x+y x0 + y 0
Il existe x , x 0 , y , y 0 ∈ R tels que u = x − y et v = x 0 − y 0 .
2y 2y 0
x+y x0 + y 0 (λx + x 0 ) + (λy + y 0 ) x 00 + y 00
λu + v = λ x − y + x 0 − y 0 = (λx + x 0 ) − (λy + y 0 ) = x 00 − y 00
2y 2y 0 2(λy + y 0 ) 2y 00
Démonstration
Montrons que F ∩ G est un sous-espace vectoriel de E .
• 0E ∈ F et 0E ∈ G car F et G sont deux sous-espaces vectoriels (s.e.v.) de E . Donc 0E ∈ F ∩ G .
• Soient x , y ∈ F ∩ G et λ ∈ K.
λx + y ∈ F car F est un s.e.v. de E . De même, λx + y ∈ G car G est un s.e.v. de E . Donc λx + y ∈ F ∩ G .
Il n’en va pas de même pour l’union. En général, F ∪ G n’est pas un espace vectoriel.
Commençons par rappeler quelques définitions et propriétés fondamentales vues en première année sur les
familles finies de vecteurs.
1. À vos crayons !
Définition 1.4
Soit (u 1 , . . . , u n ) une famille de vecteurs de E .
On note Vect(u 1 , . . . , u n ) l’ensemble des combinaisons linéaires des vecteurs u 1 , . . . , u n , c’est-à-dire :
¨ n «
X
n
Vect(u 1 , . . . , u n ) = αi u i | (α1 , . . . , αn ) ∈ K
i =1
Théorème 1.5
Soit (u 1 , . . . , u n ) une famille de vecteurs de E . Vect(u 1 , . . . , u n ) est un espace vectoriel.
En pratique, il suffit d’écrire F = Vect(· · · ) pour justifier que F est un sous-espace vectoriel. Utile, non ?
Attention, il existe plusieurs familles génératrices distinctes. Elles peuvent ne pas avoir le même cardinal !
Vect(u 1 , . . . , u i , . . . , u j , . . . , u n ) = Vect(u 1 , . . . , u j , . . . , u i , . . . , u n )
Proposition 1.8
Toute famille de vecteurs de E qui contient une famille génératrice de E est génératrice de E .
On dit alors que les vecteurs u 1 , . . . , u n sont linéairement indépendants. Une famille non libre est dite liée.
Proposition 1.10
• Une famille est liée dès qu’elle contient le vecteur nul.
• Une famille composée d’un seul vecteur est libre si et seulement si ce vecteur n’est pas nul.
• Une famille composée de deux vecteurs est libre si et seulement s’ils ne sont pas colinéaires.
La dernière propriété est fausse dès qu’il y a plus de deux vecteurs. Il faudrait vérifier que chaque vecteur n’est
pas combinaison des autres pour prouver que la famille est libre, ce qu’on ne fait pas en pratique.
∀x ∈ Vect(u 1 , . . . , u n ), ∃!(λ1 , . . . , λn ) ∈ Kn , x = λ1 u 1 + · · · + λn u n
,→ Unicité de la décomposition.
Proposition 1.13
• Toute sous-famille d’une famille libre est libre.
• Toute famille contenant une famille liée est liée.
Pour les familles de polynômes échelonnées en degré (c’est-à-dire que les degrés sont deux à deux distincts),
on dispose d’une propriété relativement utile en pratique.
Proposition 1.14
Une famille de polynômes non nuls échelonnée en degré est libre.
Démonstration
Procédons par récurrence sur le nombre n de polynômes de la famille.
– Initialisation
Si P1 est non nul, la famille (P1 ) qui ne contient qu’un seul vecteur est libre.
– Hérédité
Considérons une famille (P1 , . . . , Pn , Pn+1 ) de polynômes non nuls échelonnés en degré. On peut sans perte
de généralité supposer que les polynômes sont ordonnés dans le sens des puissantes croissantes. Soit
λ1 , . . . , λn+1 ∈ K tels que :
λ1 P1 + · · · + λn Pn + λn+1 Pn+1 = 0
1
Si λn+1 6= 0, Pn+1 = − λn+1 (λ1 P1 + · · · + λn Pn ), ce qui est absurde pour une question de degré.
D’où λn+1 = 0 et λ1 P1 + · · · + λn Pn = 0. La famille (P1 , . . . , Pn ) est échelonnée en degré donc par hypothèse
de récurrence, elle est libre. Ce qui conduit à λ1 = · · · = λn = 0. Donc (P1 , . . . , Pn , Pn+1 ) est libre.
Ceci achève la démonstration par récurrence.
Exemple
On prouve ainsi sans aucun calcul que la famille (X + 1, X 3 − 3X 2 + 1, X 5 + 6X 2 , X 4 − 3) est libre.
∀x ∈ E , ∃!(λ1 , . . . , λn ) ∈ Kn , x = λ1 u 1 + · · · + λn u n
À retenir : pour déterminer la dimension d’un espace vectoriel de dimension finie, il suffit d’exhiber une base
de cet espace et de compter le nombre de vecteurs obtenus.
Par convention, dim({0E }) = 0.
Définition 1.20
On appelle droite vectorielle un espace de dimension 1, plan vectoriel un espace de dimension 2.
Théorème 1.21
Soient E un espace vectoriel de dimension n et F une famille génératrice de E .
Alors Card(F ) ¾ n , et si Card(F ) = n , c’est une base de E .
Dans la pratique, ce résultat a une importance capitale : il suffit qu’une famille soit génératrice et comporte
autant de vecteurs que la dimension de E pour que celle-ci soit une base de E .
Attention, ce n’est pas parce qu’une famille contient plus de n = dim(E ) vecteurs qu’elle est génératrice ! Par
exemple, (X , 2X , 3X ) n’est pas génératrice de R1 [X ] car le polynôme constant 1 ne peut s’écrire comme une
combinaison linéaire des trois vecteurs précédents.
Voici maintenant l’analogue du théorème de la base extraite pour les familles libres :
Théorème 1.23
Soient E un espace vectoriel de dimension n et F une famille libre de E .
Alors Card(F ) ¶ n , et si Card(F ) = n , c’est une base de E .
Si on connaît une famille libre d’un espace vectoriel E qui contient n = dim(E ) vecteurs, c’est une base !
Pour montrer que deux espaces vectoriels E et F de dimension finie sont égaux, il suffit donc de prouver que
F ⊂ E puis que dim(F ) = dim(E ). La double inclusion ne sera alors pas nécessaire.
Proposition 1.25
Soient F et G sont deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie.
Alors, F × G = {(x , y ) | x ∈ F, y ∈ G } est un sous-espace vectoriel de E et dim(F × G ) = dim(F ) × dim(G ).
On ne se limite désormais plus au cas des familles finies de vecteurs. Soit I un ensemble d’indices non
nécessairement fini. On peut par exemple prendre I = ¹1, 7º, I = N, I = R, etc. On considère de plus une
famille F de vecteurs de E indexée par I et on écrit F = (u i )i ∈I .
Exemples
Quelques exemples simples de familles infinies de vecteurs :
• (x 7→ x n )n∈N est une famille infinie (dénombrable) de F (R, R).
• (x 7→ eαx )α∈R est une famille infinie (non dénombrable) de F (R, R).
• (X n )n∈N est une famille infinie de R[X ].
On appelle combinaison linéaire de la famille F tout vecteur de la forme j ∈J λ j u j où J est une partie finie
P
de I . On ne manipule donc que des sommes finies ! Comme dans le cas d’une famille finie, on note Vect(F )
l’ensemble des combinaisons linéaires des vecteurs de F . C’est le sous-espace vectoriel engendré par la famille
(u i )i ∈I , c’est même le plus petit 2 sous-espace vectoriel de E contenant les éléments de F .
• F est dite génératrice si tout vecteur de E est combinaison linéaire des vecteurs de F .
X
∀u ∈ E , ∃ J ⊂ I , J finie, u = λ j u j avec λ j ∈ R
j ∈J
Démonstration
Il suffit de montrer que toute sous-famille finie d’une telle famille est libre, ce qui a déjà été fait.
Corollaire 1.28
La famille (X n )n∈N est une base de K[X ].
Démonstration
La famille (X n )n∈N engendre K[X ] par définition même de K[X ] et la liberté découle du résultat précédent.
On peut plus généralement prouver la propriété suivante.
Proposition 1.29
Toute famille (Pk )k ∈N de polynômes telle que deg(Pk ) = k pour tout k est une base de K[X ].
2. au sens de l’inclusion
Démonstration
La famille (Pk ) constituée de polynômes non nuls (deg(Pk ) 6= −∞) est échelonnée en degré ; elle est libre.
Reste cependant à montrer qu’elle est génératrice.
Considérons pour cela un polynôme P ∈ K[X ] et posons n = deg(P ). La famille (P0 , . . . , Pn ) est une base
de Kn [X ] puisqu’elle est libre et contient n + 1 = dim(Kn [X ]) éléments. Comme P ∈ Kn [X ], il s’écrit bien
comme combinaison linéaire des polynômes P0 , . . . , Pn et donc plus généralement comme une combinaison
linéaire de la famille (Pk )k ∈N .
Définition 1.30
Les scalaires x1 , . . . , xn sont alors appelés coordonnées du vecteur x dans la base B. On peut alors choisir
de représenter x par la matrice colonne de ses coordonnées dans la base B :
x1
.
MatB (x ) = ..
xn
u 11 ... up 1
. ..
MatB (F ) = .. . ∈ Mn,p (K)
u 1n . . . up n
n
X
où u i j représente la j e coordonnée du vecteur u i dans la base B, c’est-à-dire que l’on a u i = ui j e j .
j =1
La matrice dépend là encore de la base choisie.
On considère plus généralement deux bases B = (e1 , . . . , en ) et B 0 = (e10 , . . . , en0 ) d’un espace vectoriel de
dimension finie E et on cherche à déterminer un lien entre les coordonnées d’un même vecteur dans les bases
B et B 0 .
Définition 1.31
Soient B = (e1 , . . . , en ) et B 0 = (e10 , . . . , en0 ) deux bases d’un espace vectoriel de dimension finie E .
On appelle matrice de passage de la base B à la base B 0 , et on note PB→B 0 , la matrice de Mn (K) dont les
vecteurs colonnes représentent les coordonnées des vecteurs de la base B 0 dans la base B, soit :
Comme P est inversible, on trouve X 0 = P −1 X . Pour ne pas confondre P et P −1 , on se souviendra que pour
obtenir les coordonnées X 0 dans la nouvelle base en fonction des coordonnées X dans l’ancienne base, il est
nécessaire d’inverser un système, donc d’inverser une matrice.
Exemples
Soit E un espace vectoriel de dimension quelconque.
• Si u ∈ E est non nul, rg(u ) = dim(Vect(u )) = 1.
• Si u, v ∈ E sont non colinéaires, rg(u , v ) = dim(Vect(u , v )) = 2.
• Si u, v ∈ E sont colinéaires et non nuls, rg(u , v ) = dim(Vect(u, v )) = 1.
Proposition 1.35
Soient E un espace vectoriel de dimension n et F = (u 1 , . . . , u p ) une famille de p vecteurs de E .
(i) rg(u 1 , . . . , u p ) ¶ p ;
(ii) rg(u 1 , . . . , u p ) ¶ n ;
(iii) rg(u 1 , . . . , u p ) = p si et seulement si la famille est libre ;
(iv) rg(u 1 , . . . , u p ) = n si et seulement si la famille est génératrice de E.
Corollaire 1.36
Soit (u 1 , . . . , u n ) une famille de vecteurs d’un espace vectoriel E de dimension n .
La famille (u 1 , . . . , u n ) est une base de E si et seulement si rg(u 1 , . . . , u n ) = n .
Théorème 1.37
Soit (u 1 , . . . , u p ) une famille de vecteurs d’un espace vectoriel E de dimension finie n , admettant pour base
la famille B = (e1 , . . . , en ). Alors, le rang de la famille (u 1 , . . . , u p ) est égal au rang de la matrice représentative
des vecteurs u 1 , . . . , u p dans la base B, c’est-à-dire :
rg(u 1 , . . . , u p ) = rg(MatB (u 1 , . . . , u p ))
Exemple
Montrons que la famille F = (1 + 2X + 3X 2 , 2 + X + 3X 2 , 3 + 2X + X 2 ) est une base de R2 [X ]. Pour cela,
montrons que rg(F ) = 3 = dim(R2 [X ]) en écrivant la matrice M représentative de cette famille dans la base
canonique de R2 [X ].
1 2 3 1 2 3 1 2 3
M = 2 1 2 et rg(M ) = rg 0 −3 −4 = rg 0 -3 −4 = 3
L 2 ←L 2 −2L 1 L ←L −L
3 3 1 L 3 ←L 3 −3L 1 0 −3 −8 3 3 2 0 0 -4
Théorème 1.38
Soient E un espace vectoriel de dimension n et (u 1 , . . . , u n ) une famille de vecteurs de E .
On considère la matrice représentative M de la famille (u 1 , . . . , u n ) dans une base quelconque de E .
Attention, le déterminant n’a de sens que lorsqu’on manipule une famille de n vecteurs dans un espace de
dimension n. Sinon, la matrice n’est pas carrée (et la famille ne peut être une base de E ). On peut néanmoins
déterminer son rang.
Exemple
Reprenons l’exemple de la famille F = (1 + 2X + 3X 2 , 2 + X + 3X 2 , 3 + 2X + X 2 ) de R2 [X ]. Il suffit en fait de
calculer le déterminant de la matrice M , matrice représentative de cette famille dans la base canonique de
R2 [X ], pour montrer qu’il s’agit bien d’une base de R2 [X ].
1 2 3
1 2 2 3 2 3
2 1 2 = −2 +3 = −5 + 14 + 3 = 12 6= 0
3 1 3 1 1 2
3 3 1
F + G = {x1 + x2 | x1 ∈ F, x2 ∈ G }
Proposition 1.40
F + G est un sous-espace vectoriel de E ; il contient F et G .
x
Autrement dit, si x ∈ F ⊕ G alors il existe un unique couple
(x1 , x2 ) ∈ F × G tel que x = x1 + x2 .
x2
F
x1
∀x ∈ E , ∃!(x1 , x2 ) ∈ F × G , x = x1 + x2
On dit également que G est un supplémentaire de F dans E . Attention, un supplémentaire n’est pas unique !
Cependant, le théorème suivant permet de s’assurer de l’existence d’au moins un supplémentaire (tout du
moins en dimension finie).
Lorsque E est de dimension finie, on a souvent recours à la caractérisation suivante qui s’appuie sur la formule
de Grassman.
Lemme 1.45 : Formule de Grassman
dim(F + G ) = dim(F ) + dim(G ) − dim(F ∩ G ).
Exercice 1
On considère les deux espaces vectoriels :
x −y +t =0
4
G = λ(1, 1, 2, 0) + µ(2, 0, 1, 1) | (λ, µ) ∈ R2 .
F = (x , y , z , t ) ∈ R | ;
2x + z = 0
Déterminer une base de F et trouver un système d’équations vérifiées par les éléments de G .
F et G sont -ils supplémentaires dans R4 ?
Exercice 2
E = R4 [X ] et F = {P ∈ E | P (0) = P 0 (0) = P 0 (1) = 0}. Montrer que F est un espace vectoriel, déterminer une
base de F et préciser sa dimension puis que G = Vect(1, X , 1 + X + X 2 ) est un supplémentaire de F dans E .
Exercice 3
Montrer que Mn (R) = Sn (R) ⊕ An (R). Préciser les dimensions de ces espaces.
On peut ainsi montrer que deux sous-espaces sont supplémentaires en montrant que la concaténation de
deux bases est encore une base (mais de l’espace tout entier cette fois !).
F1 + · · · + Fp = {x1 + · · · + xp | (x1 , . . . , xp ) ∈ F1 × · · · × Fp }
Démonstration
Le sens direct est immédiat, par définition d’une somme directe. Reste à montrer que l’unicité de la décom-
position du vecteur nul implique l’unicité de la décomposition de n’importe quel vecteur.
Supposons que x1 + · · · + xp = x10 + · · · + xp0 avec xi , xi0 ∈ Fi . On a alors :
L’unicité de la décomposition du vecteur nul conduit à xi − xi0 = 0E pour tout i ∈ ¹1, p º, i.e. xi = xi0 .
Exercice 4
Soit E l’espace vectoriel des fonctions continues sur [−1; 1] à valeurs dans R et les sous-espaces suivants :
• F l’ensemble des fonctions constantes de E ;
• G l’ensemble des fonctions nulles sur [−1, 0] ;
• H l’ensemble des fonctions nulles sur [0, 1].
Montrer que E = F ⊕ G ⊕ H .
Exercice 5
0 2 −1
Soit f l’endomorphisme de R3 canoniquement associé à la matrice M = 3 −2 0 .
−2 2 1
Montrer que R3 = Ker(f − idR3 ) ⊕ Ker(f − 2idR3 ) ⊕ Ker(f + 4idR3 ) puis écrire la matrice représentative de f
dans une base adaptée à cette somme directe.
II | Applications linéaires
A – Définitions et premières propriétés
Définition 1.53
On dit que f est une application linéaire de E dans F si :
∀x , y ∈ E , ∀λ ∈ K, f (λx + y ) = λf (x ) + f (y ).
Exemple 1
Montrons que l’application f : R2 −→ R3 est linéaire.
(x , y ) 7−→ (x + 2y , −x , 2y )
Soient u (x , y ), u 0 (x 0 , y 0 ) ∈ R2 et λ ∈ R.
Comme λu + u 0 = (λx + x 0 , λy + y 0 ), on a :
Exemple 2
Montrons que l’application ϕ définie sur R[X ] par ϕ(P ) = X 2 P 0 − P est linéaire.
Soient P,Q ∈ R[X ] et λ ∈ R.
Proposition 1.54
Si f : E → F est linéaire, alors f (0E ) = 0F .
Démonstration
Supposons que f ∈ L (E , F ).
f (0E ) = f (0E + 0E ) = f (0E ) + f (0E ) = 2f (0E ). Donc f (0E ) = 0F .
Cette propriété nous permet de montrer qu’une application n’est pas linéaire.
Exemple
L’application ϕ définie sur R2 par ϕ(x , y ) = (x + 2y + 1, x − y ) n’est pas linéaire.
En effet, ϕ(0, 0) = (1, 0) 6= (0, 0).
Proposition 1.55
Soient f , g : E → F deux applications linéaires. Alors,
• λf + g et g ◦ f sont linéaires.
• Si f est de plus bijective alors f −1 est également linéaire.
Proposition 1.56
L’ensemble L (E , F ) muni des lois + et · est un K-espace vectoriel.
Proposition 1.57
Si E et F sont de dimension finie, L (E , F ) est un K-e.v. de dimension finie et
Définition 1.58
• Un endomorphisme de E est une application linéaire de E dans lui-même.
On note L (E ) l’ensemble des endomorphismes de E .
• Un isomorphisme est une application linéaire bijective.
• Un automorphisme est un endomorphisme bijectif.
On note GL(E ) l’ensemble des automorphismes de E . Il est appelé groupe linéaire.
• Une forme linéaire est une application linéaire à valeurs dans K.
Exemple
L’application f : R3 → R définie par f (x , y , z ) = x + 2y − z est une forme linéaire de R3 .
• f est bien à valeurs dans R.
• f est linéaire car pour tous u(x , y , z ), u 0 (x 0 , y 0 , z 0 ) ∈ R3 et λ ∈ R, on a :
Attention, GL(E ) n’est pas un espace vectoriel. Il possède cependant une structure de groupe, d’où son nom.
1 – Noyau et injectivité
Définition 1.59
On appelle noyau de f et on note Ker(f ) l’ensemble défini par :
Ker(f ) = {x ∈ E | f (x ) = 0F } = f −1 ({0F })
Attention, si A est un ensemble, la notation f −1 (A) ne signifie pas que f est bijective ! f −1 (A) désigne l’ensemble
des antécédents des éléments de A par f . Autrement dit, f −1 (A) = {x ∈ E | f (x ) ∈ A}.
On retiendra que :
x ∈ Ker(f ) ⇐⇒ f (x ) = 0F
Théorème 1.60
Ker(f ) est un sous-espace vectoriel de E .
Démonstration
Montrons que Ker(f ) est un sous-espace vectoriel de E .
? Tout d’abord, 0E ∈ Ker(f ).
En effet, nous avons montré que f (0E ) = 0F .
? Soient x , y ∈ Ker(f ) et λ ∈ K.
f (λx + y ) = λf (x ) + f (y ) = λ0F + 0F = 0F donc λx + y ∈ Ker(f ).
Attention, 0E n’est pas toujours le seul antécédent de 0F , on se méfiera fortement de l’implication souvent
fausse : f (x ) = 0F =⇒ x = 0E . Cette propriété est vraie lorsque l’application est injective. Et dans le cas
d’une application linéaire, il suffit réciproquement que cette propriété soit vérifiée pour que l’application soit
injective. En d’autres termes, on a la théorème suivant :
Théorème 1.61
L’application linéaire f est injective si et seulement si Ker(f ) = {0E }
Démonstration
Démontrons ce résultat par double implication.
=⇒ Supposons f injective, c’est-à-dire que : ∀(x , y ) ∈ E 2 f (x ) = f (y ) =⇒ x = y .
Soit x ∈ Ker(f ). Montrons que x = 0E .
Comme f (x ) = 0F et f (0E ) = 0F , on a f (x ) = f (0E ) et par injectivité, x = 0E .
⇐= Supposons maintenant que Ker(f ) = {0E }.
Montrons que f est injective et considérons pour cela x , y ∈ E quelconques.
f (x ) = f (y ) ⇐⇒ f (x ) − f (y ) = 0E ⇐⇒ f (x − y ) = 0E ⇐⇒ x − y ∈ Ker(f )
f ∈L (E ,F )
Exemple 1
Soit f l’endomorphisme de R3 défini par f (x , y , z ) = (2x − y , y + z , z − x ). Étudions l’injectivité de f .
Déterminons pour cela son noyau.
2x − y = 0
y +z =0 ⇐⇒ x = y =z =0
z −x =0
Exemple 2
Éudions l’injectivité de l’endomorphisme ϕ : P 7→ X P 0 − P de R2 [X ].
? Vérifions pour commencer que ϕ est bien un endomorphisme de R2 [X ] :
• ϕ est linéaire : pour tout P,Q ∈ R2 [X ] et pour tout λ ∈ R,
• ϕ est à valeurs dans R2 [X ]. En effet, on peut raisonner sur le degré ou bien effectuer le calcul suivant
avec P = a X 2 + b X + c :
ϕ(P ) = X (2a X + b ) − (a X 2 + b X + c ) = a X 2 − c ∈ R2 [X ]
? Déterminons le noyau de ϕ.
Définition 1.62
On appelle image de f et on note Im(f ) l’ensemble défini par :
Im(f ) = f (E ) = {y ∈ F | ∃x ∈ E y = f (x )} = { f (x ) | x ∈ E }
Théorème 1.63
Im(f ) est un sous-espace vectoriel de F .
Démonstration
Montrons que Im(f ) est un sous-espace vectoriel de F .
? Comme 0F = f (0E ), on a bien 0F ∈ Im(f ).
? De plus, si x , y ∈ Im(f ) et λ ∈ K, il existe x 0 , y 0 ∈ E tels que x = f (x 0 ) et y = f (y 0 ). D’où,
λx + y = λf (x 0 ) + f (y 0 ) = f (λx 0 + y 0 ) ∈ Im(f )
Le théorème suivant montre que l’on peut aisément obtenir une famille génératrice de l’image (en prenant
l’image par f de vecteurs constituant une base de E ). Il suffit alors de retirer les vecteurs combinaisons linéaires
des autres afin d’obtenir une famille libre, donc une base. Un résultat extrêmement utile pour déterminer
l’image !
Théorème 1.64
Soient E , F deux espaces vectoriels, E étant supposé de dimension finie, et f ∈ L (E , F ).
Si (e1 , . . . , en ) est une base de E alors Im f = Vect(f (e1 ), . . . , f (en )).
Démonstration
Définition 1.65
Soit f ∈ L (E , F ) avec E de dimension finie.
Alors Im(f ) est de dimension finie et on appelle rang de f , noté rg(f ), la dimension de Im(f ).
En effet, si E est de dimension finie, avec les notations précédente, Im(f ) = Vect(f (e1 ), . . . , f (en )) donc Im(f )
admet une famille génératrice finie et on a même dim(Im(f )) ¶ n.
Théorème 1.66
L’application linéaire f est surjective si et seulement si Im(f ) = F .
Démonstration
Rappelons qu’une application f : E → F est surjective si et seulement si tout élément de F admet au moins
un antécédent par f . Cela revient à dire que f (E ) = F , soit Im(f ) = F .
Corollaire 1.67
Si f ∈ L (E , F ) et E de dimension finie, alors f surjective si et seulement si rg(f ) = dim(F ).
Démonstration
On a Im(f ) ⊂ F et si rg(f ) = dim(Im(f )) = dim(F ), l’égalité des dimensions nous donne alors Im(f ) = F .
Reprenons les deux exemples du paragraphe précédent pour voir si les applications étudiées sont surjectives.
Exemple 1
Soit f l’endomorphisme de R3 défini par f (x , y , z ) = (2x − y , y + z , z − x ). Étudions la surjectivité de f .
Déterminons pour cela son image.
Im(f ) = Vect(f (e1 ), f (e2 ), f (e3 )) avec (e1 , e2 , e3 ) la base canonique de R3 . On trouve :
2 −1 0
Cette dernière famille, qui engendre Im(f ), est également libre : 0 1 1 = 3 6= 0 (on peut aussi revenir à
−1 0 1
la définition d’une famille libre).
C’est donc une base de Im(f ), qui est ainsi de dimension 3, et on a Im(f ) = R3 . f est donc surjective.
Exemple 2
Étudions la surjectivité de l’endomorphisme ϕ : P 7→ X P 0 − P de R2 [X ]. Déterminons l’image de ϕ.
De la même façon que dans l’exemple précédent,
Cette dernière famille est libre (deux vecteurs non colinéaires), mais Im(ϕ) 6= R2 [X ] car dim(Im(ϕ)) = 2 < 3 =
dim(R2 [X ]) donc ϕ n’est pas surjective.
Démonstration (1)
On pose n = dim(E ). Soit (e1 , . . . , ep ) une base de Ker f complétée en une base (e1 , . . . , ep , ep +1 , . . . , en ) de E .
| {z } | {z }
p vecteurs n−p vecteurs
Prouvons que rg f = n − p en montrant que (f (ep +1 ), . . . , f (en )) est une base de Im f .
• Im f = Vect(f (e1 ), . . . , f (ep ), f (ep +1 ), . . . , f (en )) = Vect(f (ep +1 ), . . . , f (en )).
La famille (f (ep +1 ), . . . , f (en )) est donc génératrice.
• La famille est également libre. En effet, soit λp +1 , . . . , λn ∈ K tels que :
n
X
λp +1 f (ep +1 ) + · · · + λn f (en ) = λi f (ei ) = 0F
i =p +1
!
n
X n
X
Alors, f λi ei = 0F par linéarité, ce qui montre que λi ei ∈ Ker f .
i =p +1 i =p +1
La famiIle (e1 , . . . , ep ) étant une base de Ker(f ), il existe donc λ1 , . . . , λp tels que :
n
X p
X
λi ei = λi ei , soit λ1 e1 + · · · + λp ep − λp +1 ep +1 − · · · − λn en = 0E
i =p +1 i =1
La famille (e1 , . . . , en ) étant une base de E , elle est libre et dès lors, tous les λi sont nuls.
En particulier, λp +1 = · · · = λn = 0.
Ainsi, (f (ep +1 ), . . . , f (en )) est une base de Im(f ) et Im(f ) est de dimension n − p = n − dim(Ker(f )).
On notera que dans le théorème du rang, seule la dimension de l’espace de départ intervient. Ce résultat n’a
plus de sens lorsqu’il est de dimension infinie mais nous pouvons en donner une forme plus générale.
Travaillant en dimension infinie, l’existence d’un supplémentaire de Ker(f ) n’est pas acquis.
Démonstration
On suppose donc que E = Ker(f ) ⊕ I . Rappelons que la restriction f|I est linéaire et f|I : I → Im(f ).
• L’application f|I est injective : Ker(f|I ) = Ker(f ) ∩ I = {0E }.
• L’application f|I est surjective. En effet, soit y ∈ Im(f ). On a y = f (x ) avec x ∈ E . Il existe alors (x1 , x2 ) ∈
Ker(f ) × I tel que x = x1 + x2 . Ainsi, y = f (x ) = f (x1 ) + f (x2 ) = f (x2 ) = f|I (x2 ).
Tout supplémentaire à Ker(f ) est donc isomorphe à Im(f ).
Théorème 1.70
Soit f un endomorphisme de E , avec E de dimension finie. Alors,
Démonstration
La preuve repose sur le théorème du rang :
L’hypothèse de dimension finie nous permet d’utiliser le théorème du rang, le fait que f soit un endomor-
phisme permet de justifier que Im(f ) ⊂ E puis que Im(f ) = E par égalité des dimensions.
En dimension finie, un endomorphisme est bijectif dès qu’il est injectif ou surjectif ! C’est une propriété
importante des applications linéaires. On pourra se reporter aux exemples traités précédemment.
Il est souvent plus simple de prouver la bijectivité en commençant par justifier l’injectivité de l’application et
ce, en montrant que le noyau est réduit à {0E }. Mais il n’y a pas de règle générale...
Théorème 1.71
Soit f ∈ L (E , F ). f est un isomorphisme si et seulement s’il existe une base B de E telle que f (B) est
une base de F .
Démonstration
On considère une application f ∈ L (E , F ).
=⇒ Supposons que f est un isomorphisme et considérons une base B = (e1 , . . . , en ) quelconque de E .
f étant surjective, la famille (f (e1 ), . . . , f (en )) engendre F = Im(f ).
Cette famille comporte n = dim(E ) vecteurs et comme dim(E ) = dim(F ) (cf. corollaire précédent), on
en déduit que cette famille génératrice est une base de Im(f ).
⇐= Considérons une base B = (e1 , . . . , en ) de E telle que f (B) = (f (e1 ), . . . , f (en )) soit une base de F .
• F = Vect(f (e1 ), . . . , f (en )) = Im(f ) donc f est surjective.
• Soit x ∈ Ker(f ).
n
n n
X X X
Il existe α1 , . . . , αn ∈ K tels que x = αi ei . Ainsi, f (x ) = f αi ei = αi f (ei ) = 0F .
linéarité
i =1 i =1 i =1
Mais comme (f (e1 ), . . . , f (en )) est une base de F , la famille est liibre.
Ce qui montre que α1 = · · · = αn = 0. Ainsi, x = 0E et on a bien Ker(f ) = {0E }, f est injective.
Au final, f est un isomorphisme de E vers F .
L’image de toute base par un isomorphisme est donc une base, et réciproquement.
? Si y ∈
/ Im(f ), il n’y a aucune solution.
? Si y ∈ Im(f ), il existe x0 ∈ E tel que y = f (x0 ).
Le problème admet donc au moins une solution. De plus,
y = f (x ) ⇐⇒ f (x ) = f (x0 ) ⇐⇒ f (x − x0 ) = 0F ⇐⇒ x − x0 ∈ Ker(f )
Donc les solutions de l’équation sonc de la forme x0 + u avec u ∈ Ker(f ), c’est-à-dire f (u) = 0F . L’ensemble
des solutions S s’écrira :
S = x0 + Ker(u )
Il possède une structure de sous-espace affine.
Si Ker(f ) = {0E }, il n’y a qu’une solution, x0 . Si dim(Ker(f )) ¾ 1, il y en a une infinité.
On retrouve un résultat bien connu : dans un problème linéaire, les solutions s’écrivent comme la somme
d’une solution particulière et de la solution générale de l’équation homogène...
C – Représentation matricielle
On considère une application f ∈ L (E , F ). Dans toute cette partie, E et F sont supposés de dimension finie
(toutes deux non nulles).
Définition 1.72
On appelle trace d’une matrice M ∈ Mn (K) et on note Tr(M ) la somme des coefficients diagonaux de M .
n
X
Autrement dit, Tr(M ) = mi i .
i =1
Exemple
1 2 3
Si M = 4
5 6 alors Tr(M ) = 1 + 5 + 9 = 15.
7 8 9
Proposition 1.73
Si A, B ∈ Mn (K), alors Tr(AB ) = Tr(B A).
Attention, les matrices AB et B A sont généralement différentes, même si elles ont la même trace.
Démonstration
n
X n X
X n n
X n X
X n
On a (AB )i j = a i k bk j donc Tr(AB ) = a i k bk i et (B A)i j = bi k a k j donc Tr(B A) = bi k a k i .
k =1 i =1 k =1 k =1 i =1 k =1
n X
X n
Les indices de sommation étant muets, on a Tr(B A) = a i k bk i . De plus, les sommes considérées sont
k =1 i =1
finies donc l’ordre de sommation n’importe pas. L’égalité est donc établie.
Exemple
Les deux matrices suivantes ont bien même trace :
1 2 5 6 19 22 5 6 1 2 23 34
= ; =
3 4 7 8 43 50 7 8 3 4 31 46
Exercice 6
Déterminer la dimension de H = {M ∈ Mn (C) | Tr(M ) = 0}.
!
p
X p
X
f (u ) = f λj ej = λ j f (e j )
j =1 j =1
Pour déterminer f (u ) à partir de u , il faut et il suffit de connaître l’image des vecteurs de la base B par f ,
c’est-à-dire de connaître les vecteurs f (e j ). On vient simplement de montrer :
Théorème 1.74
Une application linéaire est entièrement déterminée par l’image d’une base de E .
De plus, les vecteurs f (e j ) sont des éléments de F . Ils peuvent donc s’écrire comme combinaisons linéaires
des vecteurs fi , à savoir :
n
X
∀ j ∈ ¹1, p º, f (e j ) = mi , j fi
i =1
f (e1 ) . . . f (en )
e1
.. = MatB (f ) ∈ Mn (K)
.
en
Exemple 1
Soit f l’endomorphisme de R3 défini par f (x , y , z ) = (2x − y , y + z , z − x ).
On note B = (e1 , e2 , e3 ) la base canonique de R3 et B 0 = (e10 , e20 , e30 ) avec :
Montrer que la famille B 0 est une base de R3 et déterminer les matrices MatB,B (f ), MatB,B 0 (f ) et
MatB 0 ,B 0 (f ).
1 0 0
? Tout d’abord, B 0 est bien une base de R3 car 1 0 1 = −1 6= 0.
0 1 1
? f (e1 ) = (2, 0, −1) = 2e1 − e3 , f (e2 ) = (−1, 1, 0) = −e1 + e2 et f (e3 ) = (0, 1, 1) = e2 + e3 donc :
? f (e1 ) = (2, 0, −1) = 2e10 + e20 − 2e30 , f (e2 ) = (−1, 1, 0) = −e10 − 2e20 + 2e30 et f (e3 ) = (0, 1, 1) = e30 donc :
Pour déterminer les coordonnées du vecteur f (e1 ) dans la base B 0 , on peut déterminer α, β , γ ∈ R tels
que f (e1 ) = αe10 + β e20 + γe30 à l’aide d’un système linéaire, ou bien effectuer les calculs de tête.
? f (e10 ) = (1, 1, −1) = e10 − e20 , f (e20 ) = (0, 1, 1) = e30 et f (e30 ) = (−1, 2, 1) = −e10 − 2e20 + 3e30 donc :
Exemple 2
Écrire la matrice dans la base canonique de R2 [X ] de l’endomorphisme ϕ : P 7→ X P 0 − P .
ϕ(1) = −1, ϕ(X ) = 0 et ϕ(X 2 ) = X 2 donc la matrice de ϕ dans la base canonique est :
Proposition 1.76
Soient E et F deux espaces vectoriels de dimension finie, de bases respectives B et B 0 .
Soient x ∈ E et f ∈ L (E , F ). On pose X = MatB (x ) et M = MatB,B 0 (f ). Alors MatB 0 (f (x )) = M X .
Exemple 1 (bis)
Reprenons l’exemple 1 du paragraphe précédent. f (1, 2, 3) = (0, 5, 2) mais on peut également vérifier que :
2 −1 0 1 0
0 1 1 2 = 5
−1 0 1 3 2
Nous avons choisi de travailler dans la base canonique B, ce qui est de loin le plus simple. Mais tout
fonctionne également dans la base B 0 : (1, 2, 3) = e10 + 2e20 + e30 et,
1 0 −1 1 0
−1 0 −2 2 = −3
0 1 3 1 5
Exemple 2 (bis)
Reprenons l’exemple 2 du paragraphe précédent. ϕ(2X 2 − 3X + 5) = 2X 2 − 5 mais on peut également vérifier
que :
−1 0 0 5 −5
0 0 0 −3 = 0
0 0 1 2 2
Proposition 1.77
On considère deux endomorphismes f et g de E et on note B une base de cet espace.
(i) MatB (f + g ) = MatB (f ) + MatB (g ) ;
(ii) MatB (f ◦ g ) = MatB (f ) × MatB (g ) ;
(iii) f est bijective si et seulement si MatB (f ) est inversible. Dans ce cas, MatB (f −1 ) = MatB (f )−1 .
Voici un tableau de correspondance synthétisant les propriétés qui viennent d’être exposées :
x ∈E X ∈ Mn1 (K)
f ∈ L (E ) M ∈ Mn (K)
f (x ) ∈ E M X ∈ Mn1 (K)
f + g ∈ L (E ) M + N ∈ Mn (K)
f ◦ g ∈ L (E ) M N ∈ Mn (K)
f −1 , f ∈ GL(E ) M −1 , M ∈ GLn (K)
Soient B et B 0 deux bases de E et f ∈ L (E ). On rappelle que P = PB→B 0 ∈ GLn (K) désigne la matrice de
passage de la base B à la base B 0 – ses colonnes représentent les coordonnées des vecteurs de B 0 dans la
base B :
e10 ... en0
e1
.. = PB→B 0
.
en
X =PX0 c’est-à-dire X 0 = P −1 X
M 0 = P −1 M P
Démonstration
(ii) D’après ce qui précède, f (x ) a pour coordonnées M X dans la base B et M 0 X 0 dans la base B 0 .
Ainsi, M 0 X 0 = P −1 (M X ), ce qui donne
M 0 P −1 X = P −1 M X
L’égalité précédente étant valable quel que soit le vecteur X , un résultat de première année montre
que M 0 P −1 = P −1 M , c’est-à-dire que M 0 = P −1 M P .
N’oublions pas que pour déterminer X 0 en fonction de X , on doit inverser un système. D’où la présence de la
matrice P −1 dans la formule X 0 = P −1 X .
Exemple 1 (ter)
Reprenons l’endomorphisme f de R3 défini par f (x , y , z ) = (2x − y , y + z , z − x ). Notons M sa matrice dana
la base canonique et M 0 sa matrice dans la base B 0 = (e10 , e20 , e30 ) où e10 = (1, 1, 0), e20 = (0, 0, 1), e30 = (0, 1, 1).
2 −1 0 1 0 0 1 0 0
On a M = 0 1 1 et P = 1 0 1. Après calcul, on trouve P −1 = 1 −1 1 et :
−1 0 1 0 1 1 −1 1 0
1 0 0 2 −1 0 1 0 0 1 0 0 1 0 −1 1 0 −1
M 0 = P −1 M P = 1 −1 1 0 1 1 1 0 1 = 1 −1 1 1 1 2 = −1 0 −2
−1 1 0 −1 0 1 0 1 1 −1 1 0 −1 1 1 0 1 3
M 0 = P −1 M P
Toute matrice inversible pouvant s’interpréter comme une matrice de passage, deux matrices semblables
représentent le même endomorphisme dans deux bases différentes. Elles vérifient donc, comme nous allons
le constater, un certain nombre de propriétés communes.
Proposition 1.80
Deux matrices semblables ont même rang, même trace et même déterminant.
Démonstration
Considérons deux matrices M , M 0 ∈ Mn (K) vérifiant M 0 = P −1 M P avec P ∈ GLn (K).
(i) Le rang d’un endomorphisme étant égal au rang de sa matrice représentative dans n’importe quelle
base, rg(M ) = rg(M 0 ).
(ii) Tr(M 0 ) = Tr(P −1 M P ) = Tr(P −1 (M P )) = Tr((M P )P −1 ) = Tr(M ) car Tr(AB ) = Tr(B A) ;
1
(iii) det(M 0 ) = det(P −1 M P ) = det(P −1 ) det(M ) det(P ) = det(M ) det(P ) = det(M ).
det(P )
Le déterminant et la trace étant invariants par changement de base, on peut donner la définition suivante.
Définition 1.81
On appelle déterminant (respectivement trace) d’un endomorphisme f et on note det(f ) (respectivement
Tr(f )), le déterminant (respectivement la trace) de toute matrice représentative de f .
Exemple
Dans l’exemple 1, on vérifie bien que : Tr(M ) = Tr(M 0 ) = 4 et det(M ) = det(M 0 ) = 3.
M 0 = Q −1 M P
On rappelle que lorsque M et M 0 sont deux matrices équivalentes, on peut passer de M à M 0 par une série
d’opérations élémentaires sur les lignes, c’est même une caractérisation des matrices équivalentes.
Théorème 1.84
Deux matrices de Mn,p (K) sont équivalentes si, et seulement si, elles ont le même rang.
Il est souvent plus simple de travailler avec des matrices que des applications linéaires.
Soit B = (e1 , . . . , en ) une base de E .
Pour déterminer le noyau d’une application linéaire, on pourra procéder comme suit :
Exemple
L’endomorphisme ϕ : P 7→ X P 0 − P de R2 [X ] admet comme matrice dans labase canonique
: ϕ(1) = −1,
−1 0 0
ϕ(X ) = 0 et ϕ(X 2 ) = X 2 donc la matrice de ϕ dans la base canonique est M = 0 0 0. D’où,
0 0 1
Exemple (suite)
−1 0 0 a 0 −a 0 a 0 0
P = a + b X + c X 2 ∈ Ker(ϕ) ⇐⇒ 0 0 0 b = 0 ⇐⇒ 0 = 0 ⇐⇒ b = b = b 1
0 0 1 c 0 c 0 c 0 0
0
Attention à ne pas conclure que Ker(ϕ) = Vect 1, n’oublions pas que Ker(ϕ) ⊂ R2 [X ]. On travaillait
0
jusqu’à présent avec des coordonnées. On a en fait Ker(ϕ) = Vect(X ).
Pour déterminer l’image d’une application linéaire, on pourra procéder comme suit :
Exemple (suite)
La matrice de l’exemple précédent nous donne directement Im(ϕ) = Vect(−1, 0, X 2 ) = Vect(1, X 2 ). Cette
famille génératrice est même une base car (1, X 2 ) est libre.
Il reste pour finir à faire le lien entre les différentes notions de rang apparues tout au long du chapitre. Rappelons
que l’on avait défini :
• le rang d’un système linéaire comme le nombre de pivots de n’importe quel système échelonné équivalent ;
• le rang d’une matrice comme le rang du système homogène associé ;
• le rang d’une famille de vecteurs comme la dimension du sous-espace vectoriel engendré par ces vecteurs ;
• le rang d’une application comme la dimension de son image.
Théorème 1.85
Soit f ∈ L (E , F ) où E et F sont de dimension finie, avec B une base de E et B 0 une base de F .
Si on note M = MatB,B 0 (f ), alors rg(f ) = rg(M ).
Démonstration
L’image de f est engendrée par f (B) = (f (e1 ), . . . , f (en )) donc :
Proposition 1.86
I 0
Soit M ∈ Mn,p (K) de rang r . Alors M est équivalente à Jr = r ∈ Mn,p (K).
0 0
Démonstration
Notons f ∈ L (Kp , Kn ) l’application linéaire canoniquement associée à M .
Construisons une base B = (e1 , . . . , ep ) de Kp et une base C = (f1 , . . . , fn ) de Kn telles que MatB,C (f ) = Jr .
• Ker(f ) étant de dimension p − r (théorème du rang), considérons une base de (e r +1 , . . . , ep ) de Ker(u )
que l’on complète en une base B = (e1 , . . . , ep ) de Kp .
Les p − r dernières colonnes de MatB,C (f ) seront nulles.
Démonstration (suite)
• Pour obtenir les p colonnes que l’on souhaite, il suffit de poser f j = f (e j ) pour j ∈ ¹1, r º. Cette dernière
famille est libre puisque c’est l’image d’une famille libre par l’isomorphisme f| Vect(e1 ,...,e r ) qui n’est rien
d’autre que la restriction de f à un supplémentaire de Ker(f ) : c’est le théorème du rang qu’on utilise
ici. On complète alors cette famille (f1 , . . . , f r ) en une base C = (f1 , . . . , fn ) de Kn .
Définition 1.87
On dit qu’un sous-espace vectoriel F ⊂ E est stable par f ∈ L (E ) si f (F ) ⊂ F , autrement dit si :
∀x ∈ F, f (x ) ∈ F
Si c’est le cas, l’application restreinte f|F définie sur F par f|F (x ) = f (x ) est à valeurs dans F .
Étant de plus linéaire, f|F est un endomorphisme de F , appelé endomorphisme induit.
Définition 1.88
Soit E un espace vectoriel de dimension n . On suppose que F est un s.e.v. de E stable par f ∈ L (E ).
L’application f|F est est appelée endomorphisme induit.
Si (e1 , . . . , ep ) est une base de F que l’on complète en une base (e1 , . . . , en ) de E , on a alors :
Réciproquement, toute présence de blocs nuls dans une matrice définie par blocs peut s’interpréter comme
une condition de stabilité.
Exemple
Soit f l’endomorphisme de R4 donc la matrice dans la base canonique (e1 , e2 , e3 , e4 ) est la suivante :
1 2 0 0
3 4 0 0
M = 0 0 5 6
0 0 7 8
Posons F = Vect(e1 , e2 ) et G = Vect(e3 , e4 ). F et G sont stables par f et les blocs non nuls font apparaître les
matrices représentatives des endomorphismes induits f|F et f|G respectivement dans les bases (e1 , e2 ) de F
et (e3 , e4 ) de G .
Exercice 7
Soit E = R[X ] et ϕ l’aplication définie sur E par ϕ(P ) = X 2 P 0 − (2X + 1)P .
(i) Montrer que ϕ est un endomorphisme de E .
(ii) Montrer que R2 [X ] est stable par ϕ. On note ϕ̃ l’endomorphisme induit.
(iii) Déterminer la matrice de ϕ̃ dans la base canonique de R2 [X ].
∀x ∈ E , h (x ) = λx
2 – Projecteur vectoriel
x
)
p (x
x−
x2 =
F
x1 = p (x )
Démonstration
En utilisant les notations de la définition,
=⇒ Supposons que p est la projection vectorielle sur F parallèlement à G et considérons x ∈ E .
p (p (x )) = p (x1 ) = x1 = p (x ) car x1 ∈ F
p (x − p (x )) = p (x ) − p (p (x )) = p (x ) − p (x ) = 0E
Exemple
Montrons que si p est un projecteur, alors Im(p ) = Ker(p − idE ).
• Im(p ) ⊂ Ker(p − idE )
Soit x ∈ Im(p ). Il existe y ∈ E tel que x = p (y ).
Or (p − idE )(x ) = p (x ) − x = p (p (y )) − p (y ) = 0E donc x ∈ Ker(p − idE ).
• Ker(p − idE ) ⊂ Im(p )
Soit x ∈ Ker(p − idE ). On a p (x ) − x = 0E donc x = p (x ) ∈ Im(p ).
Exercice 8
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est :
1 2 1
M = −1 −2 −1
2 4 2
Soit p une projection vectorielle. Comme nous ve- Dans cette base, la matrice de p est diagonale.
nons de le voir, tout vecteur x ∈ Ker(p ) vérifie
1
p (x ) = 0E et tout vecteur x ∈ Im(p ) vérifie p (x ) = x .
..
Considérons maintenant une base B adaptée à .
1
E = Im(p )⊕Ker(p ) obtenue par concaténation d’une MatB (p ) =
0
base de Im(p ) et d’une base de Ker(p ).
..
.
0
Si l’on pose q = idE − p , q est également un projecteur : il s’agit du projecteur sur G parallèlement à F .
On a p ◦ q = q ◦ p = 0L (E ) et p + q = idE .
Généralisons ce résultat pour une somme directe de n espaces vectoriels en supposant donc que
E = E1 ⊕ · · · ⊕ En
Proposition 1.91
n
M
Pour tout i ∈ ¹1, n º, pi est la projection vectorielle sur Ei parallèlement à Ek . De plus,
k =1
k 6=i
p1 + · · · + pn = idE et ∀i 6= j , pi ◦ p j = 0L (E )
3 – Symétrie vectorielle
∀x ∈ E , s (x ) = x1 − x2 .
L’application s est linéaire et on a : F = Ker(s − idE ) et G = Ker(s + idE ), donc E = Ker(s − idE ) ⊕ Ker(s + idE ). On
rappelle que x ∈ Ker(s − idE ) ⇐⇒ s (x ) = x et x ∈ Ker(s + idE ) ⇐⇒ s (x ) = −x .
x2
F
x1
2
−x
s (x )
Attention, deux sous-espaces vectoriels F et G de E ne sont pas nécessairement orthogonaux 3 , les normes
des vecteurs x et s (x ) – sauf cas particuliers – sont distinctes.
Démonstration
s (s (x )) = s ( x1 + (−x2 )) = x1 + x2 = x
|{z} | {z }
∈F ∈G
x + s (x ) x − s (x )
x1 = et x2 =
2 2
• Synthèse
x + s (x ) x − s (x )
Soit x ∈ E . Posons x1 = et x2 = . On a bien x = x1 + x2 . De plus,
2 2
s (x ) + s (s (x )) x + s (x ) s (x ) − s (s (x )) x − s (x )
s (x1 ) = = = x1 et s (x2 ) = =− = −x2
2 2 2 2
3. La notion de produit scalaire, donc d’orthogonalité, dans un espace vectoriel quelconque sera abordée plus tard dans l’année.
s est bien la symétrie vectorielle sur Ker(s − idE ) parallèlement à Ker(s + idE ).
Exercice 9
Soit g l’endomorphisme de R3 dont la matrice dans la base canonique est :
1 −1 1
M = 2 −2 1
2 −1 0
Montrer que g est une symétrie vectorielle et préciser ses caractéristiques géométriques.
Soit s une projection vectorielle. Comme nous ve- Dans cette base, la matrice de s est diagonale.
nons de le voir, tout vecteur x ∈ Ker(s − idE ) véri-
fie s (x ) = x et tout vecteur x ∈ Ker(s + idE ) vérifie 1
..
s (x ) = −x . Considérons maintenant une base B
.
adaptée à E = Ker(s −idE )⊕Ker(s +idE ) obtenue par 1
MatB (s ) =
−1
concaténation d’une base de Ker(s − idE ) et d’une
..
.
base de Ker(s + idE ).
−1
Exercice 10
Pour chacun des endomorphismes précédemment définis (homothétie, projecteur, symétrie), préciser leur
trace, leur rang et leur déterminant. Sont-ils des automorphismes ?
Tout droite du plan admet une équation de la forme a x + b y = 0 et tout plan de l’espace admet une équation
de la forme a x + b y + c z = 0. Nous allons généraliser ce résultat.
Notons pour cela (x1 , . . . , xn ) les coordonnées d’un vecteur x dans une base quelconque de E et remarquons
que l’équation a 1 x1 + · · · + a n xn = 0 correspond au noyau d’une application linéaire bien choisie. Ce qui amène
naturellement au théorème suivant.
Théorème 1.96 : Caractérisation d’un hyperplan (bis)
H est un hyperplan de E si et seulement si H = Ker(ϕ) où ϕ ∈ L (E , K) est non nulle.
Une application ϕ : E → K linéaire est qualifiée de forme linéaire. Les hyperplans sont donc les noyaux des
formes linéaires non nulles.
Démonstration
Comme ϕ(x ) = ϕ(x1 e1 + · · · + xn en ) = x1 ϕ(e1 ) + · · · + xn ϕ(en ), on peut alors poser a i = ϕ(ei ) ∈ K pour tout
i ∈ ¹1, n º et on obtient l’équation linéaire recherchée :
x = x1 e1 + · · · + xn en ∈ H ⇐⇒ a 1 x1 + · · · + a n xn = 0
Attention, tout comme il n’y a pas unicité de l’équation d’un hyperplan dans une base donnée, il n’y a pas non
plus unicité de la forme linéaire ϕ.
Exercice 11
Soient H = Ker(ϕ) un hyperplan de E et a ∈ E \ Ker(ϕ).
Montrer que E = H ⊕ Vect(a ) et déterminer le projeté de x sur H parallèlement à Vect(a ).
Exemple
Déterminons un supplémentaire de F = {(x , y , z , t ) ∈ R4 | 3x − 2y + z = t }.
F est un hyperplan de R4 comme noyau de la forme linéaire non nulle (x , y , z , t ) 7→ 3x − 2y + z − t .
/ F pour avoir un supplémentaire de F (qui est la
D’après ce qu’il précède, il suffit de prendre un vecteur u ∈
droite vectorielle Vect(u)). On prendra par exemple u = (1, 1, 1, 1).
Démonstration
Utilisons le théorème précédent pour prouver ce résultat.
(i) Considérons p hyperplans de E , notés H1 , . . . , Hp . Pour tout i ∈ ¹1, p º, notons ϕi une forme linéaire
non nulle de E telle que Hi = Ker(ϕi ). Considérons enfin l’application linéaire :
ϕ : E −→ Kp
x 7−→ (ϕ1 (x ), . . . , ϕp (x ))
p
\ p
\
Ker(ϕ) = Ker(ϕi ) = Hi et, comme Im(ϕ) ⊂ Kp , d’après le théorème du rang :
i =1 i =1
p
\
dim Hi = dim(E ) − rg(ϕ) ¾ n − p
i =1
On laisse aux lecteurs le soin de montrer que les espaces Hi sont des hyperplans dont l’intersection est
égale à F .
a 11 x1 + a 12 x2 + · · · + a 1n xn = 0
..
.
(Σ) a i 1 x1 + a i 2 x2 + · · · + a i n xn = 0
..
.
a p 1 xp + a p 2 x2 + · · · + a p n xn = 0
L’ensemble des solutions de ce système est un sous-espace vectoriel de Kn . Il peut s’interpréter naturellement
comme l’intersection de p hyperplans, chaque équation linéaire représentant un hyperplan donné. D’après ce
qui précède, l’ensemble des solutions sera donc un espace vectoriel de dimension au moins n − p . Attention
cependant, la dimension ne sera égale à n −p que si les équations sont linéairement indépendantes. Dans le cas
d’équations indépendantes, chaque équation supplémentaire impose une nouvelle contrainte sur l’ensemble
des solutions, d’où la perte d’un degré de liberté.
Exemples
Considérons les deux systèmes :
x + 2y + z = 0 x + 2y + z = 0
(Σ1 ) 2x − y + z = 0 (Σ2 ) 2x − y + z = 0
x + 2y − z = 0 3x + y + 2z = 0
Les deux premières équations de ces deux systèmes sont linéairement indépendantes. L’ensemble des
solutions est donc de dimension au plus 1. La dernière équation de (Σ1 ) est linéairement indépendante des
deux autres donc l’ensemble des solutions est de dimension 0, seul le triplet (0, 0, 0) est solution. La dernière
équation de (Σ2 ) étant quant à elle la somme des deux premières, l’ensemble des solutions est un espace de
dimension 1, c’est la droite vectorielle d’équations :
x + 2y + z = 0
2x − y + z = 0