Académique Documents
Professionnel Documents
Culture Documents
Proposition 1.2. Soient E et F deux R-espaces vectoriels. L'ensemble des applications linéaires
de E dans F est lui même un R-espace vectoriel. Autrement dit, si u : E → F et v : E → F sont
toutes deux linéaires alors pour tous α, β ∈ R l'application αu + βv est encore linéaire.
1
1.2 Noyau Image
Comme pour toutes les applications, on peut se poser la question de savoir si une application
linéaire est injective ou surjective. Dans le cas des applications linéaires, il est assez aisé de répondre
à ces questions.
Ker(u) = {x ∈ E | u(x) = 0F }.
Les deux sous-espaces vectoriels Im(u) et Ker(u) permettent de mesurer le caractère injectif
ou surjectif de l'application u.
Dénition 1.6 (Isomorphisme). Une application linéaire u : E → F entre espaces vectoriels qui
est bijective s'appelle un isomorphisme entre E et F . Un endormorphisme u : E → E d'un
espace vectoriel E qui est bijectif s'appelle un isomorphisme de E .
Deux espaces vectoriels entre lesquels il existe un isomorphisme sont dits isomorphes.
2
1.3 Images de familles libre ou génératrice par un morphisme
Soit u : E → F un morphisme entre espaces vectoriels. Considérons (ei )i une famille de E
que l'on suppose, au choix, libre ou génératrice. Que peut-on dire de la famille (u(ei ))i d'éléments
de F ? En fait pas grand chose sans aucune hypothèse. Pour s'en convaincre, il sut de penser à
l'application linéaire nulle qui à tout x ∈ E associe 0F le zéro de F . Dans ce cas la famille (u(ei ))i
est la famille dont tous les éléments sont nuls. Cette famille n'est jamais libre et pour ainsi dire
jamais génératrice (elle est génératrice si F = {0F } est l'espace vectoriel nul). En bref, l'image par
un morphisme d'une famille libre (respectivement génératrice) n'a aucune raison de rester libre
(respectivement génératrice). C'est parfois vrai mais il faut des hypothèses sur le morphisme en
question.
Preuve (i) Soit (ei )16i6n une famille génératrice de E . Montrons que la famille (u(ei ))16i6n
est une famille génératrice de F . Considérons y ∈ F . Puisque u est surjective, il existe x ∈ E tel
que u(x) = y . Comme (ei )16i6n est une famille génératrice de E , x est combinaison linéaire de ces
éléments : il existe λ1 , . . . , λn ∈ R tels que x = λ1 e1 + · · · + λn en . Concernant y , on en déduit :
y = u(x)
= u(λ1 e1 + · · · + λn en )
= λ1 u(e1 ) + · · · + λn u(en ),
par linéarité de u. Sous cette dernière forme, on voit bien que y est combinaison linéaire des
éléments u(e1 ), . . . , u(en ). Cette famille est bien génératrice de F .
(ii) Soit (e1 , . . . , en ) une famille libre de E . Il faut montrer que la famille (u(e1 ), . . . , u(en )) est
une famille libre de F . Pour cela considérons une combinaison linéaire nulle de ces éléments :
Corollaire 1.8. Si u : E → F est un isomorphisme entre R-espaces vectoriels alors l'image par u
d'une base de E est une base de F .
Preuve Puisque u est un isomorphisme, u est à la fois injective et surjective. Soit (ei )16i6n
une base de E . Puisque u est injective, la famille (u(ei ))16i6n est libre. Puisque u est surjective,
la famille (u(ei ))16i6n est génératrice. Bilan la famille (u(ei ))16i6n est une base de F .
Même si la preuve du corollaire ci-dessous nécessite un théorème de la section suivante, j'ai
choisi de le faire gurer ici, car je le trouve en bonne compagnie dans cette section.
Corollaire 1.9. Pour que deux espaces vectoriels de dimensions nies soient isomorphes, il faut
et il sut qu'ils aient même dimension.
3
Preuve Soient E et F deux R-espaces vectoriels. Supposons qu'il existe un isomorphisme ϕ :
E → F . D'après le corollaire 1.8, l'image d'une base de E est une base de F . En particulier, E
et F admettent des bases ayant le même nombre d'éléments. Ils ont donc même dimension.
Réciproquement, supposons que E et F ont même dimension, disons n. Considérons (ei )16i6n
une base de E et (fi )16i6n une base de F . Arrive le moment tant attendu d'anticipation : d'après
le théorème 2.1, il existe une application linéaire u : E → F vériant u(ei ) = fi pour 1 6 i 6 n
(mieux cette application linéaire est même unique). Montrons que u est un isomorphisme en deux
temps.
• Prouvons que u est surjectif. Tout y ∈ F se décompose sur la base (fi )16i6n : il existe µ1 , . . . , µn ∈
R tels que :
y = µ1 f1 + · · · + µn fn = µ1 u(e1 ) + · · · + µn u(en ) = u(µ1 e1 + · · · + µn en ),
par linéarité. En particulier, posant x = µ1 e1 + · · · + µn en , on a y = u(x) d'où y ∈ Im(u).
Bref F = Im(u) et u est surjectif (proposition 1.5).
• Prouvons que u est injectif. Soit x ∈ Ker(u). Il se décompose sur la base (ei )16i6n : il
existe λ1 , . . . , λn ∈ R tels que x = λ1 e1 + · · · λn en . Alors on a :
0F = u(x) = u(λ1 e1 + · · · + λn en ) = λ1 u(e1 ) + · · · + λn u(en ) = λ1 f1 + · · · + λn fn
par linéarité et dénition de u. On tient donc une combinaison linéaire nulle entre les fi . Comme
cette famille est libre, cette combinaison linéaire nulle est triviale, c'est-à-dire que les scalaires λi
sont nuls pour tous 1 6 i 6 n. Il s'ensuit que x = 0E , puis que Ker(u) = {0E } ou encore que u
est injective (proposition 1.5).
2 Le codage matriciel
Dans cette section nous allons faire intensément usage d'un objet mathématique que vous avez
découvert au semestre dernier : les matrices. Je rappelle qu'une matrice n'est ni plus ni moins qu'un
tableau de nombres à deux entrées. Plus précisément, si m et n sont des entiers supérieurs à 1,
une matrice de taille m × n est un tableau de nombres avec m lignes et n colonnes. Quand m = n,
la matrice est dite carrée de taille n. On note Mm,n (R) l'ensemble des matrices de taille m × n à
coecients dans R ; on abrège par Mn (R) l'ensemble des matrices carrées de taille n.
Vous avez déni la somme A+B de deux matrices de même taille ainsi que le produit A×B de
deux matrices quand le nombre de colonne de A est égal au nombre de lignes de B . En particulier,
on sait multiplier deux matrices carrées de même taille. Attention, ce produit n'est pas commutatif :
il se peut que A × B soit diérent de B × A. La matrice carrée de taille n avec des zéros partout
sauf sur la diagonale où gurent des 1, s'appelle la matrice identité de taille n ; on la note In . Pour
toute matrice M ∈ Mn (R), on a M × In = In × M = M . Une matrice carrée P ∈ Mn (R) est dite
inversible s'il existe Q ∈ Mn (R) telle que P × Q = Q × P = In . La matrice Q s'appelle l'inverse
de P . On la note parfois P −1 . Au semestre dernier, vous avez aussi appris à calculer l'inverse d'une
matrice carrée de taille 2, 3, voire 4.
est entièrement déterminée par la dérivé des monômes X n : d(1) = 0 et d(X n ) = nX n−1
pour tout n > 1.
4
Plus précisément et plus formellement, cela donne :
Théorème 2.1. Soient E et F deux R-espaces vectoriels. On se xe (ej )16j6n une base de E .
1. Toute application linéaire u : E → F est entièrement déterminée par ses valeurs en chacun
des ej , à savoir les u(ej ) pour 1 6 j 6 n.
2. Inversement, étant donnée (yj )16j6n une famille d'éléments de F (avec autant d'éléments
que la base de départ), il existe une unique application linéaire u : E → F vériant u(ej ) =
yj pour tous 1 6 j 6 n.
Preuve (i) Supposons que l'on connaisse les images u(ei ). Alors pour calculer l'image de x ∈ E
par u, il sut de décomposer x sur la base (e1 , . . . , en ) :
x = λ1 e1 + · · · + λn en , λi ∈ R.
ce qui montre bien que u(x) s'exprime entièrement en fonction des u(ei ).
(ii) Inversement, partant de y1 , . . . , yn ∈ E alors on dénit u en posant :
u(x) = u(λ1 e1 + · · · + λn en ) = λ1 y1 + · · · + λn yn .
qui comporte autant de colonnes que la dimension de l'espace de départ, ici n, et autant de lignes
que la dimension de l'espace d'arrivée, ici m. La règle de remplissage des m × n cases est la
suivante : dans la case ai,j , à l'intersection de la i-ème ligne et de la j -ème colonne gure la
coordonnée en fi de l'image u(ej ).
Dénition 2.2. Soit u : E → F une application linéaire entre R-espaces vectoriels. Étant don-
nées B une base de E et C une base de F , la matrice Mat(u, B, C) précédente s'appelle la matrice
de l'application u dans les bases B et C .
Évidemment, si on change de base, à l'arrivée et/ou au départ, la matrice s'en retrouve modiée.
Pour autant, l'application u, elle, reste inchangée. Il est important de savoir construire ou dresser
la matrice d'une application linéaire dans deux bases xées.
5
Exemples. 1) Plaçons nous dans R . Soit (e , e ) la base canonique et (e , e ) une autre
2
1 2
0
1
0
2
base donnée par e01 = e1 + e2 , e02 = e1 + 2e2 . Soit u : R2 → R2 dénie par u(e1 ) = 3e1 + e2
et u(e2 ) = −e1 + 2e2 . Alors on a :
u(e1 ) u(e2 )
e1 3 −1
Mat(u, (e1 , e2 )) =
e2 1 2
On remarque que e1 = 2e01 − e02 et que e2 = e02 − e01 . Ainsi :
u(e1 ) = 3e1 + e2 = 3(2e01 − e02 ) + (e02 − e01 ) = 5e01 − 2e02
u(e2 ) = −e1 + 2e2 = −(2e01 − e02 ) + 2(e02 − e01 ) = −4e01 + 3e02
si bien que :
u(e1 ) u(e2 )
e01
5 −4
Mat(u, (e1 , e2 ), (e01 , e02 )) =
e02 −2 3
2) Plaçons nous dans R2 [X] l'espace vectoriel des polynômes de degré 6 2 et consi-
dérons d : R2 [X] → R2 [X] l'application linéaire dénie par d(P ) = P 0 . Dans la base
canonique (1, X, X 2 ), on a :
d(1) d(X) d(X 2 )
1 0 1 0
Mat(d, (1, X, X 2 )) = X 0 0 2 .
2
X 0 0 0
Cette façon concise de coder une application linéaire permet aussi de facilement calculer l'image
de n'importe quel élément de E . Partons de x ∈ E écrit dans la base (ei ), c'est-à-dire :
x = λ1 e1 + · · · + λn en ,
où λ1 , . . . , λn ∈ R désignent les coordonnées de x sur la base (ei ). Introduisons µ1 , . . . , µm les
coordonnées de l'image u(x) sur la base (fj ), c'est-à-dire :
u(x) = µ1 f1 + · · · + µm fm .
Alors, on a :
u(x) = u(λ1 e1 + · · · + λn en ) = λ1 u(e1 ) + · · · + λn u(en )
a1,1 a1,n λ1 a1,1 + · · · + λn a1,n µ1
.. .. .
.. .
= λ1 . + · · · + λn . = = ..
am,1 am,n λ1 am,1 + · · · + λn am,n µm
En termes de produits de matrices, cela peut de ré-écrire :
a1,1 a1,2 · · · a1,n λ1 µ1
a2,1 a2,2 · · · a2,n λ2 µ2
.. .. . .. × .. = ..
. . . . . . .
am,1 am,2 · · · am,n λn µm
Si u : E → F et v : E → F sont deux applications linéaires et si α, β ∈ R sont des scalaires,
alors on sait que l'application αu + βv est encore linéaire. Je laisse le soin au lecteur de vérier
que sa matrice dans les bases B et C vérie :
Mat(αu + βv, B, C) = α Mat(u, B, C) + β Mat(v, B, C) ;
autrement dit, la matrice d'une combinaison linéaire d'applications est la combinaison linéaire des
matrices de ces applications. Plus formellement, on peut énoncer la :
6
Proposition 2.3. Soient E et F deux espaces vectoriels de dimension nie. Notons n = dim(E),
m = dim(F ) et xons B = (ej )16j6n une base de E et C = (fi )16i6m une base de F . Alors
l'application :
L(E, F ) −→ Mm,n (R)
u 7−→ Mat(u, B, C)
est un isomorphisme de R-espaces vectoriels.
Preuve Le fait que cette application soit linéaire résulte de la vérication laissée au lecteur
précédant cette proposition.
La surjectivité et l'injectivité résultent du deuxième point du théorème 2.1. En eet, si M =
(ai,j ) ∈ Mm,n (R) est une matrice de taille m × n, appelons y1 , . . . , yn les n vecteurs colonnes de
cette matrice, vus comme des éléments de F écrits dans la base C :
m
X
∀1 6 j 6 n, yj = a1,j f1 + · · · + am,j fm = ai,j fi .
i=1
D'après le théorème 2.1, il existe une unique application linéaire u telle que u(ej ) = yj pour
tous 1 6 j 6 n. Par dénition, on a M = Mat(u, B, C). Cela montre la surjectivité, mais aussi
l'injectivité par unicité.
Corollaire 2.4. Soient E et F deux espaces vectoriels de dimension nie. Alors l'espace vecto-
riel L(E, F ) des applications linéaires de E dans F est de dimension nie et dim(L(E, F )) =
dim(E) × dim(F ).
Preuve C'est une conséquence directe du corollaire 1.8, de l'isomorphisme de la proposition
précédente, et du fait que la base canonique de Mm,n (R) constituée des matrices élémentaires
compte exactement m × n éléments (autant que de case ou faire gurer l'unique 1 de la matrice
élémentaire).
Étant donnés E, F, G des espaces vectoriels, u ∈ L(E, F ) et v ∈ L(F, G), on est en mesure de
composer u et v : on obtient l'application linéaire v ◦ u qui appartient à L(E, G). Dans le même
genre d'idées, on peut eectuer le produit M × N de deux matrices M et N pour peu que M
compte autant de colonnes que N de lignes.
Proposition 2.5 (Matrice d'une composition). Soient u : E → F et v : F → G deux applications
linéaires entre espaces vectoriels. Considérons B, C et D des bases de E, F et G respectivement.
Alors on a :
Mat(v ◦ u, B, D) = Mat(v, C, D) × Mat(u, B, C).
Preuve Le vérier seul en se restreignant par exemple au cas où dim(E) = dim(F ) = dim(G) =
3.
7
Quand un seul espace vectoriel est en jeu, la combinaison des propositions 2.3 et 2.5 prennent
une nouvelle saveur. Soit E un R-espace vectoriel de dimension n. Alors l'espace L(E) est muni
de trois lois : la somme, le produit par un scalaire et la composition. Muni de ces trois lois, on dit
que (L(E), +, ·, ◦) est une R-algèbre. De la même façon, pour ce qui est des matrices de Mn (R),
on peut les ajouter, les multiplier par un scalaire, mais aussi les multiplier entre elles. Muni
de ces trois lois, (Mn (R), +, ·, ×), est encore une R-algèbre. Dans ce cadre là, l'isomorphisme
de la proposition 2.3, est en fait un isomorphisme d'algèbres, c'est-à-dire qu'il satisfait aussi la
proposition suivante.
Corollaire 2.7. Soient E un R-espace vectoriel de dimension nie n dont on xe B = (ej )16j6n
une base. Alors l'application :
L(E) −→ Mn (R)
u 7−→ Mat(u, B)
est un isomorphisme de R-algèbres, c'est-à-dire qu'elle vérie :
La construction de la matrice de passage PB,B0 repose donc sur la connaissance des coordonnées,
sur la base B, des éléments de la base B0 . Si pour chaque 1 6 j 6 n, on a :
alors :
0
e1 e02 . . . e0n
λ1,1 λ1,2 . . . λ1,n e1
λ2,1 λ2,2 . . . λ2,n
PB,B0 = e2
.. .. ... .. ..
. . . .
λn,1 λn,2 . . . λn,n en
3 1
1 −1 3 1
PB,B0 = et PB0 ,B = 5 5 = 1
.
2 3 − 25 1
5
5 −2 1
8
La première matrice ne nécessite aucun calcul, la seconde résulte des égalités :
1 3 1 2 −1 0 1 1 1 −1
=5 −5 =5 +5 .
0 2 3 1 2 3
(X − 1) (X − 1)2
( 1
X − 1 = (−1) × 1 + 1 × X 1 −1 1 1
=⇒ PB,B0 =
(X − 1)2 = 1 × 1 + (−2) × X + 1 × X 2 0 1 −2 X
0 0 1 X2
et :
2
( 1 X X
X = 1 × 1 + 1 × (X − 1) 1 1 1 1
=⇒ PB0 ,B =
X 2 = 1 × 1 + 2 × (X − 1) + 1 × (X − 1)2 0 1 2 (X − 1)
0 0 1 (X − 1)2
La matrice de passage PB,B0 est la matrice qui mange le vecteur des coordonnées d'un élément
de E écrit dans λla base B0 0et!retourne le vecteur des coordonnées de ce même élément mais dans
1
λ1
.
la base B. Si .. et ... sont les coordonnées de x ∈ E dans les bases B et B0 , c'est-à-dire
λn λ0n
si :
x = λ1 e1 + · · · + λn en = λ01 e01 + · · · + λ0n e0n ,
alors on a :
λ01
! λ1
PB,B0 × .. = .. .
.0 .
λn λn
Plus formellement et par dénition, la matrice de passage de B à B0 est aussi la matrice d'une
application linéaire : celle de l'identité IdE : E → E avec B0 comme base au départ et B comme
base à l'arrivée :
PB,B0 = Mat(IdE , B 0 , B)
Compte tenu de la proposition 2.5, en composant l'identité IdE avec elle même et en choisissant
comme bases B0 puis B puis encore B0 , on en déduit que :
9
Preuve Cette formule résulte de la proposition 2.5 appliquée à la composition des applications
linéaires suivantes écrites dans les bases spéciées à chaque étapes :
Id u Id
(E, B 0 ) −→
E E
(E, B) −→ (E, B) −→ (E, B 0 )
En eet, on part d'un élément de E écrit dans la base B0 , on ne le change pas mais on l'écrit dans
la base B ; ensuite on calcul son image par u toujours dans la base B ; enn, on ne change pas
cette image mais on l'écrit dans la base B0 .
3 1
Mat(u, B 0 ) = PB0 ,B Mat(u, B)PB,B0 = 5
− 25
5
1
1 2
× ( −1 1 −1 4 5
3 ) × ( 2 3 ) = ( −1 0 ) .
5
10