Vous êtes sur la page 1sur 18

1.

Les espaces vectoriels

Soit E un ensemble non vide et K = R ou C. On définit deux opérations :


1) Une addition + dans E :
+ : E × E −→ E
(x,y) 7−→ x + y
C’est une loi de composition interne c’est-à-dire, elle s’opère entre deux éléments de E et la
somme de deux éléments x et y de E est encore un élément de E.
∀(x,y) ∈ E, x+y ∈E (E est stable par l’opération +)
2) une multiplication . par un scalaire (un nombre réel ou complexe) :
. : K × E −→ E
(λ,y) 7−→ λ.x
C’est une loi de composition externe c’est-à-dire, elle s’opère entre un élément de E et un
élément ”extérieur” de K et le produit d’un élément λ de K et un élément x de E est encore
un élément de E.
∀λ ∈ K, ∀x ∈ E, λ.x ∈ E (E est stable par l’opération .)
Définition 1.1. On dit que E est un espace vectoriel sur K ou E est un K-espace vectoriel
s’il est muni d’une loi de composition interne notée + et d’une loi de compostions externe
noté . dont les éléments de E appelés vecteurs et les éléments de K appelés scalaires vérifient
les 8 propriétés suivantes :
(1) ∀x, y, ∈ E x + y = y + x
(2) ∀x, y, z ∈ E (x + y) + z = x + (y + z) (ce vecteur sera noté x + y + z).
(3) Il existe un élément de E noté 0E ou simplement 0 tel que ∀x ∈ E x + 0E = x.
(4) Tout élément x de E possède un opposé noté −x tel que x + (−x) = 0E
(5) ∀α, β ∈ K, ∀x ∈ E, (α + β).x = α.x + β.y
(6) ∀α ∈ K, ∀x ∈ E, α.(x + y) = α.x + α.y
(7) ∀α, β ∈ K, ∀x ∈ E, α.(β.y) = (αβ).x
(8) ∀x ∈ E, 1.x = x
n fois
z }| {
Définition 1.2. soit n ∈ N∗ .
On munit Kn
= K × K × ... × K de deux lois de compositions
+ et . en posant pour tous λ ∈ K et (x1 ,...,xn ), (y1 ,...,yn ) de K n
(x1 ,...,xn ) + (y1 ,...,yn ) = (x1 + y1 ,...,xn + yn )
λ.(x1 ,...,xn ) = (λx1 ,...,λxn )
1.0.1. Exemples fondamentaux.
(1) R, R2 ,...,Rn sont des R-espaces vectoriels.
(2) C, C2 ,...,Cn sont des R-espaces vectoriels et aussi des C-espaces vectoriels.
(3) K[X] l’ensemble des polynômes à coefficients dans K et Kn [X] l’ensemble des po-
lynômes à coefficients dans K de degré inférieur ou égal à n sont deux K-espaces
vectoriels.
(4) Pour tous n, p de N∗ , Mn,p (K) est un K-espace vectoriel pour ses lois usuelles d’ad-
dition et de multiplication par un scalaire.
(5) L’ensemble des applications d’un ensemble E vers une ensemble F noté F E muni des
lois + et . usuelles est un espace vectoriel.
3
(6) L’ensemble des suites numérique réelles noté RN muni des lois + et . usuelles est un
R-espace vectoriel.
(7) Pour tout intervalle I de R, l’ensemble des fonctions de I dans R noté RI est un
R-espace vectoriel pour l’addition des fonctions et la multiplication par un réel.
Autres exemples

(1) R est un R-espace vectoriel mais pas un C-espace vectoriel puisque i.1 = i ∈ / R.
3
(2) E = {(x,y,z) ∈ R /x + y + z = 1} n’est pas un espace vectoriel car (1,0,0) ∈ E mais
2.(1,0,0) = (2,0,0) ∈/ E.
(3) L’ensemble des polynômes à coefficients dans K de degré égal à n n’est pas un espace
vectoriel parce qu’il ne contient pas l’élément neutre 0.
(4) E l’ensemble des fonctions positives ou nulle muni des lois usuelles + et . n’est pas un
espace vectoriel car la fonction x −→ 1 est dans E mais son opposée ne l’est pas.

1.1. Sous-espace vectoriel.


Définition 1.3. Soit E un K-espace vectoriel et F une partie de E. On dit que F est un
sous-espace vectoriel (s.e.v) si F est aussi un K-espace vectoriel.
Théorème 1.1. Soit (E, + ,.) un espace vectoriel et F ⊂ E. F est un s.e.v si et seulement si
(1) F 6= ∅ .
(2) ∀x, y ∈ F x + y ∈ F .
(3) ∀x ∈ F , ∀λ ∈ K, λ.x ∈ F .
Exemple 1.4. Soit F = {(x,y) ∈ R2 /x − 2y = 0}. Montrer que F est un R-espace vectoriel.
On sait que R2 est un espace vectoriel. Donc il suffit de montrer que F est un s.e.v de R2 .
Il est claire que F ⊂ R2 .
• 0R2 = (0,0) ∈ F car 0 − 3 × 0 = 0 et par consequent F 6= ∅.
• Soit (x,y), (x0 ,y 0 ) ∈ F . On a (x,y) + (x0 ,y 0 ) = (x + x0 ,y + y 0 ).
Donc (x + x0 ) − 2(y + y 0 ) = (x − 2y) + (x0 − 2y 0 ) = 0 + 0 = 0.
D’où ∀(x,y), (x0 ,y 0 ) ∈ F , (x,y) + (x0 ,y 0 ) ∈ F .
• Soit λ ∈ R et (x,y) ∈ F . On a λ(x,y) = (λx,λy).
Donc λx − 2λy = λ(x − 2y) = λ × 0 = 0.
D’où ∀λ ∈ R, ∀(x,y) ∈ F , λ(x,y) ∈ F .
Conclusion : F est un sous espace vectoriel de R2 et par suite un R-espace vectoriel.
Remarque 1.5. En général, pour montrer F 6= ∅, il suffit de vérifier que 0E ∈ F .
On peut remplacer (2) et (3) par :
(4) ∀x, y ∈ F, ∀λ, µ ∈ K, λ.x + µ.y ∈ F.
ou encore
(5) ∀x, y ∈ F, ∀λ ∈ K, λ.x + y ∈ F.
Remarque 1.6. C’est toujours ce théorème qu’il faut utiliser pour montrer qu’une partie
d’un espace vectoriel en est un sous-espace vectoriel car utiliser la définition nécessite la
vérifications des 8 propriétés.
Exemple 1.7. Reprenons l’exemple précédent F = {(x,y) ∈ R2 /x − 2y = 0}. Montrons que
F est un espace vectoriel en utilisant la relation condensé (5).
4
On sait que R2 est un espace vectoriel. Donc il suffit de montrer que F est un s.e.v de R2 .
Il est claire que F ⊂ R2 .
• 0R2 = (0,0) ∈ F car 0 − 3 × 0 = 0 et par consequent F 6= ∅.
• Soit (x,y), (x0 ,y 0 ) ∈ F et λ ∈ R. On a λ(x,y) + (x0 ,y 0 ) = (λx + x0 ,λy + y 0 ).
(λx + x0 ) − 2(λy + y 0 ) = λx + x0 − 2λy − 2λy 0
= λ(x − 2y) + (x0 − 2y 0 )
= λ × 0 + 0 = 0 car (x,y) ∈ F et (x0 ,y 0 ) ∈ F.
Donc ∀(x,y), (x0 ,y 0 ) ∈ F , ∀λ ∈ R λ(x,y) + (x0 ,y 0 ) ∈ F .
Exemple 1.8. Soit S l’ensemble des suites réelles convergentes. Montrer que S est un espace
vectoriel sur R pour l’addition des suites et la multiplication par un réel.
On sait que RN l’ensemble des suites réelles est un R-espace vectoriel et S ⊂ RN . Donc il
suffit de montrer que S est un s.e.v de RN .
• Les suites constantes par exemples sont dans S et donc S 6= ∅.
• Soit (un ) et (vn ) deux suites de S et λ ∈ R.
Puisque (un ) et (vn ) sont convergentes alors la suite (λun + vn ) est convergente. En effet
Si lim un = l et lim vn = l0 où l et l0 sont deux réels, alors lim λun + vn = λl + l0 et donc
λun + vn ∈ S.
Donc S est un s.e.v. de RN et par consequent F est un R-espace vectoriel.
  
a b
Exemple 1.9. Soit H = ∈ M2 (R)/a + d = 0 . Montrer que H est un espace
c d
vectoriel.
• On sait que M  2 (R)est un espace vectoriel et H ⊂ M2 (R).
0 0
• On a 0M2 (R) = ∈ H et donc H 6= ∅.
0 0
   0 0
a b a b
• Soit A = ∈ H et B = 0 ∈ H et λ ∈ R.
c d c d0
  0 0 
λa + a0 λb + b0
 
a b a b
On a λ.A + B = λ. + 0 = .
c d c d0 λc + c0 λd + d0
D’autre part λa + a0 + λd + d0 = λ(a + d) + (a + d0 ) = λ × 0 + 0 = 0. Donc λ.A + B ∈ H.
D’où H est un s.e.v de M2 (R) et par suite H est un espace vectoriel.
Proposition 1.2. Soit E un K-espace vectoriel et F et G deux s.e.v de E.
(1) F ∩ G est un s.e.v de E.
(2) F ∪ G n’est pas toujours un s.e.v de E.
Preuve (1) F ∩ G 6= ∅ car 0E ∈ F ∩ G.
Soit x, y ∈ F ∩ G et λ ∈ K.
On a x, y ∈ F et λ ∈ K et F est un s.e.v de E donc λx + y ∈ F .
On a x, y ∈ G et λ ∈ K et G est un s.e.v de E donc λx + y ∈ G.
Donc λx + y ∈ F ∩ G. D’où F ∩ G est un s.e.v de E.
(2) On se place dans le cas où F 6⊂ G et G 6⊂ F . Alors il existe x ∈ F et x ∈
/ G et il existe
y ∈ G et y ∈/ F.
On a x ∈ F ∪ G et y ∈ F ∪ G. On suppose par l’absurd que F ∪ G est un s.e.v de E. Alors
x + y ∈ F ∪ G.
Si x + y ∈ F alors (x + y) − x = y ∈ F contradiction.
Si x + y ∈ G alors (x + y) − y = x ∈ G contradiction.
5
1.2. Combinaisons linéaires.
Définition 1.10. Soit E un K-espace vectoriel et {x1 ,...,xn } une famille finie de vecteurs de
E. On appelle combinaison linéaire des vecteurs x1 , ..., xn tout vecteur de E de la forme
Xn
λk xk = λ1 x1 + ... + λxn où λ1 ,..., λn ∈ K.
k=1

Exemples 1. 1) Dans R2 , le vecteur (3,6) est combinaison linéaire des vecteurs (7, − 2) et
(−1,2) puisque
(3,6) = 1.(7, − 2) + 4.(−1,2).
En effet
(3,6) combinaison linéaire de (7, − 2)et(−1,2) ⇐⇒ ∃α,β ∈ R, / α.(7, − 2) + β.(−1,2) = (3,6)
⇐⇒ ∃α,β ∈ R, (7α − β, − 2α + 2β) = (3,6)

7α − β = 3
⇐⇒ ∃α,β ∈ R,
−2α + 2β = 6
⇐⇒ ∃α,β ∈ R, α = 1 et β = 4
On a en général pour tout (x,y) de R2 , (x,y) est une combinaison linéaires des vecteurs (1,0)
et (0,1) puisque
(x,y) = x(1,0) + y(0,1).
   
−1 2 1 1
2) Dans M2 (R) est ce que le vecteur est combinaison linéaire des vecteurs ,
2 0 0 0
   
−2 1 1 0
et ?
3 2 −1 1
       
−1 2 1 1 −2 1 1 0
Si c’est le cas, il existe α,β,γ ∈ R tel que =α +β +γ
2 0 0 0 3 2 −1 1
   
−1 2 α − 2β + γ α + β
c-à-d = .
2 0 3β − γ 2β + γ
On est amené à résoudre le système suivant


 α − 2β + γ = −1
3β − γ = 2


 α + β = 2
2β + γ = 0

En effectuant l’operation L3 ←− L3 − L1 , on obtient




 α − 2β + γ = −1
3β − γ = 2


 3β − γ = 3
2β + γ = 0

Ce dernier système n’a pas de solution puisque les équations 2 et 3 implique que 2 = 3 ce qui
est impossible.        
−1 2 1 1 −2 1 1 0
Par consequent n’est pas combinaison linéaire de , et .
2 0 0 0 3 2 −1 1
3) Soit n ∈ N∗ . Tout polynôme P de Kn [X] est combinaison linéaire des polynômes 1, X, X 2 ,..., X n
X n
puisque P = ak X k où ak ∈ K.
k=0
6
1.3. Espace vectoriel engendré.
Définition et théorème 1.1. Soit u1 ,..., up des éléments de l’espace vectoriel E. L’ensemble
de toutes les combinaisons de ces p vecteurs est un sous-espace vectoriel de E appelé sous-
espace vectoriel engendré par les vecteurs u1 ,..., up et noté V ect{u1 ,..., up }.
Preuve Exercice
Remarques 1.11. • Les vecteurs 0E , u1 , ...up appartiennent à V ect{u1 ,..., up } puisque
p
X p
X
0E = 0.uk et uj = 0.uk + 1.uj ∀j = 1,...,p.
k=1 k=1,k6=j

• V ect{0E } = {0E }.
Exemple 1.12.
V ect{1,i} = {a + ib /(a,b) ∈ R2 } = C.
   
1 0 0 1
Exemple 1.13. Dans M2 (R) on considère l’espace vectoriel F = V ect , .
0 1 1 0
Déterminer F .
 
a b
Soit A = ∈ M2 (R).
c d
     
a b 1 0 0 1
A ∈ F ⇐⇒ ∃α,β ∈ R, =α +β
c d 0 1 1 0
   
a b α β
⇐⇒ ∃α,β ∈ R, =
c d β α
⇐⇒ ∃α,β ∈ R, a = α, b = β, c = β et d = α.
⇐⇒ a = d et b = c.
  
a b
Donc F = /(a,b) ∈ R2 .
b a

1.4. Famille génératrice, famille libre, base.


Soit p ∈ N∗ , E un K-espace vectoriel et B = {u1 ,...,up } une famille de vecteurs de E.
Définition 1.14. On dit que B est une famille génératrice de E si et seulement si tout vecteur
de E est combinaison linéaire des éléments de B, autrement dit E = V ect(B).
p
X
p
∀u ∈ E, ∃(λ1 ,...,λp ) ∈ K , tel que u = λi .ui
i=1

Définition 1.15. On dit que B est une famille libre de E si et seulement si 0E est combinaison
linéaire des éléments de B de façon unique :
p
X
∀(λ1 ,...,λp ) ∈ K p , λi ui = 0 =⇒ λ1 = ... = λp = 0.
i=1

On dit aussi que les vecteurs u1 ,...,up sont linéairement indépendants. P


Si B n’est pas libre c-à-d il existe λ1 ,...,λp de K non tous nuls tels que pi=1 λi ui = 0. On dit
dans ce cas que les vecteurs de B sont linéairement dépendants.
7
Définition 1.16. On dit que B est une base de E si et seulement si B est à la fois famille libre
et génératrice de E c-à-d tout vecteur de E s’écrit d’une manière unique comme combinaison
linéaire des éléments de B :

p
X
∀u ∈ E, ∃!(λ1 ,...,λp ) ∈ K p , tel que u = λi .ui
i=1

Les scalaires λ1 ,...,λp sont les coordonnées ou composantes de U dans la base B.

Théorème 1.3. Si un espace vectoriel E admet une base composée d’un nombre fini d’éléments
n, alors toutes les bases de E contiennent également n éléments. On dit que E est un espace
vectoriel de dimension finie n et on écrit dimE = n.

Remarque 1.17. Si un espace vectoriel n’est pas de dimension finie, on dit qu’il est de
dimension infinie.

Exemple 1.18. 1) La famille {cos , sin} est libre dans RR . En effet


Soit α,β ∈ R. Supposons que α cos +β sin = 0.
Donc ∀x ∈ R, on a α cos x + β sin x = 0.
Si x = 0 on obtient α = 0 et si x = π2 , on obtient β = 0.
Donc ∀(α,β) ∈ R2 α cos +β sin = 0 =⇒ α = β = 0 par consequent {cos , sin} est libre.
2) Dans R2 , considérons la famille B = {u1 ,u2 ,u3 } où u1 = (1,0), u2 = (0,1) et u3 = (1,1).
On remarque que u3 = u1 + u2 donc B est une famille liée de R2 et par consequent B n’est
pas une base de R2 . On peut voir ça autrement. Soit u = (1, − 2) un vecteur de R2 . On a

u = (1, − 2) = (1,0) + (0, − 2) = 1.(1,0) − 2(0; 1) = 1.u1 − 2u2 + 0.u3 .

On a aussi

u = (1, − 2) = (3,0) + (−2, − 2) = 3u1 − 2u3 = 3u1 + 0u2 − 2u3 .

L’écriture de u en fonctions des vecteurs de B n’est pas unique. B n’est pas une base de E.
3) La famille {1,i} est génératrice de C puisque C = V ect{1,i}. D’autre part
∀(a,b) ∈ R; a + ib = 0 =⇒ a = b = 0. Donc {1,i} est une famille libre de C et par suite une
base de C vue comme un R-espace vectoriel.
4) K3 [X] est un K-espace vectoriel de dimension 4.
Soit P ∈ K3 [X]. Alors ∃a0 ,a1 ,a2 ,a3 ∈ K tels que P = a0 + a1 X + a2 X 2 + a3 X 3 . Donc
{1,X,X 2 ,X 3 } est une famille génératrice de K3 [X]. D’autre part

∀α,β,γ,λ ∈ K, α + βX + γX 2 + λX 3 = 0 =⇒ α = β = γ = λ = 0

Donc {1,X,X 2 ,X 3 } est une famille libre de K3 [X] et par suite c’est une base de K3 [X] et
dimK3 [X] = 4.
5) {X 2 − X + 1,X 2 + X − 2,X 2 − 2X + 3} est une famille libre dans R[X]. En effet, Soient
8
α,β,γ ∈ R et supposons que α(X 2 − X + 1) + β(X 2 + X − 2) + γ(X 2 − 2X + 3) = 0 donc

 α + β + γ= 0
(α + β + γ)X 2 + (−α + β − 2γ)X + α − 2β + 3γ = 0 =⇒ −α + β − 2γ = 0
α − 2β + 3γ = 0


 α + β + γ= 0
=⇒ 2β − γ = 0
− 3β + 2γ = 0


 α + β + γ= 0
=⇒ 2β − γ = 0
β = 0

=⇒ α = β = γ = 0.
Ceci prouve que {X 2 − X + 1,X 2 + X − 2,X 2 − 2X + 3} est libre.
Remarque 1.19. Pour montrer qu’une famille de plus de 2 vecteurs est libre, on sera amené
à résoudre le système linéaire correspondant, qui est un système homogène. La famille est
donc libre si et seulement si le système admet uniquement la solution nulle.
Remarque 1.20. Soit E un espace vectoriel.
Si dimE = 1, on dit que E est une droite vectorielle. R est une droite vectorielle comme un
R-espaces vectoriel. De même C est une droite vectorielle comme étant un C-espace vectoriel.
Si dimE = 2, on dit que E est un plan vectoriel. C est un plan vectoriel puisque C est un
R-espace vectoriel de dimension 2.
Si E = {0E }, on décrète par convention que dimE = 0.
Bases canoniques
• Pour tout n ∈ N∗ , on pose e1 = (1,0,...,0), e2 = (0,1,0,...,0),...et en = (0,....,0,1). La famille
{e1 ,e2 ,...,en } est une base de K n appelée sa base canonique et on a dimK n = n.
• La famille infinie (X n )n∈N = {1,X,...,X n ,...} est une base de K[X] appelée base canonique.
K[X] est un espace vectoriel de dimension infinie. La famille finie {1,X,...,X n } est une base
canonique de Kn [X] et dimKn [X] = n + 1.
• Pour tout n, p ∈ N∗ et pour tout i ∈ [[1,n]] et j ∈ [[1,p]], si on note Eij la matrice de
Mn,p (K) dont les coefficients sont tous nuls sauf celui de position (i,j) égal à 1, la famille
{Ei,j /1 ≤ i ≤ n, 1 ≤ j ≤ p} est une base de Mn,p (K) appelée sa base canonique et on a
dimMn,p (K) = np. En particulier dimMn (K) = n2 .

Proposition 1.4. (1) Toute famille contenant un élément nul est liée.
(2) Toute famille contenant une famille liée est aussi liée. En particulier si une famille
contient un élément qui est combinaison linéaire d’un élément ou plus d’un élément
de cette famille, alors elle est liée.
Preuve Exercice
Proposition 1.5. (1) Une famille qui contient un seul élément est libre si et seulement
si cet élément est non nul.
(2) Tout famille contenue dans une famille libre est aussi libre.
(3) Toute famille formée par deux éléments seulement u et v est libre si et seulement si
u et v ne sont pas colinéaires c-à-d u 6= 0E et ∀λ ∈ K, v 6= λu.
Preuve Exercice
9
Exemple 1.21. Soit dans R3 les vecteurs u = (2,1, − 3), v = (1,2, − 1) et w = (4,2, − 6).
On a w = 2u donc {u,w} est une famille liée.
u et v ne sont colinéaires, donc {u,v} est libre.
v et v ne sont colinéaires, donc {v,w} est libre.

Théorème 1.6. Toute famille libre d’un espace vectoriel de dimension finie peut être complétée
par des éléments de n’importe quelle famille génératrice pour former une base. (Théorème de
la base incomplète).
De toute famille génératrice d’un espace vectoriel différent de {0} et de dimension finie, on
peut extraire une base.
Preuve Admis
Proposition 1.7. (1) Toute famille contenant une famille génératrice est une famille
génératrice.
(2) Dans un espace vectoriel engendré par n éléments, toute famille de plus de n éléments
est liée.
(3) Dans un espace vectoriel de dimension finie n, toute famille de plus de n éléments est
liée et toute famille de moins de n éléments ne peut être génératrice.
Preuve Exercice
Théorème 1.8. Soit E un espace vectoriel de dimension finie n.
(1) Toute famille génératrice de n éléments est libre.
(2) Toute famille libre de n éléments est une base.
(3) Si F est un sous-espace vectoriel de E alors dimE ≤ dimF et
E = F ⇐⇒ dimE = dimF .
Preuve Admis
1.5. Somme, Somme directe, sous-espaces vectoriels supplémentaires.
Définition et théorème 1.2. Soit F et G deux sous-espaces vectoriels d’un même espace
vectoriel E.
• L’ensemble F + G = {x1 + x2 /x1 ∈ F et x2 ∈ G} est un s.e.v de E appelé la somme de F
et G.
• Cette somme F + G est également le plus petit sous-espace vectoriel de E contenant F et
G. Cela signifie que tout s.e.v de E contenant F et G contient aussi F + G.
Preuve Exercice
Théorème 1.9. (Formule de Grassmann) Soient E un K-espace vectoriel pas nécessairement
de dimension finie et F et G deux s.e.v de dimension finie de E. La somme F + G est alors
aussi de dimension finie et on a
dim(F + G) = dimf + dimG − dim(F ∩ G)
Définition et théorème 1.3. (Somme directe) Soit E un K-espace vectoriel et F et G
deux sous-espace vectoriels de E. On dit que la somme F + G est directe et on note F ⊕ G si
F ∩ G = {0E }. En d’autre terme :
E = F ⊕ G ⇐⇒ E = F + G et F ∩ G = {0E }.
Dans ce cas, et si F et G sont de dimension finie alors dim(F + G) = dimf + dimG.
10
Proposition 1.10. La somme de s-e-v F et G est directe si et seulement si l’écriture de tout
vecteur u ∈ F + G sous la forme u = u1 + u2 avec u1 ∈ F et u2 ∈ G est unique.
Preuve • ⇐= / Par l’absurde supposons F ∩ G 6= {0E } alors ∃x ∈ E tel que x 6= 0E et
x ∈ F et x ∈ G. On a x = x + 0E = 0E + x donc x = 0E puisque l’écriture est unique.
contradiction, donc F ∩ G = {0E } par suite la somme F + G est directe.
• =⇒ / supposons la somme F + G est directe c-à-d F ∩ G = {0E }. Soit u ∈ E et supposons
que u = u1 + u2 = v1 + v2 où u1 , v1 ∈ F et u2 , v2 ∈ G.
u1 − v1 = u2 − v2 =⇒ u1 − v1 = 0 et u2 − v2 car F ∩ G = {0E }.
=⇒ u1 = v1 et u2 = v2 .
D’où l’unicité de la décomposition de u comme somme d’un élément de F et un élément de
G.
Exemple 1.22. F = {(x,y,z) ∈ R3 /x + y + z = 0} et G = {(x,y,z) ∈ R3 /x = y = z}.
Montrer que F ⊕ G (F et G sont en somme directe).
F et G sont deux s.e.v de R3 . En effet :
(x,y,z) ∈ F ⇐⇒ x+y+z =0
⇐⇒ z = −x − y
⇐⇒ (x,y,z) = (x,y, − x − y)
⇐⇒ (x,y,z) = x(1,0, − 1) + y(0,1, − 1).
Donc F = V ect{(1,0, − 1),(0,1, − 1)}. D’où F est un s.e.v de R3 .

(x,y,z) ∈ G ⇐⇒ x = y = z
⇐⇒ (x,y,z) = (x,x,x)
⇐⇒ (x,y,z) = x(1,1,1).
Donc G = V ect{(1,1,1)}. D’où G est un s.e.v de R3 .
Soit (x,y,z) ∈ R3 . Alors
(x,y,z) ∈ F ∩ G ⇐⇒ x + y + z = 0 et x = y = z
⇐⇒ x = y = z = 0
⇐⇒ (x,y,z) = (0,0,0)
D’où F ∩ G = {0R3 }.
Théorème 1.11. Soient E un K-espace vectoriel et F et G deux s.e.v de E. On suppose que
B1 est une base de F et B2 est une base de G. Si F et G sont en somme directe, alors la
famille obtenue par concaténation de B1 et B2 (B1 ∩ B2 ) est une base de F ⊕ G.
Définition 1.23. (Sous-espaces vectoriels supplémentaires)
Soient E un espace vectoriel et F et G deux s.e.v de E. On dit que F et G sont supplémentaires
(ou F est le supplémentaire de G) si E = F ⊕ G c-a-d E = F + G et F ∩ G = {0E }.
Théorème 1.12. (Existence de supplémentaire en dimension finie)
Soient E un K-espace vectoriel de dimension fini et F un s.e.v de E. Alors F possède un
supplémentaire dans E. De plus les supplémentaires de F dans E ont tous pour dimension
dimE − dimF .
11
Théorème 1.13. (Caractérisation du supplémentaire)
Soient E un K-espace vectorielle dimension finie et F et G deux s.e.v de E et les assertions
suivantes :
i) F +G=E ii) F ∩ G = {0E } iii) dimF + dimG = dimE.
Les sous-espace vectoriels F et G sont supplémentaires dans E si et seulement si deux seule-
ment de ces trois assertions sont vraies (la troisième est alors automatiquement vraie).
Preuve La preuve repose sur la formule de Grasmann
Exemple 1.24. Soit F = V ect{(0,1,0)} et G = {(x,y,z) ∈ R3 /x + 2y + 3z = 0}.
Montrer que F et G sont deux s.e.v supplémentaires de R3 .
Il est claire que F est un s.e.v (F est une droite vectorielle).
(x,y,z) ∈ G ⇐⇒ x + 2y + 3z = 0
⇐⇒ (x,y,z) = (−2y − 3z,y,z)
⇐⇒ (x,y,z) = y(−2,1,0) + z(−3,0,1).
G est le plan vectoriel engendré par les vecteurs (−2,1,0) et (−3,0,1).
De plus on a dim F + dim G = 1 + 2 = 3 = dim R3 . Comme par ailleurs F ∩ G = {0R3 }, en
effet
(x,y,z) ∈ F ∩ G ⇐⇒ x + 2y + 3z = 0 et (x,y,z) = λ(0,1,0) où λ ∈ R
⇐⇒ x + 2y + 3z = 0 et x = z = 0 et y = λ où λ ∈ R
⇐⇒ (x,z,y) = (0,0,0).
Donc F et G sont supplémentaires dans R3 .
Exemple 1.25. Soit F = {P ∈ R3 [X]/P (X + 1) = P (1 − X)}.
Montrer que V ect{X,X 3 } est un supplémentaire de F dans R3 [X].
Soit P = aX 3 + bX + cX + d un polynôme de R3 [X].
P ∈F ⇐⇒ a(X + 1)3 + b(X + 1)2 + c(X + 1) + d = a(1 − x)3 + b(1 − X)2 + c(1 − X) + d
⇐⇒ aX 3 + (3a + 2b + c)X = −aX 3 − (3a − 2b − c)X
⇐⇒ a = −a et 3a + 2b + c = −3a − 2b − c
⇐⇒ a = 0 et 4b + 2c = 2(2b + c) = 0.
⇐⇒ a = 0 et c = −2b.
Donc P = bX 2 −2bX +d = d×1+b(X 2 −2X). Donc F = V ect{1, X 2 −2X}. B = {1,X 2 −2X}
engendre F . Cette famille étant libre, donc c’est une base de F .
Complétons cette base de F en une base de R3 [X] avec certains vecteurs de la base cano-
nique. La famille {1,X 2 −2X,X,X 3 } est libre car composée de polynômes de degrés échelonnés.
Comme dim R3 [X] = 4 alors c’est une base de R3 [X].

1.6. Rang d’une famille de vecteurs.


Définition 1.26. On appelle rang d’une famille S de vecteurs, le nombre maximal de vecteurs
libres qu’on peut extraire de S.
Proposition 1.14. Le rang d’une famille S de vecteurs est la dimension du sous-espace
vectoriel engendré par S, i.e. rg(S) = dim V ect(S).
12
Exemple 1.27. On considère dans R3 , la famille S = {u1 ,u2 ,u3 } des vecteurs u1 = (2,−1,3),
u2 = (1,2,1) et u3 = (3,1,4).
On remarque que u3 = u1 + u2 donc la famille {u1 ,u2 ,u3 } est liée. Comme u1 et u2 ne sont
pas colinéaires, donc la famille {u1 ,u2 } est libre et par suite le rang de la famille S est 2. On
a évidemment rg(S) = dim V ect{u1 ,u2 ,u3 } = dim V ect{u1 ,u2 } = 2.

Proposition 1.15. On ne change pas le rang d’une famille de vecteurs si on ajoute à l’un
d’entre eux une combinaison linéaire des autres.

Preuve Soit S = {v1 ,...,vk } une famille de vecteurs et Soit F le sous-espace vectoriel en-
gendré par S. Le rang de S est la dimension de F .
Xk
Posons w1 = v1 + λi vi et considérons maintenant la famille S 0 = {w1 ,v2 ,...,vk }.
i=2
Toute combinaison linéaire de vecteurs de S 0 est aussi une combinaison linéaire de S et in-
versement. Donc F est aussi le sous-espace vectoriel engendré par S 0 . Le rang de S 0 est donc
égal à la dimension de F . Ceci montre que S et S 0 ont même rang.

1.7. Matrices et changement de bases.

Définition 1.28. Soient B = {e1 ,...,en } et B 0 = {e01 ,...,e0n } deux bases d’un même espace
vectoriel. On appelle matrice de passage de B à B 0 la matrice noté PB−→B 0 dont la j ième
colonne est constituée des coordonnées des vecteurs e0j de la base B 0 dans la bases B, c’est-à-
dire si
Xn n
X n
X n
X
e01 = pi1 ei , e02 = pi2 ei ,...,e0j = pij ei ,...,e0n = pin ei ,
i=1 i=1 i=1 i=1

alors
 
p11 p12 ... p1j ... p1p
 p21 p22 ... p2j ... p2p 
 
 ... ... ... ... ... ... 
PB−→B 0 =
 pi1 pi2

 ... pij ... pip 

 .... ... ... ... ... ... 
pn1 pn2 ... pnj ... pnp

Proposition 1.16. La matrice PB−→B 0 est inversible et (PB−→B 0 )−1 = PB 0 −→B

Proposition 1.17. Si u un vecteur de E à pour coordonnées (x1 ,...,xn ) dans la base B et


(x01 ,...,x0n ) dans la base B 0 alors
   0    0
x1 x1 x1 x1
 .   .   .   . 
       
 .  = PB−→B 0 .  . 
 . = . 
et PB 0 −→B .    
   
 .   .   .   . 
xn xn0 xn x0n

Exemple 1.29. Soient B = {e1 ,e2 } et B = {e01 ,e02 } deux base de R2 tels que
 0
e1 = ae1 + ce2
e02 = be1 + de2
13
 
a b
alors la matrice de passage de B à B0 s’écrit PB−→B 0 = soit maintenant u un vecteur
c d
de R2 . Si u = x1 e1 + x2 e2 et u = x01 e01 + x02 e02 alors on a
  0
x1 = ax01 + cx02
   
x1 a b x
= . 10 c-à-d
x2 c d x2 x2 = bx01 + dx02

En effet

u = x01 e01 + x02 e02


= x01 (ae1 + be2 ) + x02 (ce1 + de2 )
x1 e1 + x2 e2 = (ax01 + cx02 )e1 + (bx01 + dx02 )e2

Remarque 1.30. Il ne faut pas confondre le vecteur u ∈ E qui peut être un polynôme, une
fonction, une matrice,... avec la matrice colonne des ses coordonnées dans la base B de E.
Par exemple dans R2 [X], le vecteur P = aX 2 + bX + c a pour coordonnées (a,b,c) dans la
base canonique {X 2 ,X,1} de R2 [X] mais P n’est pas égal au vecteur (a,b,c) de R3 . Tout ce
qu’on peut dire est que le polynôme P = aX 2 + bX + c de R2 [X] et le vecteur (a,b,c) de R3
ont les mêmes coordonnées dans les bases canoniques respectives.

2. Les applications linéaires


Définition 2.1. soient E et F deux espaces vectoriels. Une application f : E −→ F est dite
linéaire (ou homomorphisme) de E vers F si
(1) ∀u, v ∈ E 2 , f (u + v) = f (u) + f (v).
(2) ∀u ∈ E, ∀λ ∈ K, f (λ.u) = λ.f (u).

Remarque 2.2. On peut remplacer les deux assertions (1) et (2) par :
∀u, v ∈ E 2 , ∀λ ∈ K, f (λ.u + v) = λ.f (u) + f (v). ou encore par :
∀u, v ∈ E 2 , ∀λ,µ ∈ K, f (λ.u + µ.v) = λ.f (u) + µ.f (v)

Exemples 2. 1) L’application nulle Θ : E −→ F est une application linéaire.


u 7−→ 0F
2) L’application identité idE : E −→ E est une application linéaire.
u 7−→ u
3) Soit α ∈ K. L’application hα : E −→ E est une application linéaire. hα est appelée
u 7−→ α.u
homothétie de rapport α.
4) L’application D : R[X] −→ R[X] est une application linéaire dite application dérivation.
P 7−→ P 0
5) l’application D : E = E1 ⊕ E2 −→ E1 est une application linéaire dite projection sur
u = u1 + u2 7−→ u1
E1 parallèlement à E2 .

Exercice 2.3. les applications f : R3 −→ R2 et g : R2 −→ R2 sont-


(x,y,z) 7−→ (x + 2y,z) (x,y) 7−→ (|x|,0)
elles linéaires ?
14
1) Soient u = (x,y,z), v = (x0 ,y 0 ,z 0 ) ∈ R3 et λ ∈ R.
f (λu + v) = f (λ(x,y,z) + (x0 ,y 0 ,z 0 ))
= f ((λx + x0 ,λy + y 0 ,λz + z 0 ))
= ((λx + x0 ) + 2(λy + y 0 ),λz + z 0 ))
= (λ(x + 2y) + (x0 + 2y 0 ),λz + z 0 )
= (λ(x + 2y),λz) + (x0 + 2y 0 ,z 0 )
= λ(x + 2y,z) + (x0 + 2y 0 ,z 0 )
= λf ((x,y,z)) + f ((x0 ,y 0 ,z 0 ))
f (λu + v) = λf (u) + f (v).
Donc f est linéaire.
2) On a (1,0) + (−1,0) = (0,0).
g((1,0) + (−1,0)) = g((0,0)) = (0,0).
g((1,0)) + g((−1,0)) = (1,0) + (1,0) = (2,0).
g((1,0) + (−1,0)) 6= g((1,0)) + g((−1,0)).
Donc g n’est pas linéaire.
Définition 2.4. Soit f : E −→ F une application linéaire (ou homomorphisme).
L’ensemble des homomorphisme de E vers F est notée L(E,F ).
Si E = F , on dit que f : E −→ E est endomorphisme de E et l’ensemble des endomorphismes
de E est notée L(E) ou End(E).
Si f : E −→ F est bijectif, on dit que f est un isomorphisme de E vers F et l’ensemble des
isomorphismes de E vers F est notée Isom(E,F ).
Si E = F et f : E −→ E est bijective, on dit que f est un automorphisme de E et l’ensemble
des automorphismes de E est notée Aut(E).
Si F = R, on dit f : E −→ R est une forme linéaire.
Exemple 2.5. Soit C([0,1],R) l’ensemble des fonctions continues de [0,1] vers R et l’appli-
cation
ϕ : C([0,1],R) −→ R
R1
f 7−→ 0 f (x)dx
Montrer que l’application ϕ est une forme linéaire.
Soit f, g ∈ C([0,1],R) et λ ∈ R. On a λf + g est une fonction continue sur [0,1] et on a
Z 1 Z 1
ϕ(λf + g) = (λf + g)(x)dx = (λf (x) + g(x))dx
0 0
Z 1 Z 1
= λ f (x)dx + g(x)dx
0 0
ϕ(λf + g) = λϕ(f ) + ϕ(g)
Donc ϕ est une application linéaire de C([0,1],R) dans R et par suite ϕ est une forme linéaire.
Remarque 2.6. Soit f : E −→ F une application linéaire .
On a f (0E ) = 0F et ∀u ∈ E, f (−u) = −f (u).
15
Proposition 2.1. (1) Soit f : E −→ F une application linéaire. L’image d’une combi-
naison linéaire de E par f est une combinaison linéaire de F .
p p
!
X X
f αi ui = αi f (ui ), ∀u1 ,...,up ∈ E.
i=1 i=1
(2) La somme de deux applications linéaires est linéaire et le produit par un scalaire d’une
application linéaire est une application linéaire.
f ∈ L(E,F ) et g ∈ L(E,F ) =⇒ f + g ∈ L(E,F ).
f ∈ L(E,F ) et λ ∈ K =⇒ λ.f ∈ L(E,F ).
(3) La composée de deux applications linéaires est une application linéaire.
f ∈ L(E,F ) et g ∈ L(F,G) =⇒ g ◦ f ∈ L(E,G)
(4) Si f est un isomorphisme alors f −1 est un isomorphisme.
f ∈ L(E,F ) =⇒ f −1 ∈ L(F,E).
(5) La composée de deux isomorphismes est un isomorphisme.
f ∈ Isom(E,F ) et g ∈ Isom(F,G) =⇒ g ◦ f ∈ Isom(E,G) et (g ◦ f )−1 = f −1 ◦ g −1 .
2.1. Noyau, Image et rang d’une application linéaire.
Définition 2.7. On appelle noyau d’une application linéaire f : E −→ F , l’ensemble des
vecteurs u ∈ E les que f (u) = 0F il est noté Ker(f ).
Ker(f ) = {u ∈ E / f (u) = 0F }.
La détermination de Ker(f ) conduit donc naturellement à la résolution d’un système linéaire
homogène.
Définition 2.8. On appelle image d’une application linéaire f de E dans F l’ensemble
F (E) = {v ∈ F / ∃u ∈ E, v = f (u) } = {f (u) /u ∈ E }.
L’image de f est notée Imf (f ).
Proposition 2.2. Ker(f ) est un sous-espace vectoriel de E.
Imf (f ) est une sous-espace vectoriel de F .
Preuve Exercice
Définition 2.9. On appelle rang d’une application linéaire f de E dans F la dimension de
l’espace vectoriel Im(f ), on le note rg(f ) = dimIm(f ).
Proposition 2.3. Soit f : E −→ F une application linéaire.
(1) f est injective si et seulement si Ker(f ) = {0E }.
(2) f est surjective si et seulement si Imf (f ) = F .
Preuve =⇒ / Supposons f injective. Soit u ∈ Ker(f ) alors f (u) = 0F . Or 0F = f (0E ),
donc f (u) = f (0E ). D’où u = 0E puisque f est injective. Par suite Ker(f ) = {0E }.
⇐= / Supposons Ker(f ) = {0E }. soit u, v ∈ E tels que f (u) = f (v).
Donc f (u − v) = f (u) − f (v) = 0F par suite u − v ∈ Ker(f ). D’où u − v = 0E c-à-d u = v ce
qui fini la démonstration.
Proposition 2.4. Soit f ∈ L(E,F ) et B = {e1 ,...; en } une famille de vecteurs de E.
16
(1) Si f est injective et B est libre dans E, alors la famille f (B) = {f (e1 ),...,f (en )} est
libre dans F .
(2) Si f est surjective et la famille B est génératrice de E alors f (B) = {f (e1 ),...,f (en )}
est génératrice de F .
(3) Si f est bijective alors l’image d’une base de E est une base de F .
Preuve
(1) Supposons f est injective et B est libre dans E. Soit λi ∈ K.
n n
!
X X
λi f (ei ) = 0F =⇒ f λi ei = 0F
i=1 i=1
n
X
=⇒ λi ei = 0E
i=1
=⇒ λi = 0 ∀i ∈ [[1,n]].
D’où f (B) = {f (e1 ),...,f (en )} est libre dans F .
(2) Supposons f est surjectiveP ∈ F alors ∃u ∈ E
et la famille B génératrice de E. Soit v P
tel que f (u) = v. Or u = ni=1 λei où λi ∈ K. Donc v = f (u) = ni=1 λf (ei ). D’où
f (B) = {f (e1 ),...,f (en )} est génératrice de F .
(3) C’est une consequence de (1) et (2).
Proposition 2.5. Soit {e1 ,...,en } une base de E.
(1) Pour connaı̂tre l’application f , il suffit de connaı̂tre les f (ei ), pour tout 1 ≤ i ≤ n.
(2) Im(f ) = V ect{f (e1 ),...,f (en )} et le rang de f est égal au rang de la famille de vecteurs
{f (e1 ),...,f (en )}.
n
X n
X
Preuve 1) Soit x ∈ E, alors x s’écrit sous la forme x = xi ei . On a f (x) = xi f (ei ).
i=1 i=1
Donc Dés que l’on connaı̂t les f (ei ), on peut en déduire f (x) pour n’importe quel x ∈ E.
2) Tous les f (ei ) sont dans Im(f ) et on sait que l’ensemble Im(f ) est un sous espace vectoriel.
Donc V ect{f (e1 ),...,f (en )} ⊂ Im(f ).
Inversement, soit y ∈ Im(f ). Alors ∃x ∈ E tel que y = f (x). Or x s’écrit x = ni=1 xi ei . Donc
P

n
X
y= xi f (ei ) ∈ V ect{f (e1 ),...,f (en )}.
i=1
D’où Im(f ) ⊂ V ect{f (e1 ),...,f (en )} et par suite Im(f ) = V ect{f (e1 ),...,f (en )}.
En fin rg{f (e1 ),...,f (en )} = dim V ect{f (e1 ),...,f (en )} = dim Im(f ) = rg(f ).
Proposition 2.6. Soit E et F deux espace vectoriels de dimension finie et f une application
linéaire de E dans F . Alors on a
i) rg(f ) ≤ dimF ii) rg(f ) ≤ dimE.
Preuve i) est évident car rg(f ) = dim Im(f ) et Im(f ) ⊂ F .
ii) On a rg(f ) = dim Im(f ) et Im(f ) est le sous espace vectoriel de F engendré par {f (e1 ),...,f (en )}
avec {e1 ,...,en } est une base de E. Donc rg(f ) ≤ n = dim E.
Proposition 2.7. Soit E et F deux espaces vectoriels de dimension finies et f ∈ L(E,F ).
(1) f est surjective ⇐⇒ rg(f ) = dimF .
(2) f est injective ⇐⇒ rg(f ) = dimE.
17
(3) f est bijective ⇐⇒ rg(f ) = dimE = dimF .
Preuve Admis
Proposition 2.8. Il existe une application linéaire bijective (isomorphisme) entre les espaces
vectoriels E et F si et seulement si dim E = dim F .
Preuve Si f est une application linéaire bijective entre E et F alors rg(f ) = dim E et
rg(f ) = dim F . Donc dim E = dim F .
Réciproquement, soit n = dim E = dim F . Considérons B = {e1 ,...,en } une base de E et
B 0 = {u1 ,...,un } une base de F . Soit l’application linéaire de E dans F définie par f (ei ) = ui ,
pour tout i ∈ [[1,n]]. Alors Im(f ) = F . Donc rg(f ) = n et f est bijective. .
Proposition 2.9. Soit E et F deux espaces vectoriels de même dimension finie n et f une
application linéaire de E dans F . On a équivalence entre
i) f injective ii) f sujective iii) f bijective.
Preuve Puisque toute application bijective est injective et surjective, donc iii) =⇒ ii) et
iii) =⇒ i).
Supposons f injective, alors rg(f ) = dim E = n. Comme dim E = dim F alors rg(f ) =
dim E = dim F ce qui implique que f est bijective. On a donc montré que i) =⇒ iii).
Supposons f surjective alors rg(f ) = dim F = n. Comme dim E = dim F alors rg(f ) =
dim E = dim F ce qui implique que f est bijective. On a donc montré que ii) =⇒ iii).
Proposition 2.10. Si f est un isomorphisme de E dans F alors son application réciproque
f −1 est un isomorphisme de F dans E.
Preuve Soit f un isomorphisme de E dans F . Puisque f est bijective alors elle admet une
application réciproque f −1 de F dans E. et f −1 est aussi bijective. Il reste à montrer que f −1
est linéaire.
Soit y, y 0 ∈ F et λ ∈ K. Alors ∃x,x0 ∈ E tels que y = f (x) et y 0 = f (x0 ) ou encore x = f −1 (y)
et x0 = f −1 (y 0 ).
Puisque f est linéaire alors f (x + λx0 ) = f (x) + λ f (x0 ) = y + λ y 0 .
On en déduit que x + λ x0 = f −1 (y + λ y 0 ), c-à-d f −1 (y) + λ f −1 (y 0 ) = f −1 (y + λ y 0 ) ce qui
prouve que f −1 est linéaire.
Théorème 2.11. (Noyau Image)
Soit E et F deux espaces vectoriels de dimensions finies et f une application linéaire de E
dans F alors
dimIm(f ) + dimKer(f ) = dimE.
Preuve Admis
2.2. Matrices et applications linéaires.
Définition 2.10. Soit E et F deux espaces vectoriels. B = {e1 ,...,en } une base de E et
B 0 = {e01 ,...,e0m } une base de F et f une application linéaire de E dans F .
On appelle matrice de f relativement aux bases B et B 0 la matrice m×n dont la jième colonne
est constituée des coordonnées de f (ej ) dans la base B 0 :
 
a11 a12 ... a1j ... a1n
 a21 a22 ... a2j ... a2n 
 
 ... ... ... ... ... ... 
P[f,B,B 0 ] = 
 
 a i1 ai2 ... a ij ... a in


 .... ... ... ... ... ... 
am1 am2 ... amj ... amn
18
f (ej ) = a1j e01 + a2j e02 + ... + aij e0i + ... + amj e0m pour tout j = 1,2,...,n.
Remarque 2.11. On voit tout de suite que la matrice d’une application linéaire ne sera pas
la même suivant l’ordre dans lequel on écrit les vecteurs de B et l’ordre dans lequel on écrit
les vecteurs de B 0 .
La matrice associée à une application linéaire n’est pas unique. Elle dépends des bases choisies
dans les espaces vectoriels E et F .
Exemple 2.12. B = {e1 ,e2 ,e3 } la base canonique de R3 et B = {c1 ,c2 } la base canonique
de R2 et l’application linéaire
f : R3 −→ R2
(x,y,z) 7−→ (2x + z,x − 5y − 3z)
On a f (e1 ) = f ((1,0,0)) = (2,1) = 2(1,0) + (0,1) = 2c1 + c2 .
f (e2 ) = f ((0,1,0)) = (0, − 5) = −5(0,1) = −5c2 .
f (e3 ) = f ((0,0,1)) = (1, − 3) = (1,0) −3(0,1) = c1 −
 3c2 .
2 0 1
La matrice de f est donc M[f,B,B 0 ] =
1 −5 −3
Remarque 2.13. L’image d’un vecteur par une application linéaire et écriture
matricielle de f (u) = v
Supposons données les bases B et B 0 de E et F respectivement. L’application f : E −→ F a
pour matrice A relativement à ces bases. soit U la matrice à une colonne des coordonnées de
u ∈ E dans la base B et V la matrice à une colonne des coordonnées de v ∈ F dans la base
B0.
f (u) = v ⇐⇒ AU = V
Exemple 2.14. soit f : R2 −→ R2 une application linéaire et B = {e1 ,e2 }, B 0 = {e01 ,e02 }
3 5
deux bases de R2 . Supposons que la matrice de f relativement aux bases B et B 0 .
−2 4
Soit u, v ∈ R2 tel que u = xe1 + ye2 et v = x0 e01 + y 0 e02 . On a
f (u) = v ⇐⇒ xf (e1 ) + yf (e2 ) = x0 e01 + y 0 e02
⇐⇒ x(3e01 − 2e02 ) + y(5e01 + 4e02 ) = x0 e01 + y 0 e02
=⇒ (3x + 5y)e01 + (−2x + 4y)e02 = x0 e01 + y 0 e02
3x + 5y = x0

⇐⇒
−2x + 4y = y 0
     0
3 5 x x
⇐⇒ =
−2 4 y y0
⇐⇒ AU = V
Ce qui permet de lire directement les coordonnées de v = f (u) dans la base B 0 . L’application
f est donc définie par : R2 −→ R2
(x,y) 7−→ (3x + 5y, − 2x + 4y)
Remarque 2.15. Soit E un espace vectoriel de dimension n. Si f est une application linéaire
de E dans E alors sa matrice dans une base donnée est une matrice carrée d’ordre n.
Proposition 2.12. L’application IdE est une application linéaire de E dans E dont la matrice
dans n’importe quelle base est la matrice identité In .
19
Preuve Soit u, v ∈ E et λ ∈ K. On a
IdE (λ u + v) = λ u + v = λ IdE (u) + IdE (v).
Donc IdE est linéaire.
Soit B = {e1 ,...,en } une base P
de E et soit I = (cij )1≤ i,j≤ n la matrice de IdE dans cette base.
On a ∀j ∈ [[1,n]], IdE (ej ) = ni=1 cij ei = ej .
Donc cjj = 1 et cij = 0 si i 6= j. Cela signifie bien que la matrice I comporte 1 sur la diagonale
et des 0 partout ailleurs.
Proposition 2.13. Soit f : E −→ E une application linéaire et B une base de E. f est
bijective si et seulement si sa matrice A dans la base B est inversible. La matrice de f −1 est
alors la matrice inverse A−1 .
Preuve Admis

20

Vous aimerez peut-être aussi