Vous êtes sur la page 1sur 40

Algèbre linéaire

Abe GNAGNE
Table des matières

1 Structure algébrique-Espace vectoriel 2


1.1 Espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3 Combinaison linéaire et générateurs . . . . . . . . . . . . . . . . . . . . . . 6

1.4 Dépendance linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
n
1.6 Le cas R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.7 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Applications linéaires 19
2.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.2 Noyau et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.4 Les Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.4.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.4.2 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.5 Matrice associée à une application linéaire . . . . . . . . . . . . . . . . . . 29

2.5.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.5.2 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.5.3 Trace d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.5.4 Noyau et image d'une matrice . . . . . . . . . . . . . . . . . . . . . 34

3 Déterminant d'une matrice carrée 36


3.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3.2 Propriétés su déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3.3 Déterminant d'un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . 39

1
Chapitre 1

Structure algébrique-Espace vectoriel

1.1 Espace vectoriel


Dénition 1.1.1. Un espace vectoriel E = (E; +; .) est formé d'un ensemble V et de deux
applications, appelées lois :

V ×V → V
(u, v) 7→ u + v

et

R×V → V
(λ, u) 7→ λu

1. l'associativité de la loi +

(u + v) + w = u + (v + w)

2. La commutativité de la loi +

u+v =v+u

3. l'existence d'un neutre pour la loi +

∃0 ∈ E : 0 + u = u + 0 = 0

4. l'existence d'un symétrique(l'opposé) pour la loi +

∀u, ∃t : u + t = t + u = 0

Le vecteur t est unique. C'est l'opposé de u et il est noté −u.


5. l'associtivité pour la loi . :
λ(µu) = (λµ)u
6. l'action identité de l'unité pour la loi

1.u = u

2
1.1. espace vectoriel 1. structure algébrique-espace vectoriel

7. la distributivité de la somme des vecteurs

λ.(u + v) = λ.u + λ.v

8. la distributivité de la somme des scalaires

(λ + µ).u = λ.u + µ.u

• Un espace vectoriel consiste en 3 données qui vérient 8 axiomes. Les quatre pre-
miers axiomes ne portent que sur la somme des vecteurs, les deux suivant ne portent que
sur la multiplication par les scalaires et les deux dernières portent sur la compatibilité entre
les deux lois.

• On peut considérer des espaces vectoriels pour lesquels les scalaires sont d'autres
nombres que les nombres réels (rationnels, complexes, etc.). Ce ne sera pas le cas dans ce
cours ; tous les espaces vectoriels rencontrés ici seront réels.

• L'existence du vecteur nul montre que l'ensemble V ne peut pas être vide.

Remarque 1.1.1 . (E, +), E munit de l'addition est un groupe commutatif.


Comme
u + (−1).u = [1 + (−1)].u = 0.u = 0
l'opposé de u est (−1)u noté −u.
D'une façon générale u + v = w ⇐⇒ v = w + (−1)u = w − u


Si K est un sous-corps de K, un espace vectoriel sur K est aussi un espace vectoriel
′ ′
sur K (exemple : K = C et K = R).

Il importe de distinguer 0, élément neutre de (K, +) K = R ou K = C) et 0, vecteur


nul, élément neutre de (E, +).
Comme exemple d'espace vectoriel on a :

1. (R, +, .) est un espace vectoriel, des complexes (C, +, .) muni de la somme et du


produit par un réel est un espace vectoriel.

2. Soit R2 = {(x, y) : x, y ∈ R}. (R2 , +, .) est un espace vetoriel. Il est en bijection


avec le plan vectoriel.

3. L'ensemble R3 = {(x, y, z) : x, y, z ∈ R} munit de l'addition et du produit par un


scalaire est un espace vectoriel. Il est bijection avec l'espace.

4. L'ensemble des n-uplets de nombres réels (Rn ; +; .)


n
où R = {(x1 , x2 , ..., xn ) : xi ∈ R, pour i = 1, ..., n}, muni de la somme et de la
multiplication par les scalaires susmentionnés forment un espace vectoriel.

5. L'ensemble des polynômes à une indeterminée, de degré inferieur à n, Rn [X] muni


de la somme et du produit par un scalaire est un espace vectoriel.

6. L'ensemble des solutions d'une équation diérentielle linéaire sans second membre.

7. L'ensemble des fonctions intégrables sur un intervalle [a, b].

3
1.2. sous-espaces vectoriels 1. structure algébrique-espace vectoriel

8. L'ensemble réduit à un élément noté {0} muni de la somme dénie par


0+0=0 et de la multiplication dénie par λ0 = 0 est un espace vectoriel

Grâce à la dénition, tout espace vectoriel a les mêmes propriétés générales que les
vecteurs du plan. (Il est donc bon de garder cette exemple type toujours en tête.) Par
exemple, les propriétés suivantes sont toujours vériées.

Proposition 1.1.1. Pour tout scalaire λ ∈ R et pour tout vecteur u ∈ V , on a


λ0 = 0,
0.u = 0,
λ.u = 0 ⇐⇒ λ = 0 ou u = 0,
(−λ).u = λ.(−u) = −(λu)

1.2 Sous-espaces vectoriels


On se pose maintenant la question de savoir quand un sous-ensemble d'un espace
vectoriel possède toute la structure d'un espace vectoriel.

Dénition 1.2.1. Un sous-ensemble E ⊂F d'un espace vectoriel (V ; +; .) est un sous-


espace vectoriel si les restrictions des lois + et . le munissent d'une structure d'espace
vectoriel

Pour qu'un sous-ensemble E soit un sous-espace vectoriel, il faut et il sut que la


somme de ses vecteurs et la multiplication par les scalaires de ses vecteurs soient encore
dans E. D'où le théorème suivant.

Théorème 1.2.1. :
Un sous-ensemble E ⊂ V d'un espace vectoriel (V ; +; .) est un sous-espace vectoriel
si et seulement si les trois conditions suivantes sont vériés.

0 ∈ E,
∀u, v ∈ E, u+v ∈E
∀λ ∈ R, ∀u ∈ E, λ.u ∈ E

Le théorème suivant donne l'équivalence des deux dernières conditions.

Théorème 1.2.2. Un sous-ensemble E ⊂ V d'un espace vectoriel (V ; +; .) est un sous-


espace vectoriel si et seulement si les trois conditions suivantes sont vériés.

0∈E
∀u, v ∈ E, ∀λ, µ ∈ R, λ.u + µv. ∈ E
exemples :

♢ Toutes les droites du plan P passant par l'origine, c'est à dire la droite déquation
y = ax, a ∈ R sont des sous-espaces vectoriels. On parle alors de droites vectorielles.

4
1.2. sous-espaces vectoriels 1. structure algébrique-espace vectoriel

♢ Toutes les droites de l'espace E passant par l'origine ainsi que tous les plans passant
par l'origine (plans vectoriels) sont des sous-espaces vectoriels.

Dans l'espace, le plan vectoriel passant par l'origine est déni par l'équation :
ax + by + cz = 0, a, b, c sont des réels, et la droite vectoriel est l'intersection de deux plans
vectoriels passant par l'origine. Elle est dénie par le système suivant

(
ax + by + cz = 0
a′ x + b ′ y + c ′ z = 0
.

♢ L'ensemble des nombres imaginaires purs iR forment un sous-espace vectoriel de


l'espace vectoriel des nombres complexes C

Intéressons-nous maintenant au comportement des sous-espaces vectoriels vis-à-vis


des opérations ensemblistes intersection et union. Pour l'intersection, tout se passe bien.

Proposition 1.2.1. :
L'intersection E∩F de deux sous-espaces vectoriels E, F d'un espace vectoriel (V ; +; .)
est encore un sous-espace vectoriel

Comme exemple, soient :


P1 = {(x, y, z) : x + y + z = 0} et P2 = {(x, y, z) : x − y + z = 0} deux plans dénis par
leur équation.

(
x+y+z =0
Soit (a, b, c) ∈ P1 ∩ P2 , alors (a, b, c) est solution du sytème .
x−y+z =0
Ainsi les points (a, b, c)
dénissent une droite. Alors P1 ∩ P2 est une droite vectoriel qui
3
est un sous espace vectoriel de l'espace vectoriel R .

Mais l'union de deux sous-espaces vectoriels n'est pas un espace vectoriel.

On dénie la somme de deux sous-espaces comme suite

Dénition 1.2.2. :

Soient E et F deux sous-espaces vectoriels de l'espace vectoriel (V ; +; .).


Alors la somme de E + F = {u + v : u ∈ E, v ∈ F }.

On montre que E+F est un sous espace-vectoriel de (V ; +; .). C'est le plus petit
sous-espace contenant la réunion de deux sous-espaces vectoriels : E∪F ⊂E+F .

exemple : La somme de deux droites vectorielles distinctes de l'espace passant par


l'origie forme un plan vectoriel.

5
1.3. combinaison linéaire et générateurs 1. structure algébrique-espace vectoriel

exercices :
Exercice 1

Soit le plan vectoriel P.


1. A quelle condition une droite du plan P est-elle un sous-espace vectoriel ?

2. L'union de deux droites distinctes passant par 0 forme-t-elle un sous-espace vec-


toriel de P?
3. Quels sont tous les sous-espaces vectoriels de P?

Exercice 2

Soit l'espace vectoriel E


1. Quels sont tous les sous-espaces vectoriels de l'espace de E?
2. Soient F G deux sous-espaces vectoriels de E . Donner une condition nécessaire
et
et susante pour que l'union F ∪ G de F et G soit un sous-espace vectoriel de E .

Dans la suite, on écrira tout simplement W au lieu de (W ; +; .) pour l'espace vectoriel.

1.3 Combinaison linéaire et générateurs


Poursuivons la question précédente mais avec un sous-ensemble quelconque A d'un
espace vectoriel E . Si A n'est pas un sous-espace vectoriel de E , existe-t-il un plus petit
sous-espace vectoriel de E qui le contient ?

Dire que A n'est pas un sous-espace vectoriel signie qu'il n'est pas stable pour la
somme des vecteurs ou pour la multiplication par les scalaires. Pour combler ces lacunes,
on considère maintenant toutes les sommes de multiplications de vecteurs de A.
Dénition 1.3.1. :

Les vecteurs de la forme

λ1 a1 + λ2 a2 + ... + λn an
avec λ1 , λ2 , ..., λn ∈ R etu1 , u2 , ..., un ∈ A sont appelés des combinaisons linéaires de
vecteurs de A.

L'ensemble de toutes les combinaisons linéaires de vecteurs de A est noté

Vect(A) = {λ1 u1 + λ2 u2 + ... + λn un : λ1 , λ2 , ..., λn ∈ R, u1 , u2 , ..., un ∈ A}


Théorème 1.3.1. :
Pour tout sous-ensemble A d'un espace vectoriel V les propriétés suivantes sont vé-
riées.

6
1.3. combinaison linéaire et générateurs 1. structure algébrique-espace vectoriel

♢L'ensemble Vect(A) est un sous-espace vectoriel de V

♢A ⊂ Vect(A)

♢Tout sous-espace vectoriel U de F contenant A contient aussi Vect(A)

A ⊂ Vect(A) ⊂ U

Dénition 1.3.2 (espace engendré). :

Le sous-espace vectoriel Vect(A) est appelé le (sous-)espace vectoriel engendré par


A. C'est le plus petit sous-espace vectoriel contenant A

exemple :

♢L'espace vectoriel engendré par une paire de vecteurs non colinéaires A = {u; v}
de l'espace E est le plan vectoriel qui les contient.

♢ si u et vsont colinéaires alors Vect({u, v}) = Vect({u})


Dénition 1.3.3 (famille génératrice). :

Lorsque le sous-espace vectoriel engendré par A vaut l'espace vectoriel V tout entier,
on dit que la famille de vecteurs A engendre V ou que c'est une famille génératrice.

Dit autrement, cela signie que tout vecteur u de V peut s'écrire sous la forme d'au
moins une combinaison linéaire de vecteurs de A :

u = λ1 u1 + λ2 u2 + ... + λn un

exemples :

♢ Toute paire de vecteurs non colinéaires du plan P en forme une famille génératrice.

♢ La famille de vecteurs {(1, 0, ...0); (0, 1, 0, ..., 0); ...; (0, ..., 0, 1)} engendre l'espace
vectoriel R. En eet, tout n-uplets (x1 , ..., xn ) ∈ R s'écrit comme combinaison linéaire

(x1 , ..., xn ) = x1 (1, 0, ..., 0) + x2 (0, 1, 0, ..., 0) + ... + xn (0, ..., 0, 1).

♢ L'espace vectoriel des nombres complexes C est engendré par {1, i} car ils s'écrivent
tous comme un combinaison linéaire z = x.1 + y.i.

♢ La famille de polynômes {1, X, ..., X d } engendre l'espace vectoriel Rd [X] des po-
lynômes de degré inférieur ou égal à d. En eet, tout polynôme P s'écrit comme une
combinaison linéaire
P = ad X d + ... + a1 X + a0 .1

7
1.3. combinaison linéaire et générateurs 1. structure algébrique-espace vectoriel

Dénition 1.3.4 (type ni). :

Si un espace vectoriel est engendré par une famille nie de vecteurs, on dit qu'il est
de type ni.

Tous les espaces vectoriels rencontrés dans ce cours seront de type ni.

exercices :

Exercice 1 :

Soit S l'ensemble des solutions du système x−y+z =0 :

S = {(x, y, z) ∈ R3 : x − y + z = 0}
1. Montrer que l'ensemble S est un sous-espace vectoriel de R3 .
2. En donner plusieurs familles génératrices.

Exercice 2
(
x + 2y = 0
Soit S l'ensemble des solutions du système
2y + z = 0

S = {(c, y, z) ∈ R3 : x + 2y = 0 et 2y + z = 0}

1. Montrer, de deux manières diérentes, que l'ensemble S est un sous-espace vec-


3
toriel de R .

2. En donner une famille génératrice

Exercice 3 (Combinaisons linéaires) :

On considère les vecteurs suivants de R4

v1 = (1, 2, 30), v2 = (0, 1, 2, 3), et v3 = (2, 3, 4, −3)

ainsi que les familles

F1 = {v1 }, F2 = {v1 , v2 }, F3 = {v1 , v2 , v3 }

On considére les vecteurs suivants :

w1 = (1, 1, 1, 1), w2 = (1, −1, 1, −1), w3 = (−3, −4, −5, 6)

1. Est-ce que le vecteur w1 (respectivement w2 et w3 ) est une combinaison linéaire


des vecteurs de F1 , F2 ou F3 ?
2. Déterminer les sous-espaces vectoriels Vect(F1 ), Vect(F2 ) et Vect(F3 ).

3. Déterminer toutes les manières d'écrire les vecteurs (0, 0, 0, 0) et (1, 3, 5, 3) comme
combinaisons linéaires des vecteurs de F3 .

8
1.4. dépendance linéaire 1. structure algébrique-espace vectoriel

Exercice 4 (Dérivée de polynômes) :

On note R3 [X] l'ensemble des polynômes à coecients réels de degré inférieur ou égal
à 3. Soit
E = {P ∈ R3 [X] : (X + 1)P ′ − (2 − X 2 )P ′′ = 0
1. Montrer que l'ensemble E est un sous-espace vectoriel de R3 [X].
2. En donner une famille génératrice.

1.4 Dépendance linéaire


On peut maintenant se poser la question de l'unicité de l'écriture sous forme de
combinaison linéaire

u = λ1 u1 + λ2 u2 + ... + λn un
c'est-à-dire de l'unicité des coecients λ1 , λ2 , ..., λn . Pour cela, on va commencer avec le
cas où u est le vecteur nul.

Dénition 1.4.1. (Famille libre) :

Une famille A de vecteurs d'un espace vectoriel (E, +, .) est dite libre si

λ1 u1 + λ2 u2 + ... + λn un = 0 ⇒ λ1 = λ2 = ... = λn = 0

Cela signie qu'il n'y qu'une seule manière d'écrire le vecteur nul comme combinai-
son linéaire de vecteurs de A, c'est-à-dire avec la combinaison linéaire triviale où tous les
coecients sont nuls.

exemple :

On considère la famille {u, v} formée des deux vecteurs du plan P de coordonnées


u = (1, 0) et v = (1, 1).

Montrons qu'ils sont linéairement indépendants. Supposons qu'il existe deux nombres
réels λ, µ tels que λu + µv = 0. En coordonnées, cela signie que λ(1, 0) + µ(1, 1) = (0, 0).
Si on développe, on trouve

λ(1, 0) + µ(1, 1) = (λ + µ, µ) = (0, 0)

On en conclut donc que nécessairement λ=µ=0 et donc que les vecteurs u et v


sont linéairement indépendants.

Deux vecteurs sont linéairement indépendants si et seulement s'ils ne sont pas co-
linéaires, c'est-à-dire si aucun des deux ne s'écrit un scalaire fois l'autre, u = αv par
exemple.

9
1.5. base 1. structure algébrique-espace vectoriel

Dénition 1.4.2. (Famille liée) :

A l'inverse, une famille A de vecteurs d'un espace vectoriel (E, +, .) est dite liée si elle
n'est pas libre. Cela signie que le vecteur nul peut s'écrire avec au moins une combinaison
linéaire non triviale de vecteurs de A :

λ1 u1 + λ2 u2 + ... + λn un = 0 avec au moins un λi ̸= 0

On dit aussi que les vecteurs de A sont linéairement dépendants

exemple :
On considère maintenant la famille {u, v, w} formée des trois vecteurs du plan P de coor-
données u = (1, 0), v = (1, 1) et w = (0, −2).

Pour voir que cette famille est liée, il sut d'exhiber une combinaison linéaire non
triviale du vecteur nul. La relation −2u + w = −2u reliant ces trois vecteurs peut se
réécrire
−2u + 2v + w = 0
remarque :Toute famille contenant le vecteur nul est liée . En eet, il sut de
considérer la combinaison linéaire non triviale du vecteur nul suivante : 1.0 = 0 pour faire
capoter l'aaire.

La proposition suivante nous dit qu'il sut que le vecteur nul s'écrive de manière
unique comme combinaison linéaire de vecteurs d'une famille A pour que cette propriété
soit vraie pour tous les vecteurs engendré par A.
Proposition 1.4.1. :
Une famille A de vecteurs d'un espace vectoriel est libre si et seulement si tout vecteur
de l'espace Vect(A) engendré par A s'écrit de manière unique comme combinaison linéaire
de vecteurs de A.
Dénition 1.4.3. (coordonnées) :

Soit A une famille libre de vecteurs d'un espace vectoriel. Comme tout vecteur u∈
Vect(A) s'écrit de manière unique

u = λu1 + λ2 u2 + ... + λn un ,
les coecients (λ1 , λ2 , ..., λn ), qui sont uniques, sont appelés les coordonnées de u dans la
familles A.

1.5 Base
Une famille A est génératrice si tout vecteur u∈E peut s'écrire

u = λu1 + λ2 u2 + ... + λn un
et une famille est libre si cette écriture est unique. C'est ces deux cas à la fois qui nous
intéressent.

10
1.5. base 1. structure algébrique-espace vectoriel

Dénition 1.5.1. (Base) :

Une famille de vecteurs d'un espace vectoriel est une base si elle est libre et génératrice.

Proposition 1.5.1. :
Une famille A de vecteurs d'un espace vectoriel (E, +, .) est une base si et seulement
si tout vecteur u ∈ E sécrit de manière unique comme combinaison linéaire d'éléments de
A:
u = λu1 + λ2 u2 + ... + λn un

exemples :

♢ Toute paire de vecteurs non colinéaires {u, v} du plan P en forme une base.

♢La famille de vecteurs {e1 (1, 0, ..., 0), e2 (0, 1, 0, ..., 0), ..., e3 (0, ..., 0, 1)} est une base
de l'espace vectoriel Rn . Elle est appellée la base canonique de Rn .

♢L'espace vectoriel des nombres complexes C admet la famille {1, i} pour base.

♢La famille de polynômes {1, X, ..., X d } est une base de l'espace vectoriel Rd [X] des
polynômes de degré inférieur ou égal à d.

Exercice :

Exercice 1

Soit B = {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} la base canonique de R3 . Soit

u = (1, 1, 1), v = (1, −1, 0), w = (−1, 1, −1)

1. Montrer que B ′ = {u, v, w} est une base de R3


2. Trouver les coordonnées de e1 , e2 , e3 dans la bases B′ .
Tout espace vectoriel V non trivial, c'est à dire V ̸= {0}, admet au moins une base.

Théorème 1.5.1. :
Toutes les bases d'un espace vectoriel de type ni ont le même nombre de vecteurs.
La dénition suivante donne un nom au nombre d'éléments d'une base.

Dénition 1.5.2. (Dimension) :

La dimension d'un espace vectoriel E est le nombre d'éléments de chacune de ses


bases. On la note dimE ou dimR E lorsque on veut insister sur le fait que E est un espace
vectoriel réel.

Exemples :

11
1.5. base 1. structure algébrique-espace vectoriel

♢La dimension du plan est dimP = 2

♢ La dimension de Rn est dimRn = n

♢ La dimension de l'espace vectoriel réel des nombres complexes est dimR C = 2

♢La dimension de l'espace vectoriel Rd [X] des polynômes de degré inférieur ou égal
à d est dimRd [X] = d + 1

La notion de base contient deux notions antinomiques : la famille doit être génératrice
(il faut susamment de vecteurs) et libre (il n'en faut pas trop). Les deux théorèmes
suivants montrent que l'on peut modier une famille vériant une propriété pour avoir les
deux.

Théorème 1.5.2. (Base incomplète) :


Toute famille libre A d'un espace vectoriel peut s'étendre en une base B : A ⊂ B.

exemple :

Dans l'espace R3 , on considère la famille {u = (2, 0, 0); v = (1, 1, 1)}. Cette famille
est bien libre car les deux vecteurs u et v ne sont pas colinéaires.

Tout vecteur w n'appartenant pas un plan Vect({u, v}) engendré par u et v sut à
3
compléter {u, v} en une base {u, v, w} de R .

Théorème 1.5.3. (de la base extraite) :


De toute famille génératrice A d'un espace vectoriel, on peut extraire en une base B :
B ⊂ A.

exemple :

On considère à nouveau la famille génératrice {u, v, w} formée des trois vecteurs du


planP de coordonnées u = (1, 0), v = (1, 1) etw = (0, −2). Toute sous-famille obtenue en
supprimant un de ces trois vecteurs forme une base de P .

Proposition 1.5.2. :
Soit E un espace vectoriel de type ni.

♢Tout famille génératrice A de E a au moins dimE éléments, |A| ⩾ dimE .

♢ Tout famille libre A de E a au plus dimE éléments, |A| ⩽ dimE

♢ Tout sous-espace vectoriel F ⊂ E vérie dimF ⩽ dimE , avec égalité dimE = dimF
si et seulement si E = F .

12
1.6. le cas ∖n 1. structure algébrique-espace vectoriel

Soit E un espace vectoriel de dimension n et soit B = {b1 , ..., bn } une base de E .


Cette dernière donnée permet de dénir une application coordonnées en base B .

coordB : V → Rn
u = λ1 u1 + ... + λn un 7→ (λ1 , ..., λn )

C'est une application bijective, on peut donc identier E à Rn .


On a en plus

coordB (u + v) = coordB (u) + coordB (v)


coordB (λ.u) = λ.coordB (u)

L'application coordonnées respectent donc les deux structures d'espace vectoriel.


E , il sut d'étudier celle de Rn . Au
Ainsi, pour étudier les propriétés de l'espace vectoriel
nal, comme tous les espaces vectoriels admettent une base, on pourra toujours se ramener
n
à l'étude de R .

1.6 Le cas Rn
A = {u1 = (u1,1 , u2,1 , u3,1 , ..., un,1 ), u2 = (u2,1 , u2,2 , ..., u2,n ), ...., un = (un,1 , un,2 , ...., un,n )}
Soit
n
une famille de vecteurs de R . On les écrit d'abord sous forme de colonnes, ce qui ne change
rien au fond du problème,

     
u1,1 u2,1 un,1
 u1,2   u2,2   un,2 
u1 =  ..  , u2 =  ..  , ...., un =  ..  .
     
 .   .   . 
u1,n u2,n un,n
Puis, on les range dans un tableau que nous appelons matrice qui sera vu dans la
suite :  
u1,1 u1,2 . . . u1,n
 u2,1 u2,2 . . . u2,n 
MA =  ..
 
. .. . 
 . . . .
. . 
un,1 un,2 . . . un,n
exemple :

A = {(1, 2, −1, 3), (2, 4, 1, −2), (3, 6, 3, −7)}


 
1 2 3
2 4 6
MA =  −1 1

3
3 −2 −7

13
1.6. le cas ∖n 1. structure algébrique-espace vectoriel

On s'autorise maintenant les opérations élémentaires suivantes sur les colonnes :

♢Intervertir deux colonnes Ci ↔ Cj


♢ Multiplier une colonne par un scalaire non nul : Ci → λCi .
♢ Ajouter à une colonne λ fois une autre : Ci → Ci + λCj .
La denition suivante donne la notion de matrice équivalente par colonne

Dénition 1.6.1. (Matrice équivalentes par colonne) :

On dit que deux matrices sont équivalentes par colonne si on peut passer de l'une à
l'autre grâce aux opérations élémentaires sur les colonnes. Deux matrices équivalentes par
colonne sont notées M ∼N

En eectuant les opérations sur les colonnes de MA , on reste dèlement dans le sous-
espace vectoriel engendré par la famille A, comme le montre la proposition suivante.

Proposition 1.6.1. Soit N ∼ MA une matrice équivalente par colonne à MA . Les vec-
teurs colonnes de N forment une famille B de vecteurs, i.e. N = MB , qui appartiennent
au sous-espace vectoriel engendré par A :B ⊂ Vect(A).

De plus, la famille B et la famille A engendrent le même sous-espace vectoriel

Vect(B) = Vect(A)

exemple Soit la matrice dont les colonnes sont les vecteurs de la famille A de
l'exemple précédent. On a en faisant les transformations sur les colonnes

     
1 2 3 1 0 0 1 0 0
2 4 6  2 0 0  2 0 0
MA =  ∼ ∼ =N
−1 1 3  −1 3 6  −1 3 0
3 −2 −7 3 −8 −16 3 8 0
Pour passer de la première à la deuxième matrice les opérations suivantes ont été
eectuées

C2 ← C2 − 2C1
C3 ← C3 − 3C1

De la deuxième à la troisième on a eecuté

C3 ← C3 − 2C2

Donc les vecteurs B = {(1, 2, −1, 3), (0, 0, 3, −8)} font partie de Vect(A) et ils l'engendrent.

Grâce à aux opérations élémentaires sur les colonnes, on peut mettre la matrice MA
sous forme échelonnée, c'est-à-dire sous forme suivante :

14
1.6. le cas ∖n 1. structure algébrique-espace vectoriel

 
0 0 ... 0 0 ... 0
 .. .. .
.
.
.
.
.
. . . . .
 
1 0 
 . 
 .
⋆ .

 
.
 .. 1 . . . ...


MA = 
 
.. . .
 ⋆ . 0 . . .
.
 .. . . .
 
1 0 . . . 0

 .
. .
 

 ⋆ .. .
.
. . . . .
 .. .. .
.
.
.
.
.
⋆ ⋆ ... ⋆ 0 ... 0
Les premières colonnes sont formées de haut en bas d'abord de 0 puis d'un 1. De
gauche à droite, les 1 apparaissent strictement de plus en plus bas. Obtenu en utilisant la
méthode du pivot de Gauss.

Proposition 1.6.2. :
Les vecteurs colonnes non nuls de la matrice échelonnée obtenue à partir de MA
forment une base du sous-espace vectoriel Vect(A) engendré par A. Donc, le nombre de
colonnes non nulles de la matrice échelonnée est égal à la dimension de Vect(A).

exemple :

Dans l'exemple précédent la famille A = {(1, 2, −1, 3), (2, 4, 1, −2), (3, 6, 3, −7)},le
calcul précédent montre que la famille B = {(1, 2, −1, 3), (0, 0, 3, −8)} forme une base de
Vect(A). On déduit aussi de cette proposition que dimVect(A) = 2.

Tout ceci démontre que la famille initiale A n'est pas libre. En eet, par la proposi-
tion 1.5.2, on sait que si la famille A était libre, elle engendrerait un sous-espace vectoriel
4
de dimension 3. La famille A n'est pas non plus une famille génératrice de tout l'espace R
car elle n'a que 3 éléments. En eet, on savait, toujours grâce à la proposition 1.5.2 qu'une
4
famille génératrice de l'espace R de dimension 4 doit avoir au moins 4 éléments.

exercices :

Exercice 1

On considère les vecteurs suivants de R6 :

v1 = (1, 2, −3, 4, 0, 1), v2 = (1, 3, −4, 6, 5, 4), v3 = (3, 8, −11, 16, 10, 9)

1. Ces vecteurs sont-ils libres ?

2. Quelle est la dimension de Vect({v1 , v2 , v3 }), le sous-espace vectoriel de R6 en-


gendré par v1 , v 2 et v3

15
1.7. somme directe 1. structure algébrique-espace vectoriel

3. Donner trois bases diérentes de Vect({v1 , v2 , v3 })

4. Donner une combinaison linéaire non triviale vériée par v1 , v2 , v 3 .


Exercice 2

On considère la famille suivante de vecteurs de R4 .

A = {(1, 2, 3, 1); (2, 1, 3, 1); (1, 1, 2, 3); (1, 1, 3, 2); (3, 2, 5, 4)}

1. Cette famille est-elle libre ?

2. Quelle est la dimension de Vect(A), le sous-espace vectoriel de R4 engendré par


A?
3. Donner deux bases diérentes de Vect(A).

4. Donner une combinaison linéaire non triviale d'éléments de A


Exercice 3

On appelle U le sous-espace vectoriel de R4 engendré par les vecteurs suivants :

u1 = (1, 2, −1, 3); u2 = (2, 4, 1, −2) et u3 = (3, 6, 3, −7).

On appelle W le sous-espace vectoriel de R4 engendré par les vecteurs suivants :

w1 = (1, 2, −4, 11) et w2 = (2, 4, −5, 14).

1. Quelle est la dimension de W?


2. Montrer que U =W .

3. En donner deux bases diérentes.

Exercice 4

Soit le sous-espace vectoriel suivant

Vect({1 + X + X 2 , −1 + X 2 , 2 + X})

de l'espace vectoriel R2 [X] des polynômes de degré inférieur ou égal à 2.

1. Donner sa dimension.

2. Donner une base.

1.7 Somme directe


Dénissons la notion de somme de deux sous-espaces vectoriels.

Dénition 1.7.1. Soient E et F deux sous-espaces vectoriels de l'espace vectoriel W. La


somme de E et V est dénie comme l'ensemble E + F = {u + v : u ∈ E, v ∈ F }

16
1.7. somme directe 1. structure algébrique-espace vectoriel

C'est un sous-espace vectoriel et le plus petit contenant E ∪ F.

On peut donc se poser la question de la dimension d'une somme de deux sous-espaces


vectoriels.

Proposition 1.7.1. Soient E et F deux sous-espaces vectoriels d'un espace vectoriel W .


La dimension de leur somme vaut

dim(E + F ) = dimE + dimF − dim(E ∩ F )

exemple :
3
On considère deux plans suivants disjoints non parllèles E et F de l'espaceR , dont la
3
somme engendre tout l'espace E + F = R .

Leur intersection E∩F est une droite, elle est donc de dimension 1. La formule de
la proposition est ici bien vériée car les dimensions respectives donnent :

2+2−1=3

Comme pour les combinaisons linéaires et les familles libres, on peut se demander
sous quelle condition l'écriture u+v des éléments de E +F est unique. La démarche et la
conclusion sont les mêmes : il sut de demander que le vecteur nul 0 s'écrive de manière
unique. Or cette condition est équivalente à E ∩ F = {0}.

Dénition 1.7.2. (Somme directe) :

Deux sous-espaces vectoriels E et F sont en somme directe si leur intersection est


réduite au vecteur nul
E ∩ F = {0}
Dans ce cas, la somme de E avec F se note

E⊕F

exemple : Dans l'espace vectoriel E de dimension 3, un plan P et une droite D non


incluse dans P sont toujours en somme directe.

Proposition 1.7.2. :
Deux sous-espaces vectoriels E et F sont en somme directe si et seulement si tout
vecteur de leur somme E + F s'écrit de manière unique u + v, avec u ∈ E et v ∈ F .

Exercice :(Somme directe)

Montrer que les deux sous-espaces vectoriels de R3

U = {(x, y, z) ∈ R3 : x + y + z = 0} et V = Vect({(2, 0, 0)})

sont en somme directe.

17
1.7. somme directe 1. structure algébrique-espace vectoriel

Poursuivons le parallèle avec les familles de vecteurs. L'équivalent ici de la notion de


famille génératrice est une somme qui vaut tout l'espace E + F = W . Dans ce cas, tout
vecteur de W peut s'écrire comme une somme d'un vecteur de E et d'un vecteur de F .
L'équivalent de la notion de base est alors une somme directe qui engendre tout l'espace
E ⊕ F = W.
Proposition 1.7.3. :
Soit deux sous-espaces vectoriels E et F d'un espace vectoriel W . Ils sont en somme
directe et leur somme engendre tout l'espace W :
W =E⊕F
si et seulement si tout vecteur w de W s'écrit de manière unique
w =u+v
avec u ∈ E et v ∈ F .

Dans ce cas, les dimensions vérient la relation


dimW = dimE + dimF
Dénition 1.7.3. (Supplémentaire) :

Dans le cas de deux sous-espaces vectoriels E F en


et somme directe et dont la
somme engendre tout l'espace vectoriel W, on dit que E est un supplé- mentaire de F
(respectivement que F est un supplémentaire de E ) dans W .
Lorsqu'un espace vectoriel se décompose en somme directe de deux sous-espacesE⊕
F = W , tout vecteur de w ∈ W s'écrit de manière unique w = u + v, avec u ∈ E et v ∈ F
. Ceci dénit deux applications

projEF : W → E
w = u + v 7→ u

projFE : W → F
w = u + v 7→ v
Dénition 1.7.4. (Projections) :

Les deux applications projFE projEF


et sont appelées respectivement la projection sur
E parallèlement à F et la projection sur F parallèlement à E
Exercice :Dans l'espace R3 , on considère la droite D d'équations

D = {(x, y, z) ∈ R3 : 3x + y − z = 0 et x + 2y + z = 0}
et le plan P d'équation

P = {(x, y, z) ∈ R3 : x + y − 2z = 0
1. Montrer qu'ils sont supplémentaires l'un de l'autre dans R3 .
2. Donner l'expression des projections projPD sur D parallèlement à P et
P
projD sur
P parallè- lement à D.

18
Chapitre 2

Applications linéaires

2.1 Dénition
Comme un espace vectoriel est la donnée d'un ensemble et de deux lois, on étudie les
applications ensemblistes entre deux espaces vectoriels qui respectent la somme des vecteurs
et la multiplication par les scalaires. Plus précisément, cela correspond à la dénition
suivante.

Dénition 2.1.1. (Application linéaire) :

Soient (E et F deux espaces vectoriels. Une application f :E→F est dite linéaire
si

f (u1 + u2 ) = f (u1 ) + f (u2 )


f (λu1 ) = λf (u1 )

pour tout u1 , u2 ∈ U et λ ∈ R. On les appelle aussi des morphismes, voire des homéomor-
phismes.

Proposition 2.1.1. :
Les deux conditions sont équivalentes au seul fait que l'application f préserve les com-
binaisons linéaires de deux vecteurs
f (λ1 u1 + λ2 u2 = λ1 f (u1 ) + λ2 f (u2 )

Ceci est encore équivalent au fait que f préserve n'importe quelle combinaison linéaire

f (λ1 .u1 + + λn .un ) = λ1 .f (u1 ) + + λn .f (un )

Il est facile de voir que toute application linéaire envoie le vecteur nul de E sur le vecteur
nul de F :
f (0E ) = 0F
exemple :

19
2.1. dénition 2. applications linéaires

♢ Les applications (
R→R
x 7→ ax
avec a∈R sont linéaires.

♢ Pour toute décomposition d'un espace vectoriel en somme directe de deux sous-
espaces vectoriels W = E ⊕ F , les deux projections projFE et projEF sur E parallèlement à
V et sur V parallèlement à E sont des applications linéaires.

♢Pour tout espace vectoriel F , l'application identité

(
idF : F → F
v 7→ v

est linéaire.

contre-exemple :

♢ l'application (
R→R
x 7→ x + 2
n'est pas linéaire, car l'image de 0 n'est pas 0

♢ l'application (
R→R
x 7→ x2
n'est pas linéaire. Certes l'image de 0 est 0 mais elle ne respecte ni la somme

(x + y)2 = x2 + 2xy + y 2 ̸= x2 + y 2

ni la multiplication
(λx)2 = λ2 x2 ̸= λx2
La proposition suivante va nous rendre l'étude des applications linéaires beaucoup
plus facile que celle des applications quelconques. Elle arme qu'une application linéaire
est complètement caractérisée pour l'image des vecteurs d'une base.

Proposition 2.1.2. :
Soit B = {u1 , ..., um } une base de E et soit F = {v1 , ..., vm } une famille de F , il
existe une unique application linéaire f : E → F qui envoie la famille B sur la famille F :

f (ui ) = vi , pour tout 1 ⩽ i ⩽ n

20
2.2. noyau et image 2. applications linéaires

On note l'ensemble des applications linéaires entre les deux espaces vectoriels E et F
par
Hom(E, F ) = {f : E → F : f est linéaire}

Soit W un troisième espace vectoriel. On peut composer toute paire d'applications


linéaires de {f, g} telle que f dénie E vers F et g dénie V vers W alors

g ◦ f : E → W.

D'où la proosition suivante

Proposition 2.1.3. :
La composée g ◦ f de deux applications linéaire f et g est encore une application
linéaire.

2.2 Noyau et image


Etude du comportement des applications linéaires sur les sous-espaces vectoriels.

Proposition 2.2.1. :
Soit f : E → F une application linéaire.

♢ Pour tout sous-espace vectoriel U ′ de E , son image par f

f (U ) = {f (u) ∈ F : u ∈ U }

est un sous-espace vectoriel de V

♢Pour tout sous-espace vectoriel V de F , son image réciproque par f

f −1 (V ) = {u ∈ E : f (u) ∈ V }

est un sous-espace vectoriel de E

On va s'intéresser plus particulièrement au deux cas extrêmes suivants U = E et


V = {0}.

Dénition 2.2.1. (Noyau et image) :

♢L'image d'une application linéaire f :E →F est le sous-espace vectoriel de F (le


but) déni par
Imf = f (E)
♢ Le noyau d'une application linéaire f :E→F est le sous-espace vectoriel de E la
source déni par
Kerf = {u ∈ E : f (u) = 0F }

21
2.2. noyau et image 2. applications linéaires

L'image de E par f est aussi dénie comme suit

Imf = {v ∈ v : ∃u ∈ E, f (u) = v} = {f (u) : u ∈ E}


Théorème 2.2.1. :
Soit f : E → F une application linéaire.
1. L'application f est surjective si et seulement si Imf = F . On dit alors que c'est
un épimorphisme .
2. L'application f est injective si et seulement si Kerf = {0E }. On dit alors que
c'est un monomorphisme.
3. L'application f est bijective si et seulement si Imf = F et Kerf = {0E }. On dit
alors que c'est un isomorphisme.
remarque : Lorsque l'on veut montrer qu'une application est injective, nous avons
vu qu'il fallait compter le nombre d'antécédents pour chaque élément du but. Dans le cas
où l'application est linéaire, il sut juste de vérier que le seul antécédent du vecteur nul
(du but) est le vecteur nul (de la source).

Proposition 2.2.2. :
Lorsqu'une application linéaire f : E → F est bijective, alors son application réci-
proque f −1 : E → F est linéaire.
exercices :

Exercice 1

Dans l'espace vectoriel R[X] des polynômes, on considère l'application dérivation


suivante
(
der : R[X] → R[X]
P = a0 + a1 X + ... + an X n 7→ P ′ = a1 + 2a2 X + ... + nan X n−1

1. L'application est-elle linéaire ?

2. Décrire son image Imder . Cette application est-elle un épimorphisme ?

3. Décrire son noyau Kerder .Cette application est-elle un monomorphisme ?

4. L'application der est-elle un isomorphisme ?

Exercice 2
Dans l'espace vectoriel R3 , on note E = {e1 , e2 , e3 } la base canonique

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)


On considère la famille F = {f1 , f2 , f3 } dénie par

f1 = (1, 0, −1), f2 = (0, 1, 2), f3 = (2, 1, 1)


Il existe une unique application linéaire f : R3 → R3 qui envoie

e1 7→ f1 , e2 7→ f2 , e3 7→ f3

22
2.3. rang 2. applications linéaires

1. Donner l'expression analytique de f.


2. Décrire l'image Imf de f et en donner une base.

3. L'application f est-elle un épimorphisme ?

4. Décrire le noyau Kerf de f


5. L'application f est-elle un monomorphisme ?

6. L'application f est-elle un isomorphisme ?

7. Si oui, décrire l'application réciproque

Proposition 2.2.3. :
Soit f : E → F une application linéaire
1. L'application f est un épimorphisme si et seulement si, pour toute toute famille
génératrice A = {a1 , ..., an } de E , son image f (A) = {f (a1 ), ..., f (an )} par f est
une famille génératrice de F
2. L'application f est un monomorphisme si et seulement si, pour toute toute famille
libre A = {a1 , ..., an } de E , son image f (A) = {f (a1 ), ..., f (an )} par f est une
famille libre de V
3. L'application f est un isomorphisme si et seulement si, pour toute toute base
A = {a1 , ..., an } de E , son image f (A) = {f (a1 ), ..., f (an )} par f est une base
de F .

2.3 Rang
Dénition 2.3.1. :

Le rang d'une application linéaire f est la dimension de son image.

rg(f ) = dimImf

exemple :
Considérons le cas des applications linéaires f : Rm → Rn . Nous avons vu précédemment
n
que l'image de f était le sous-espace vectoriel de R engendré par les vecteurs colonnes de
la matrice A, Imf = Vect(c1 , ..., cm ). Le rang de l'application f est donc la dimension de
ce sous-espace. Il est égal au nombre de colonnes non nulles dans la matrice échelonnée ;
c'est donc le rang de la matrice A.
Proposition 2.3.1. :
Pour toute application linéaire f : E → F , on a rgf ⩽ dimF avec égalité si et
seulement si f est un épimorphisme.
Le théorème fondamental suivant relie le rang d'une application linéaire à la dimension
de sa source.

Théorème 2.3.1. (Théorème du rang) :


Toute application linéairef : E → F depuis un espace vectoriel E de dimension nie
vérie
dimE = dimKerf + rgf

23
2.4. les matrices 2. applications linéaires

exercice(Sous-espace vectoriel)

On considère le sous-ensemble de R4 déni par

F = {(x, y, z, t) ∈ R4 : 2x − y = 0, x − y + t + z = 0}

1. Montrer que F est un sous-espace vectoriel de R4 en l'écrivant comme le noyau


d'une application linéaire bien choisie.

2. Calculer la dimension du sous-espace vectoriel F .

Proposition 2.3.2. :
Soit f : E → F une application linéaire entre deux espaces vectoriels de dimensions
nies.
1. Si l'application f est un épimorphisme E → F , alors dimE ⩾ dimF .
2. Si l'application f est un monomorphisme E → F , alors dimE ⩽ dimF
3. Si l'application f est un isomorphisme E → F , alors dimE = dimF

Dans le cas de deux espaces vectoriels de même dimension nie, le théorème suivant montre
que toutes les situations ne peuvent pas arriver.

Théorème 2.3.2. :
Soit f : E → F une application linéaire entre deux espaces vectoriels de même
dimension nie. On a les équivalences suivantes.

f épimorphisme ⇐⇒ f monomorphisme ⇐⇒ f isomorphisme

En pratique, si vous connaissez les dimensions de la source et du but et qu'elles sont


égales, vous pouvez conclure l'injectivité (ou non) à partir de la surjectivité (ou non). Mais
attention ! Vous vous souviendrez bien que cela ne fonctionne pas si les dimensions sont
diérentes.

Considérons maintenant le cas E = F.

Dénition 2.3.2. (Endomorphisme et automorphisme) :

Une application linéaire f :E →F entre le même espace vectoriel est appelée un


endomorphisme. S'il est inversible, on parle d'automorphisme.

2.4 Les Matrices


2.4.1 Dénitions
 2.4.1.1. Dénition : Soient m et n deux entiers naturels non nuls. Une famille
aij1⩽i⩽m,1⩽j⩽n
, où pour tous entiers i etj , aij est un scalaire dans R est appelée une

matrice de type (m; n) à coecients dans R.

24
2.4. les matrices 2. applications linéaires

S'il n'y a pas de confusion, une telle matrice sera notée (aij ) et représentée par un tableau
de scalaires à n colonnes et m lignes :

 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  ..
 
. .
. .

 . . . 
am1 an2 . . . amn

Mm,n (R) l'ensemble des matrices carrées de type (m, n) à coecients dans R. Si
On note
A ∈ Mm,n (R), on note aij le coecient de A situé à la i-ème ligne et àla j -ème colonne.

Une matrice de type (n, n) est dite carrée. On note Mn (R) l'ensemble des matrices
carrées de type (n, n). Une matrice de type (m; 1) est dite colonne et une matrice de type
(1; n) est dite ligne.

La diagonale d'une matrice carrée A = (aij)1⩽i,j⩽n de type (n ;n) est formée des
coecients aii , pour i = 1, 2, ..., n ; on note

diagA = (a11 , a22 , a33 , ..., ann ).

Une matrice est dite diagonale , si tous ses coecients non diagonaux sont nuls,
i.e.,aij =0 pour tout i ̸= j . On notera

 
a11 0 ... 0
.. .
. .
 0 a22 .
 
Diag(a1 , a2 , ...a n) =  .

.. ..

 .. . . 0 
0 . . . . . . ann

La matrice identité de Mn (R) est la matrice diagonale In , où tous les éléments de la


diagonale sont égaux à 1, c'est à dire aii = 1 pour 1⩽i⩽n

In = Diag(1, 1, 1, ..., 1)

2.4.1.2. Matrices triangulaires. Une matrice carrée est dite triangulaire supérieure
(resp. triangulaire inférieure), si tous ses coecients en dessous (resp. au dessus) de la
diagonale sont nuls, i.e., aij = 0, pour tout i>j (resp. i < j ). Une matrice triangulaire
supérieure (resp. inférieure) sera notée

   
⋆ ⋆ ... ⋆ ⋆ 0 ... 0
.. .. . . .. .
!
.
 0 . . .  ⋆ .. . .
.
   
resp.
 
 . .. ..  ⋆ ... ..
  
 .. . . ⋆  . 0 
0 ... 0 ⋆ ⋆ ... ⋆ ⋆

2.4.1.3. Espace vectoriel des matrices. Soient m et n deux entiers naturels non
nuls. On dénit sur l'ensemble Mm,n (R) les opérations

25
2.4. les matrices 2. applications linéaires

1. d'addition, pour toutes matrices A = (aij ), B = (bij ) de Mm, n(R),

A + B = (aij + bij )

2. la multiplication par un scalaire, pour toute matrice A = (aij ) de Mm,n (R) et


tout scalaire α ∈ R,
αA = (αaij )
Proposition 2.4.1. :
Muni de l'addition et de la multiplication par un scalaire l'ensemble Mm,n (R) des
matrices de type (m, n) forme un R-espace vectoriel de dimension mn.
2.4.1.4. Transposition La matrice transposée d'une matrice A de Mm,n (R) est la
matrice de Mn,m (R), notée A⊤ dénie par

(aij )⊤ = (aji ),

A⊤ )⊤

pour tous i = 1, 2, ..., m j = 1, 2, 3, ..., n. Pour toute matrice A,
et on a

On vérie que pour toutes matrices A, B et scalaire λ, on a


 ⊤
1. A+B = A⊤ + B ⊤
 ⊤
2. λA
2.4.1.5. Matrices symétriques et antisymétriques. Une matrice carrée S est
dite symétrique si S ⊤ = S . Une matrice carrée A est dite antisymétrique si A⊤ = −A.
On note Sn (R) (resp. An (R)) le sous-ensemble de Mn (R) formé des matrices symétriques
(resp. antisymétriques).
Ce sont des sous-espaces vectoriels de Mm,n (R).

2.4.2 Produit de matrices


2.4.2.1.Produit de matrices. On dénit le produit (ou multiplication) d'une ma-
trice A de type (m, n) par une matrice B de type n, p), comme la matrice

n
X

AB = (cij ), aveccij = aik bkj .
k=1

Le produit AB ∈ Mm,p (R).

Le produit de matrices vérie les propriétés suivantes :

1. (associativité) pour toute matrices compatibles, A ∈ Mm,n (R), B ∈ Mn,p (R) et


C ∈ Mp,q (R).
A(BC) = (AB)C, et A(BC) ∈ Mm,q (R)
2. (matrices unitées) pour toute matrice A de Mm,n (R),

Im .A = A = A.In .

26
2.4. les matrices 2. applications linéaires

3. (distributivité), pour toutes matrices compatibles A ∈ Mm,n (R), B, CMn,p (R) et DMp,q (R),
on a

A(B + C) = AB + AC, (B + C)D = BD + BC


2.4.2.2 : Matrices nilpotentes Une matrice A de Mn (R) non nulle est dite nilpo-
tente, s'il existe un entier naturel q tel que Aq = 0. Le plus petit entier non nul r tel que
Ar = 0 est appelé l'indice de nilpotence de A.
2.4.2.3. Matrices inversibles. Une matrice carrée A de Mn (R) est dite inversible,
s'il existe une matrice B de Mn (R) telle que

AB = In et BA = In

La matrice B est alors appelée la matrice inverse de A, on note alors B = A−1 . On dé-
duit immédiatement de cette dénition que l'inverse d'une matrice est unique. L'opération
d'inversion vérie les propriétés suivantes :

1. si A est inversible, (A−1 )−1 = A


2. si A et B sont inversibles, alors AB est inversible et

(AB)−1 = B −1 A−1

3. si A est inversible, alors sa transposée est inversible et

(A⊤ )−1 = (A−1 )⊤

On désigne par GLn (R) l'ensemble des matrices inversibles de Mn (R) :

GLn (R) = {A ∈ Mn (R) : Aest inversible

2.4.2.2. Calcul de l'inverse.Déterminer si une matrice est inversible et le calcul


des inverses sont des problèmes importants d'algèbre linéaire. Par exemple, considérons la
matrice suivante de M3 (R)  
1 1 3
A= 2 0 1 
1 1 2
La matrice A
est-elle inversible ? D'après la dénition de l'inverse d'une matrice,
−1
existe-t-il une matrice B telle que AB = I3 ? La recherche de B = A , nous amène à la
résolution de l'équation matricielle
  

b1 x
AX = B, où B =  b2  , X= y 
b3 z
qui peut s'écrire sous la forme du système d'équations suivant


x + y + 3z = b1

2x + z = b2

x + y + 2z = b3

27
2.4. les matrices 2. applications linéaires

Pour résoudre ce systèmes, i.e., exprimer les coecients du vecteur x en terme de


ceux du vecteur b on procède en appliquant des opérations sur les lignes. Retranchons 3
fois la seconde équation à la première et 2 fois à la dernière, le système devient


−5x1 + x2 = b1 − 3b2

2x1 + x3 = b2

−3x1 + x2 = −2b2 + b3

Retranchons la dernière équation à la première, on obtient :


−2x1 = b1 − b2 − b3

2x1 + x3 = b2

−3x1 + x2 = −2b2 + b3

On additionne la première équation à la seconde et on retranche 3/2 de la première à la


troisième, il reste :


 −2x1 = b1 − b2 − b3

x 3 = b1 − b3
x2 = − 3 b1 − 1 b2 + 5 b3


2 2 2
On obtient ainsi le système

1 1 1

x = − b1 + b2 + b3
 1

 2 2 2
3 1 5
x2 = − b1 − b2 + b3


 2 2 2
x = b − b
3 1 3

L'équation Ax = b admet une unique solution x donnée par le système précédent, ce


qui s'écrit matriciellement sous la forme

x = A−1 B

avec
− 12 21 1
 
2
A−1 =  − 32 − 21 25 
1 0 −1
Calculer l'inverse de la matrice suivant en utilisant la méthode précédente

 
1 0 −1
A =  1 −1 0 
1 −1 1

L'inverse de la matrice est trouvé en utilisant la méthode de Gauss. On tranforme


l'expression suivante  
A I

28
2.5. matrice associée à une application linéaire 2. applications linéaires

que l'on tranforme en utilisant les opérations sur les lignes pour obtenir
 
I|A−1

. En utilisant cette méthode, calculer l'inverse de


 
0 1 0
A =  0 0 1 .
−2 1 2

2.5 Matrice associée à une application linéaire


2.5.1 Dénition
Le calcul matriciel simple nous permet d'étudier toutes les propriétés de ces applica-
tions linéaires (rang, noyau, surjectivité, injectivité, etc.). Pour toute application linéaire
f :U →V , il serait donc très intéressant de pouvoir se ramener à ce cas.

Pour cela, il sut de choisir une base A = {u1 , ..., um } de E et une base B =
m n
{v1 , ..., vn } de V . On peut alors identier l'espace U à R et l'espace V à RN grâce aux
isomorphismes "coordonnées" et "combinaison linéaire" .

Dénition 2.5.1. (Matrice associée à une application linéaire) :

La matrice de l'application linéaire f :U →V dans les bases A et B est la matrice


dont les colonnes sont composées des coordonnées dans la base B des images des vecteurs
de la base A,  
M atB,A = [f (u1 )]B , ...., [f (um )]B .
Si on note ces coordonnées par

f (u1 ) = a1,1 v1 + ... + an,1 vn , ..., f (um ) = am,1 v1 + ... + an,m vn

alors la matrice représentant l'application linéaire f dans les bases A et B est

 
a1,1 . . . a1,m
M atB,A (f ) =  ... .. . 
. 

. .
an,1 . . . an,m

Pour ne pas faire d'erreur et bien vous souvenir de la dénition, n'hé- sitez pas à
écrire en bas des colonnes les vecteurs représentés et à droite de la matrice la base B de V.
Cela donne

 f (u1 ) f (u2 ) . . . f (um ) 


v1 a1,1 a1,2 . . . a1,m
v2  a
 2,1 a2,2 . . . a2,m 
M atB,A (f ) = ....  ..

.. .
.

..  . . . 
vn an,1 an,2 . . . an,m

29
2.5. matrice associée à une application linéaire 2. applications linéaires

exemples :

♢ La matrice de l'application identité id : U → U dans n'importe quelle base A est


la matrice identité  
1 0 ... 0
0 1 . . . 0
M atA,A =  .. . = I
 
. ..
. . . .
. .
0 0 ... 1
♢Dans R3 , on considère la projection projPD : R3 → P sur le plan horizontal P parallèle-
ment à la droite verticale D. Les images des vecteurs de la base canonique B = {e1 , e2 , e3 }
sont
projPD (e1 ) = e1 ; projPD (e2 ) = e2 et projPD (e3 ) = 0
Donc la matrice de cette projection dans la base canonique B de R3 et la base canonique
{e1 , e2 } de P est :
f (e1 ) f (e2 ) f (e3 )
 
e1 1 0 0
M (f ) =
e2 0 1 0
Où f = projPD .

♢Soit p l'application linéaire de R3 dans R3 qui envoie un vecteur u, sur sa projection


orthogonale p(u) sur le plan (Oxy)

p : R3 → R3
   
x x
y  7→ y 
z 0

On considère la base de R3 donnée par

     )
( 1 1 1
B= u1 = 1 , u2 = 1 , u3 = 2
    
1 0 3

On a
     
1 1 1
p(u1 ) = 1 = u2 , p(u2 ) = 1 = u2 , p(u3 ) = 2 = −3u1 + 3u2 + u3
0 0 0

Ainsi, la matrice de l'application p, exprimée dans la base B de R3 , est



0 0 −3
M atB (p) = 1 1 3 
0 0 1

30
2.5. matrice associée à une application linéaire 2. applications linéaires

Proposition 2.5.1. :
Soient E et V deux espaces vectoriels de dimensions respectives n et m. L'application
Φ : L(U, V ) → Mm,n (R) dénie par

Φ(f ) = M atB,A (f )

est un isomorphisme de R-espaces vectoriels. En particulier, les espaces vectoriels L(U, V )


et Mm,n ont la même dimension égale à mn.

Soient f : U → U ′ et g : U ′ → U ′′ deux applications linéaires et A, B, C des bases des


′ ′′
R-espaces vectoriels U, U et U respectivement. Alors

M atC,A = M atC,B .M atB,A

Soit u un vecteur de E de système de coordonnées (u1 , u2 , ..., un ) dans la base A, on note


[u]A le vecteur correspondant

u1
 u2 
[u]A =  .. 
 
.
un
On a alors
f (u)]B = M atB,A [u]A

2.5.2 Matrice de passage


Soient E un R-espace vectoriel de dimension n. Considérons B = (u1 , u2 , ..., un ) et B ′ =
(v1 , v2 , ..., vn ) deux bases de E . Tout vecteur vj pour j = 1, 2, ..., n, se décompose de façon
unique dans la bases B :

vj = p1,j u1 + p2,j u2 + ... + pn,j un , pi,j ∈ R

La matrice de passage de la base B à la base B′ , est la matrice, notée P = M atB′ ,B (idU ),


dont les colonnes sont les composantes des vecteurs vj exprimés dans la base B :

 v1 v2 ... vn 
u1 p1,1 p1,2 ... p1,n
u2 
 p2,1 p2,2 ... p2,n 
P = ..  .. .  = M atB′ ,B (idU )

. ..
. . .
.  . . . 
un pn,1 pn,2 . . . pn,n

Elle est inversible et son inverse P −1 = M atB,B′

Soit u un vecteur de E de coordonnées u1 , ..., un dans la base B et de coordonnées


u′1 , ..., u′n dans la base B. En notant

[u]B , [u]B′ ,

31
2.5. matrice associée à une application linéaire 2. applications linéaires

on a :
[u]B = P [u]B′
ou de façon équivalente
[u]B′ = P −1 [u]B

Proposition 2.5.2. :
Soient E et E ′ deux R-espaces vectoriels de dimension nie et f : E → E ′ une appli-
cation linéaire. Soient B, B′ deux bases de E , C , C ′ deux bases de E ′ et P = M atB′ ,B (idE )
et Q = M atC ′ ,C (Id′E ) les matrices de changements de bases associées. Alors

M atC ′ ,B′ (f ) = Q−1 .M atC,B P

Corollaire 2.5.1. :
Dans le cas d' un endomorphisme f : E → E , si on note P = M atB′ ,B (id)la matrice
de passage de la B à la base B′ et A = M atB (f ) la matrice de f dans la base B, alors la
matrice de f dans la base B′ est

M atB′ (f ) = P −1 AP

exemple :
On considère l'application linéaire

f: R3 → R3
(x, y, z) 7→ (x − z, y − z, 0).

Sa matrice dans la base canonique Bcan = {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} est

 
1 0 −1
A = 0 1 −1
0 0 0

Soit la base B = {u1 = (1, 0, 0), u2 = (0, 1, 0), u3 = (1, 1, 1)}


La matrice de passage P = M atB,Bcan (id) de la base B dans la base Bcan est donc

 
1 0 1
P = 0 1 0 .
0 1 1
Son inverse est  
1 0 −1
P −1 = 0 1 −1
0 0 1
Au nal la matrice représentant l'endomorphisme f dans la base B est donnée par le produit
     
1 0 −1 1 0 −1 1 0 1
M atB = P −1 AP = P −1 = 0 1 −1 . 0 1 −1 . 0 1 0
0 0 1 0 0 0 0 1 1

32
2.5. matrice associée à une application linéaire 2. applications linéaires

D'où  
1 0 0
M atB (f ) = 0 1 0
0 0 0
On constate que cette nouvelle base permet d'exprimer plus simplement l'endomor-
phisme f.

Dénition 2.5.2. (Matrices semblables) :

Deux matrices A et B de Mn (R) sont dites semblables, s'il existe une matrice inver-
sible P de Mn (R) telle que
B = P −1 AP

Deux matrices semblables représentent le même endomorphisme dans des bases dif-
férentes.

2.5.3 Trace d'une matrice


Dénition 2.5.3. :

La trace d'une matrice carrée A = (aij) de Mn (R) est la somme des coecients de
sa diagonale
n
X
tr(A) = aii
i=1

Proposition 2.5.3. :
L'application tr : Mn (R) → R est une forme linéaire vériant, pour toutes matrices
A et B de Mn (R),
tr(AB) = tr(BA)
Dénition 2.5.4. (Trace d'un endomorphisme) : La trace d'un endomorphisme f : E → E
est dénie par la trace de la matrice associée dans une base B de E,

tr(f ) = tr(M atB (f )

Proposition 2.5.4. :
La trace d'un endomorphisme ne dépend pas de la base avec laquelle on la calcule
Proposition 2.5.5. :
Deux matrices semblables ont la même trace,

tr(B) = tr(P −1 AP ).

Où A et B de Mn (R) et P ∈ GLn (R), la matrice de passage de la base de Adans la base


de B

33
2.5. matrice associée à une application linéaire 2. applications linéaires

2.5.4 Noyau et image d'une matrice


Image d'une matrice
n
Si f : R → Rm est une application linéaire, l'image de f est le sous-espace vectoriel
m
de R déni par
Im(f ) = {f (X) : u ∈ Rn }.
De la même façon, si est une matrice de Mm,n (R), on dénit l'image de
A A comme le
m n
sous-espace vectoriel de R engendré par les vecteurs AX, où X ∈ R . Soit

Im(A) = {AX : X ∈ Rn }

Proposition 2.5.6. :
L'image d'une matrice A de Mm,n (R) est le sous-espace vectoriel de Rm engendré
par les vecteurs colonnes de A

Noyau d'une matrice


n
Si f : R → Rm est une application linéaire, le noyau de f est le sous-espace vectoriel
m
de R déni par
Ker(f ) = {X ∈ RN n : f (X) = 0Rm }
De la même façon, si A est une matrice de Mm,n (R), on dénit le noyau de A comme le
n
sous-espace vectoriel de R

Ker(A) = {X ∈ Rn : AX = 0}

Le noyau KerA est formé des solutions de l'équation

AX = 0.

Le rang d'une matrice


Soient E R-espace vectoriel. On appelle rang d'une famille de vecteurs (ui )i de E ,
un
la dimension du sous-R-espace vectoriel de E engendré par (ui )i . En d'autres termes, le
rang de la famille (ui )i est le nombre maximal de vecteurs linéairement indépendants que
l'on peut extraire de (ui )i .

Le rang d'une matrice A de Mm,n (R) est le rang de la famille de ses vecteurs colonnes
dans Rm . On le note rangA. Autrement dit,

rangA = dim(ImA).

Proposition 2.5.7. :
Soit A une matrice de Mm,n (R). Le rang de A vérie les propriétés suivantes :
1. rangA ⩽ inf {m, n}

34
2.5. matrice associée à une application linéaire 2. applications linéaires

2. rangA = rang(A⊤ ) (en particulier le rang de A est aussi le rang des vecteurs
lignes),
3. KerA = {0} si, et seulement si, rangA = n
4. Ker(A⊤ ) = {0} si, et seulement si, rangA = m,
5. si m = n, alors A est inversible si, et seulement si, rangA = n.

Soit A ∈ Mp,q (R) et Q ∈ Mp (R), P ∈ Mp (R) deux matrices inversibles, on a

rangA = rang(QAP )

En particulier, deux matrices sempblables ont le même rang.

35
Chapitre 3

Déterminant d'une matrice carrée

3.1 Dénitions
Dénition 3.1.1. :

Soit A = (aij ) ∈ Mn (R). on dénit le déterminant de A comme la forme linéaire


notée

det : Mn (R) → R
A 7→ detA

Comme  
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A = (aij ) =  .. ,
 
. .
 . . .
. . 
an1 an2 . . . ann
le déterminant de A detA est déni par

a11 a12 . . . a1n

a21 a22 . . . a2n
detA = . .

. .
.. .
.
.
.

an1 an2 . . . ann

On le note aussi detA = |A|.

Dénition 3.1.2. :

A = (aij ) ∈ Mn (R). On appelle mineur d'ordre n − 1 le déterminant obtenu en


Soit
supprimant la i-ème ligne et la j -ème colonne.
i+j
On appelle cofacteur d'indices i et j et on le note Ai,j le produit par (−1) du mineur
d'ordre n − 1 obtenu en supprimant la i-ième ligne et la j -ième colonne de A.
On appelle comatrice de A la matrice des cofacteursde A. On la note

Com(A) = Ã = (Ai,j )

36
3.1. dénitions 3. déterminant d'une matrice carrée

Le mineur d'ordre n−1 obtenu en supprimant la i-ème ligne et la j -ème colonne de


A
a11 . . . a1j . . . a1n
. . .

. . .
. . .


ai1 . . . aij . . . ain ,

. . .

.. .
.
.
.


a
n1 . . . anj . . . ann
ainsi le cofacteur d'indices i et j , Aij est


a11 . . . a1j . . . a1n
. . .

. . .
. . .


i+j
Aij = (−1) ai1 . . . aij . . . ain


. . .

.. .
.
.
.


a . . . a . . . a
n1 nj nn

L'utilisation des cofacteurs permet de calculer le déterminant par le développement suivant


une ligne ou une colonne.

Proposition 3.1.1. Soit A = (ai,j ) ∈ Mn (R) une matrice carrée. Alors


n
X n
X
det(A) = |A| = ai,j Ai,j = ai,j Ai,j
i=1 j=1

Pour  
a12 a22
A=
a21 a22
le déterminant est
a a
det(A) = 11 12

= a11 a22 − a21 a12
a21 a22

Pour  
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
le déterminant est donné par

a11 a12 a13

det(A) = a21 a22 a23
a31 a32 a33

1+1
a22 a23 1+2
a12 a13 1+3
a12 a13
= (−1) a11 + (−1) a21 + (−1) a31
a32 a33 a32 a33 a22 a23
= (a11 a22 a33 + a21 a32 a13 + a31 a12 a23 ) − (a11 a32 a23 + a21 a12 a33 + a31 a22 + a31 a13 )

37
3.2. propriétés su déterminant 3. déterminant d'une matrice carrée

3.2 Propriétés su déterminant


Les propositions suivantes permettent de calculer le determinant d'une matrice de
manière ecace.

Proposition 3.2.1. :
1. Le déterminant d'une matrice dont une colonne (ou une ligne ) est multiple d'une
autre colonne (ou ligne ) est nul.
2. Le déterminant d'une matrice dont deux colonnes (ou deux lignes) sont égales est
nul.
3. Le déterminant d'une matrice change de signe, lorsque l'on échange deux colonnes

Autres propriétés.

Proposition 3.2.2. :
Soient A, B ∈ Mn (R).
1. det(AB) = det(A)det(B).
2. det(A⊤ ) = det(A)
3. det(An ) = (det(A))n

Le déterminant est utilisé pour étudier l'inversibilité d'une matrice . On en déduit la


caractérisation importante suivante des matrices inversibles

Proposition 3.2.3. Soit A ∈ Mn (R).


La matrice A est inversible ⇐⇒ det(A) ̸= 0.

On a alors
1
det(A−1 ) =
det(A)

Une autre méthode pour le calcul de l'inverse d'une matrice.

Théorème 3.2.1. :
Pour toute matrice A de Mn (R), on a :

A(Com(A))⊤ = (Com(A))⊤ A = det(A)In .

Si la matrice A est inversible, alors


1
A−1 = (Com(A))⊤
det(A)

38
3.3. déterminant d'un endomorphisme 3. déterminant d'une matrice carrée

3.3 Déterminant d'un endomorphisme


Deux matrices semblables, représentent le même endomorphisme exprimé dans des
bases diérentes.

Proposition 3.3.1. :
Deux matrices semblables ont le même déterminant.

La proposition précédente permet de dénir le déterminant d'un endomorphisme de


la façon suivante.

Proposition 3.3.2. :
Soit U un R-espace vecetoriel de dimension nie n et soit f un endomorphisme de
E . On appelle déterminant de f le déterminant de la matrice M atB (f ) qui représente f
dans une base quelconque B de E :

det(f ) = det(M atB (f )

On peut complèter la caractérisation des applications linéaires inversibles en dimen-


sion nie donnée.

Proposition 3.3.3. :
Soit f : E → E ′ une application linéaire entre deux R-espaces vectoriel de même
dimension nie. Les assertions suivantes sont équivalentes :
1. detf est non nul,
2. f est injective,
3. f est surjective,
4. f est bijective,
5. Ker(f ) = {0E }
6. Im(f ) = E ′
7. rang(f ) = dim(E ′ )

39

Vous aimerez peut-être aussi