Vous êtes sur la page 1sur 67

N CA

LA
Algèbr e lin éair e

B
SA
CA
M
SA
EN

1
Table des matières

CA
1 Espaces vectoriels 5

N
1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Exemples fondamentaux de sous-espaces vectoriels . . . . . . . . . . . . . . . . 7

LA
1.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Existence de bases (en dimension finie) . . . . . . . . . . . . . . . . . . . . . . 12

B
1.2.4 Les théorèmes fondamentaux sur la dimension . .
1.2.5 Bases en dimension infinie . . . . . . . . . . . . .
1.3 Somme, somme directe, sous-espaces supplémentaires . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
16
17
SA
2 Applications linéaires 24
2.1 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Image et noyau. Image d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . 27
CA

3 Matrices 33
3.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Matrices carrées particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.2 Matrices associées aux applications linéaires . . . . . . . . . . . . . . . . . . . 36
3.2 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
M

3.2.1 Matrice d’un vecteur. Calcul de l’image d’un vecteur . . . . . . . . . . . . . . 42


3.2.2 Produit matriciel. Matrice de l’inverse d’une application . . . . . . . . . . . . 43
3.2.3 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 45
SA

3.3 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46


3.3.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.2 Action du changement de base sur les composantes d’un vecteur . . . . . . . . 47
3.3.3 Action du changement de base sur la représentation matricielle . . . . . . . . . 47
EN

4 Déterminants 51
4.1 Définition des déterminants par récurrence . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.1 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.2 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1 Déterminant du produit de matrices . . . . . . . . . . . . . . . . . . . . . . . 58
4.3 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

2
TABLE DES MATIÈRES 3
4.3.1 Caractérisation des bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.2 Comment reconnaître si une famille de vecteurs est libre . . . . . . . . . . . . 60
4.4 Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.1 Systèmes compatibles, systèmes équivalents . . . . . . . . . . . . . . . . . . . 62
4.4.2 Méthode de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.3 Systèmes échelonnés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

CA
4.5 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5.1 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5.2 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

N
B LA
SA
CA
M
SA
EN

Pr. A. TSOULI 3 Cours d’Algèbre 2


N CA
LA
E
s p a ce
s vectori el
s

B
SA
CA
M
SA
EN

4
Chapitre 1

CA
Espaces vectoriels

N
1.1 Espaces vectoriels

LA
Définition 1.1 Soit K un corps commutatif. On appelle espace vectoriel sur K un ensemble E non
vide sur lequel on ah défini deux lois de composition : i
a) Une loi interne c’est-à-dire une application E × E −→ E dite addition, notée +E , et vérifiant :

B
1. (x +E y ) +E z = x +E (y +E z ), ∀x, y, z ∈ E.
2. x +E y = y +E x, ∀x, y ∈ E.
SA
3. II existe un élément de E noté 0E , ou plus simplement 0, dit élément neutre de l’ensemble
E, tel que ∀x ∈ E : x +E 0E = x.
4. ∀x ∈ E, il existe un élément de E noté (−x), dit opposé de x, tel que : x +E (−x) = 0E .
h i
b) Une loi externe de domaine K c’est-à-dire une application K × E −→ E on note λx (ou λ.x)
CA

l’image dans E du couple (λ, x) ∈ K × E], qui vérifie :


1. λ(µx) = (λµ)x, ∀λ, µ ∈ K, ∀x ∈ E.
2. (λ +K µ)x = λx +E µx, ∀λ, µ ∈ K, ∀x ∈ E.
3. λ(x +E y ) = λx +E λy, ∀λ ∈ K, ∀x, y ∈ E.
4. 1.x = x, ∀x ∈ E. (1 étant l’élément neutre de la multiplication dans K).
M

Les éléments de K sont dits scalaires et ceux de E vecteurs.


Remarque 1.1
SA

1. Tout au long de chapitre nous allons considérer le corps K = R ou C.


2. (E, +E ) est un groupe abélien (ou commutatif).
3. On pourra noter + au lieu de +E , s’il n’y a pas de risque de confusion.
Exemple 1.1
EN

1. E = Rn muni des deux lois suivantes :


( x1 , . . . , x n ) + ( y 1 , . . . , y n ) : = ( x1 + y 1 , . . . , xn + y n )
(1.1)
λ(x1 , . . . , xn ) := (λx1 , . . . , λxn ).
est un espace vectoriel sur R. Ici 0Rn = (0, . . . , 0), l’opposé (−x) de x = (x1 , . . . , xn ) est
(−x1 , . . . , −xn ).

5
6 CHAPITRE 1. ESPACES VECTORIELS
2. De même Cn est muni d’une structure d’espace vectoriel sur C.
3. E = Rn n’est un espace vectoriel sur C.
Proposition 1.1 Pour tout λ ∈ K et pour tout x ∈ E, on a
1. λ0E = 0E et 0x = 0E .
2. λx = 0E ⇒ λ = 0 ou x = 0E .

CA
3. (−λ)x = λ(−x) = −(λx).
Démonstration :
1. On a λ0E = λ(0E + 0E ) = λ0E + λ0E , d’où 0E = λ0E . De plus 0x = (0 + 0)x = 0x + 0x,
d’où 0x = 0E . r
3
2. Supposons λx = 0E et λ , 0. En multipliant par λ−1 , on obtient λ−1 (λx) = λ−1 0E = 0E i.e,

N
1x = 0E , donc x = 0E . r
3
3. On a (−λ)x = (λ × −1)x = λ(−1 × x) = λ(−x) = (−1 × λ)x = −(λx). r 3

LA
Exemple 1.2 On munit E = R2 des deux lois suivantes :
(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 )
λ(x1 , x2 ) = (λx1 , 0), (λ ∈ R)
E est-il un espace vectoriel sur R ?
B
Solution. E n’est pas un d’un R espace vectoriel. En effet, 1(2, 3) = (2, 3) , (2, 0). r
3
SA
Exercice 1.1 On note E = R∗+ , l’ensemble des nombres réels strictement positifs. Montrer que les
lois :
x ? y = xy et λ.x = xλ , (x, y ∈ R∗+ , λ ∈ R)
confèrent à E une structure d’espace vectoriel sur R.
CA

1.1.1 Sous-espaces vectoriels


Définition 1.2 Soit E un espace vectoriel et F une partie non vide de E. On dit que F est un
sous-espace vectoriel de E, si la restriction des lois de E à F fait de F un espace vectoriel.
Proposition 1.2 Soit E un espace vectoriel et F ⊂ E. Alors F est un sous-espace vectoriel de E si et
M

seulement si :
1. F , ∅.
2. ∀x, y ∈ F ⇒ x + y ∈ F .
SA

3. ∀x ∈ F , ∀λ ∈ K ⇒ λx ∈ F .
Remarque 1.2
1. L’élément neutre 0E de E coïncide avec l’élément neutre 0F de chaque sous-espace vectoriel F .
C’est pour cette raison que, dans la suite, on le notera simplement 0 (au lieu de 0E ou 0F ), s’il
EN

n’y a pas de risque de confusion.


2. Si F est un sous-espace vectoriel, alors F contient nécessairement le vecteur nul.
Proposition 1.3 F est un sous-espace vectoriel de E si et seulement si :
1. F , ∅.
2. ∀x, y ∈ F , ∀λ, µ ∈ K ⇒ λx + µy ∈ F .

Pr. A. TSOULI 6 Cours d’Algèbre 2


Exemples fondamentaux de sous-espaces vectoriels 7
1.1.2 Exemples fondamentaux de sous-espaces vectoriels
1. Droite vectorielle. Soit v ∈ E, v , 0, alors F = {y ∈ E| ∃λ ∈ K : y = λv} est un sous-espace
vectoriel de E dit droite vectorielle engendrée par v

N CA
LA
Figure 1.1

B
En effet F , ∅, car v ∈ F . De plus, F est stable pour les lois de E, car si x, y ∈ F (c’est-à-dire :
x = λv, y = µv ), on a :
SA
x + y = λv + µv = (λ + µ)v ∈ F .
De même, si x ∈ F (c’est-à-dire x = λv ), on a : µx = µ(λv ) = (µλ)v ∈ F .
2. Plan vectoriel. Soient x1 , x2 ∈ E et F = {y ∈ E| ∃λ1 , λ2 ∈ K : y = λ1 x1 + λ2 x2 } est un
sous-espace vectoriel de E, dit sous-espace engendré par x1 et x2 . Si x1 et x2 ne sont pas nuls et
CA

x2 n’appartient pas à la droite vectorielle engendrée par x1 , F est dit plan vectoriel engendré
par x1 et x2 .
M
SA
EN

Figure 1.2

Remarque 1.3 {0E } est un sous espace vectoriel d’un espace vectoriel E.

Exemple 1.3

Pr. A. TSOULI 7 Cours d’Algèbre 2


8 CHAPITRE 1. ESPACES VECTORIELS
1. L’ensemble F = {(x, y, z ) ∈ R3 | 2x + y + 3z = 0} est un sous-espace vectoriel de R3 . En effet, il
est clair que F ⊂ R3 . Soient (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ F et λ, γ ∈ R. On a λ(x1 , y1 , z1 ) + γ (x2 , y2 , z2 ) = (λx
De plus

2(λx1 + γx2 ) + λy1 + γy2 + 3(λz1 + γz2 ) = λ (2x1 + y1 + 3z1 ) +γ (2x2 + y2 + 3z2 ) = 0.
| {z } | {z }
=0 =0

CA
Donc λ(x1 , y1 , z1 ) + γ (x2 , y2 , z2 ) ∈ F . D’où F est un sous espace vectoriel de R3 .
2. L’ensemble G = {(x, y, z ) ∈ R3 | 2x − y − z = 1} n’est pas un sous-espace vectoriel de R3 . En
effet, (0, 0, 0) < G.
T
Proposition 1.4 Soient F et G deux sous-espaces vectoriels de E. Alors F G est un sous-espace

N
vectoriel de E.

LA
Démonstration. Comme F et G sont deux sous-espaces vectoriels de E. Alors F G ⊂ E. De plus
T

0 ∈ F G ⇒ F G , ∅. Par ailleurs, soient x, y ∈ F G et λ, µ ∈ K, alors λx + µy ∈ F G. Donc


T T T T

F G est un sous espace vectoriel de E. r


3
T

Remarque 1.4 Soient F et G deux sous espaces vectoriels de E. Alors


1. F
S

B
G n’est pas en général un sous-espace vectoriel de E.
2. E\F n’est pas un sous-espace vectoriel de E.
SA
Exercice 1.2 Soit R[a,b] = {f : [a, b] −→ R} muni de +. Lequel de ces sous-ensembles est-il un
sous-espace vectoriel ?
1. C 0 ([a, b], R) = {fonctions continues f : [a, b] −→ R}.
CA

2. L’ensemble des applications surjectives (resp. injectives) f : [a, b] −→ R.


3. L’ensemble des applications f : [a, b] −→ R telles que 2f (a) = f (b).
4. L’ensemble des applications f : [a, b] −→ R telles que f (a) = f (b) + 1.

1.2 Bases
M

1.2.1 Famille génératrice


SA

Définition 1.3 Une famille de vecteurs {v1 , . . . , vp } d’un espace vectoriel E est dite génératrice, si
E = Vect{v1 , . . . , vp }, ce qui veut dire que

∀x ∈ E ∃λ1 , . . . , λp ∈ K tels que x = λ1 v1 + . . . + λp vp .


EN

On dit aussi, parfois, que tout x ∈ E se décompose sur les vecteurs vi , ou encore que tout x ∈ E est
combinaison linéaire des vecteurs vi .

Exemple 1.4
1. Dans R2 la famille {e1 = (1, 0), e2 = (0, 1)} est une famille génératrice car tout x = (x1 , x2 ) ∈ R2 ,
s’écrit (x1 , x2 ) = x1 (1, 0) + x2 (0, 1) = x1 e1 + x2 e2 .

Pr. A. TSOULI 8 Cours d’Algèbre 2


Famille libre 9
2. De plus, l’ensemble {e1 , e2 , v}, avec v = (1, 2). Elle est évidemment génératrice, car pour tout
(x1 , x2 ) ∈ R2 on peut écrire (x1 , x2 ) = x1 e1 + x2 e2 + 0v. Plus généralement : toute famille
contenant une famille génératrice est génératrice.

Exercice 1.3 Dans R2 , soient v1 = (1, 1) et v2 = (1, −1). Montrons que {v1 , v2 } est génératrice.

Solution. Soit x = (a, b) ∈ R2 avec a, b arbitraires : il s’agit de montrer qu’il existe x1 , x2 ∈ R tels

CA
que x = x1 v1 + x2 v2 , c’est-à-dire :

(a, b) = (x1 , x1 ) + (x2 , −x2 ) = (x1 + x2 , x1 − x2 ).

Ceci signifie que quels que soient a et b ∈ R, il existe x1 , x2 ∈ R vérifiant le système

N
(
x1 + x2 = a
x1 − x2 = b.

LA
a+b a−b
En résolvant, on trouve en effet x1 = et x2 = . Donc {v1 , v2 } est génératrice. r
3
2 2
Définition 1.4 Un espace vectoriel E est dit de dimension finie, s’il existe une famille génératrice
finie engendre E; dans le cas contraire, on dit qu’il est de dimension infinie.

Remarque 1.5 B
SA
1. Rn et Cn sont des espaces vectoriels de dimension finie.
2. R[X ] et C[X ] sont des espaces vectoriels de dimension infinie.

1.2.2 Famille libre


CA

Définition 1.5 Soit {v1 , . . . , vp } une famille finie d’éléments de E. On dit qu’elle est libre, si :

λ1 v1 + . . . + λp vp = 0E ⇒ λ1 = 0, . . . , λp = 0, ∀λi ∈ K, ∀i ∈ {1, . . . , p}.

On dit aussi que les vecteurs v1 , . . . , vp sont linéairement indépendants.


M

Exemple 1.5 Dans R3 , les vecteurs v1 = (1, 1, −1), v2 = (0, 2, 1), v3 = (0, 0, 5) sont linéairement
indépendants. En effet, supposons qu’il existe des réels λ1 , λ2 , λ3 tels que
SA

λ1 v1 + λ2 v2 + λ3 v3 = 0R3 ,

c’est-à-dire :
λ1 (1, 1, −1) + λ2 (0, 2, 1) + λ3 (0, 0, 5) = 0R3 .
EN

On aura (λ1 , λ1 + 2λ2 , −λ1 + λ2 + 5λ3 ) = (0, 0, 0), ce qui donne immédiatement λ1 = λ2 = λ3 = 0.

Définition 1.6 Une famille qui n’est pas libre est dite liée (on dit aussi que ses vecteurs sont liés ou
linéairement dépendants).

Exemple 1.6 Dans R3 , les vecteurs v1 = (1, 2, 1), v2 = (−1, 3, 1) et v3 = (−1, 13, 5) sont liés, car on a
2v1 + 3v2 − v3 = 0R3 .

Pr. A. TSOULI 9 Cours d’Algèbre 2


10 CHAPITRE 1. ESPACES VECTORIELS
Proposition 1.5 Une famille {v1 , . . . , vp } est liée si et seulement si l’un au moins des vecteurs vi s’écrit
comme combinaison linéaire des autres vecteurs de la famille (c’est-à-dire si l’un au moins des vi
appartient à l’espace vectoriel engendré par les autres).

Ou, d’une manière équivalente : une famille {v1 , . . . , vp } est libre si et seulement si aucun des
vecteurs vi n’appartient à l’espace engendré par les autres.

N CA
LA
Figure 1.3: Les vecteurs v1 et v2 forment une famille liée : v2 appartient à l’espace engendré par v1 .

B
SA
CA

Figure 1.4: Les vecteurs v1 , v2 et v3 forment une famille liée : v3 appartient à l’espace engendré par
M

v1 et v2 .
SA

L’intérêt de la notion de famille libre réside dans la propriété suivante :

Proposition 1.6 Soit {v1 , . . . , vp } une famille libre et x ∈ Vect{v1 , . . . , vp }, (c’est-à-dire x est combi-
naison linéaire des vi ). Alors la décomposition de x sur les vi est unique.
EN

Démonstration. En effet, soient

x = λ1 v1 + . . . + λp vp = µ1 v1 + . . . + µp vp

deux décompositions de x. En faisant la différence on trouve :

0E = (λ1 − µ1 )v1 + . . . + (λp − µp )vp .

Pr. A. TSOULI 10 Cours d’Algèbre 2


Famille libre 11
Puisque la famille est libre, on a

λ1 − µ1 = 0, . . . , λp − µp = 0

c’est-à-dire : λ1 = µ1 , . . . λp = µp . r
3

Définition 1.7 On appelle base une famille à la fois libre et génératrice.

CA
On a immédiatement :

Proposition 1.7 Une famille {v1 , . . . , vn } est une base de E si et seulement si tout x ∈ E se décompose
d’une façon unique sur les vi , c’est-à-dire : ∀x ∈ E il existe un unique n-uplet (λ1 , . . . , λn ) ∈ Kn tel
que :

N
x = λ1 v1 + . . . + λn vn .
Les scalaires λi sont dits composantes de x dans la base {v1 , . . . , vn }.

LA
Exemple 1.7 (Base canonique de Rn [X ])
La famille B = {1, X, X 2 , . . . , X n } est une base de Rn [X ]. En effet, tout P ∈ Rn [X ] s’écrit

P ( X ) = a0 1 + a1 X + . . . + an X n

avec ai ∈ R, donc B est génératrice. De plus :


B
SA
λ0 1 + λ1 X + . . . + λn X n = 0Rn [X ] ⇒ λ0 = 0, λ1 = 0, . . . , λn = 0.

Autrement dit B est une famille libre de Rn [X ]. Ainsi B est une base de Rn [X ].
CA

Exercice 1.4 Soit F = {(x, y, z ) ∈ R3 | 2x + y + 3z = 0}. Chercher une base de F .

Solution. Il est facile de vérifier que F est un espace vectoriel. Soit (x, y, z ) ∈ F . On a (x, y, z ) = (x, −2x − 3z, z
Donc la famille {(1, −2, 0), (0, −3, 1)} est une famille génératice de F . De plus, il est facile de vérifier
que {(1, −2, 0), (0, −3, 1)} est une famille libre. Ainsi {(1, −2, 0), (0, −3, 1)} est une base de F . r 3
M

Proposition 1.8
1. {x} est une famille libre ⇔ x , 0.
2. Toute famille contenant une famille génératrice est génératrice.
SA

3. Toute sous-famille d’une famille libre est libre.


4. Toute famille contenant une famille liée est liée.
5. Toute famille {v1 , . . . , vp } dont l’un des vecteurs vi est nul est liée.
EN

Démonstration.
1. — On a λx = 0 ⇒ λ = 0 ou x = 0. Donc, si x , 0, λx = 0 implique λ = 0, ce qui signifie
que {x} est une famille libre.
— Réciproquement, supposons {x} libre. Alors, d’après la définition de famille libre, si λx = 0
on a nécessairement λ = 0, ce qui signifie toujours que x , 0. r
3

Pr. A. TSOULI 11 Cours d’Algèbre 2


12 CHAPITRE 1. ESPACES VECTORIELS
2. Soit {v1 , . . . , vp } une famille génératrice et x = λ1 v1 + . . . + λp vp est un élément arbitraire de E.
On peut aussi écrire :

x = λ1 v1 + . . . + λp vp + 0w1 + . . . + 0wq avec w1 , . . . , wq ∈ E.

Donc tout x ∈ E est combinaison linéaire de v1 , . . . , vp , w1 , . . . , wq . r


3

CA
3. Soit F = {v1 , . . . , vp } une famille libre et F 0 une sous-famille de F telle que F 0 = {v1 , . . . , vk }
avec k ≤ p. Si F 0 était liée, l’un des vecteurs v1 , . . . , vk serait combinaison linéaire des autres. Il
existerait donc un élément de F qui s’écrirait comme combinaison linéaire de certains éléments
de F . Or, cela est impossible car F est libre. r 3
4. Soit F = {v1 , . . . , vp } une famille liée et G = {v1 , . . . , vp , w1 , . . . , wq }. Alors l’un des vi est

N
combinaison linéaire des autres. Or, les vecteurs vi appartiennent à G, donc l’un des éléments
de G est combinaison linéaire des autres, et par conséquent G est liée. r 3

LA
5. Évident d’après le point 4, car il s’agit d’une famille contenant {0} et {0} est liée, d’après 1. r
3

1.2.3 Existence de bases (en dimension finie)

B
Dans ce paragraphe nous allons montrer que dans tout espace vectoriel E , {0E } de dimension
finie, il existe des bases.
SA
Remarque 1.6 Soit E , {0E } un espace vectoriel de dimension finie et G = {v1 , . . . , vp } une famille
génératrice de E : pour tout x ∈ E, il existe α1 , . . . , αp ∈ K tels que :

x = α1 v1 + . . . + αp vp .
CA

Notons que G contient certainement des familles libres : il suffit de prendre par exemple, L = {vi }
avec vi ∈ G, vi , 0E .

Théorème 1.1 Soit E , {0E } un espace vectoriel de dimension finie et G une famille génératrice.
Considérons une famille libre L ⊂ G. Il existe alors une base B de E telle que L ⊂ B ⊂ G.
M

Démonstration : Soit L l’ensemble des parties libres X de E telles que L ⊂ X ⊂ G. L’ensemble L


n’est pas vide car L ∈ L et L est fini puisque, G étant fini, l’ensemble P (G) des parties de G est finie
SA

et L ⊂ P (G). En outre tout élément de L possède un nombre fini d’éléments. Choisissons dans L une
partie B ayant le plus grand nombre possible d’éléments. Soit p ce nombre et montrons que B est une
base de E. Il suffit de montrer que B est une partie génératrice de E puisque par construction B est
une partie libre de E. Comme G engendre E, il suffit de voir que tout élément de G est combinaison
linéaire des éléments de B. Si Card(G) = p, alors on a B = G. La partie génératrice G de E est donc
EN

libre. Par conséquent G est une base de E et le théorème est démontré.


Supposons maintenant que p < Card(G). Si x est un élément de G n’appartenant pas à B, l’en-
semble B {x} est contenu dans G et possède (p + 1) éléments. Donc la famille B {x} est liée. Si
S S

B = {x1 , . . . , xp }, il existe des scalaires λ1 , . . . , λp , λ non tous nuls tels que

λ1 x1 + . . . + λp xp + λx = 0E .

Pr. A. TSOULI 12 Cours d’Algèbre 2


Existence de bases (en dimension finie) 13
On a nécessairement λ , 0, car si λ = 0 les éléments de B vérifieraient une combinaison linéaire nulle
à coefficients non tous nuls et B ne serait pas libre. On en déduit
λ1 λp
x=− x1 − . . . − xp .
λ λ
Ainsi tout élément x ∈ G est combinaison linéaire des éléments de B et le théorème est démontré. r
3

CA
Ce théorème peut s’exprimer aussi de la manière suivante :
Théorème 1.2 Soit E , {0E } un espace vectoriel de dimension finie. Alors
1. De toute famille génératrice on peut extraire une base.

N
2. (Théorème de la base incomplète). Toute famille libre peut être complétée de manière à former
une base.

LA
Démonstration :
1. C’est en fait ce nous avons établi dans la démonstration ci-dessus.
2. Soient L = {v1 , . . . , vp } une famille libre et G = {w1 , . . . , wq } une famille génératrice quelconque
de E. La famille G0 = G L est génératrice, car elle est une sur-famille d’une famille génératrice,
S

L ⊂ B ⊂ G0 . r3 B
et elle contient la famille L. D’après le théorème d’existence, il existe une base B telle que
SA
Remarque 1.7
1. Pour extraire une base d’une famille génératrice G = {v1 , v2 , . . . , vm } d’un sous-espace vectoriel
F , on suit l’algorithme suivant :
i) Si G est libre, c’est terminé. Autrement dit G est une base de F .
CA

ii) Sinon (G est liée), un des vecteurs vi de G peut s’exprimer en fonction des autres, c’est-à-dire
m
λj vj , λj ∈ K.
X
vi =
j =1,j,i

On le supprime, on obtient la famille


M

G1 = G\{vi } = {v1 , v2 , . . . , vi−1 , vi+1 , . . . , vm },

bien sûr la famille obtenue G1 est génératrice et on recommence jusqu’à trouver une famille
SA

libre. Autrement dit une base de F .


2. Pour compléter une famille libre L = {v1 , v2 , . . . , vp } d’un sous-espace vectoriel F , pour obtenir
une base B, on suit l’algorithme suivant :
EN

i) Si L est génératrice, c’est terminé. Autrement dit L est une base de F .


ii) Sinon, on cherche un vecteur quelconque vp+1 ∈ F tel que la famille obtenue
[
L {vp+1 } = {v1 . . . , vp , vp+1 }

soit libre de F et on recommence jusqu’à trouver une famille génératrice. Donc une base
de F .

Pr. A. TSOULI 13 Cours d’Algèbre 2


14 CHAPITRE 1. ESPACES VECTORIELS
Exemple 1.8
1. Soient E = R2 est un espace vectoriel et F = {(1, 2)} une famille des éléments de E. Il est clair
que F est libre dans E. On choisit un vecteur quelconque v de E tel que F1 = {(1, 2), v} soit une
famille libre E. Par exemple, on peut prendre v = (0, 1). De plus, on peut facilement vérifier
que la famille F1 engendre E. Donc F1 est une base de E.
2. Soient E = R2 est un espace vectoriel et G = {(1, 2), (0, 1), (−1, 3)} une famille des éléments

CA
de E. On peut facilement vérifier que la famille G engendre E. Par ailleurs, on a

(1, 2) = 5(0, 1) − (−1, 3),

donc la famille G n’est pas libre, on supprime le vecteur (1, 2), on obtient la famille

N
G1 = {(0, 1), (−1, 3)}

LA
qui est aussi génératrice de E. On peut facilement voir que G1 est libre, donc une base de E.

1.2.4 Les théorèmes fondamentaux sur la dimension


Les résultats de ce paragraphe sont particulièrement importants.
B
Théorème 1.3 Dans un espace vectoriel E sur K de dimension finie, toutes les bases ont le même
nombre d’éléments. Ce nombre est appelé dimension de E sur K et est noté dimK E.
SA
Corollaire 1.1
1. Dans un espace vectoriel de dimension n, toute famille ayant plus de n éléments est liée.
CA

2. Dans un espace vectoriel de dimension n, les familles ayant moins de n éléments ne peuvent être
génératrices.

Remarque 1.8
1. Si E = {0E }, on pose : dimK E = 0.
2. dimR Rn = n. En effet, comme nous l’avons vu, la famille {e1 , . . . , en }, avec
M

e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1)

est une base de Rn .


SA

3. La dimension d’un espace vectoriel E dépend non seulement de E mais aussi du corps de base
K. En effet, considérons, par exemple, C muni de la structure d’espace vectoriel sur R définie
par les lois :
EN

(a + ib) +(c + id) = (a + c) + i(b + d)


λ(a + ib) = λa + iλb (λ ∈ R).
Tout élément z ∈ C s’écrit d’une manière unique : z = a1 + bi avec a, b ∈ R, ce qui signifie que
{1, i} est une base et donc dimR C = 2. En revanche, si on considère C comme espace vectoriel
sur le corps C, on a : dimC C = 1.
4. Comme B = {1, X, X 2 , . . . , X n } est une base de Rn [X ], alors dim (Rn [X ]) = n + 1.

Pr. A. TSOULI 14 Cours d’Algèbre 2


Les théorèmes fondamentaux sur la dimension 15
Proposition 1.9 Soient E1 , . . . , Ep des espaces vectoriels de dimension finie sur le même corps K.
Alors :
dimK (E1 × . . . × Ep ) = dimK E1 + . . . + dimK Ep .

Démonstration : En effet, soient {a1 , . . . , an1 }, {b1 , . . . , bnn }, . . . {l1 , . . . , lnp } des bases de E1 , E2 , . . . , Ep .
On vérifie facilement que la famille

CA
n o
(ai , 0, . . . , 0)i∈{1,...,n1 } ; (0, bi , . . . , 0)i∈{1,...,n2 } ; . . . ; (0, 0, . . . , lnp )i∈{1,...,np }
est une base de E1 × E2 × . . . × Ep . r
3
Exemple 1.9 On a dimR Rn = n; dimC Cn = n et dimR Cn = 2n.

N
En général, pour montrer qu’une famille est une base, il faut montrer qu’elle est libre et qu’elle est
génératrice. Cependant, si la famille a exactement autant d’éléments que la dimension de l’espace, on
a le théorème suivant qui est d’un usage fréquent :

LA
Théorème 1.4 Soit E un espace vectoriel de dimension n. Alors :
1. Toute famille génératrice ayant n éléments est une base.
2. Toute famille libre ayant n éléments est une base.
Démonstration : B
1. Soit F = {v1 , . . . , vn } une famille génératrice de E. Supposons que F n’est pas libre (famille
SA
liée), donc ∃vm ∈ F tel que
n
X
vm = λj vj .
j =1,j,m
CA

Alors F − {vm } engendre E. Ce qui est impossible puisque Card(F − {vm }) = n − 1 < n. r
3
2. Par hypothèse, E possède une base B = {v1 , . . . , vn } avec n éléments. Soit une famille libre
L = {w1 , . . . , wn } avec n éléments. Supposons L non génératrice, c’est-à-dire qu’il existe un
vecteur v ∈ E qui ne s’écrit pas sous forme d’une combinaison linéaire des éléments de L. Dans
ce cas, L0 = L {v} est aussi libre. Mais alors on a une famille libre L qui a plus d’éléments
S

qu’une famille génératrice B, ce qui est impossible. Donc L est une base de E. r 3
M

Exercice 1.5
1. Montrer que la famille {v1 , v2 } engendre R2 où v1 = (1, 2) et v2 = (−1, 1).
SA

2. La famille {v1 , v2 } est-elle une base de R2 ?

Solution.
1. Pour montrer que la famille {v1 , v2 } engendre R2 , il faut montrer que pour tout (x1 , x2 ) ∈ R2 ,
EN

∃λ1 , λ2 ∈ R tels que


(x1 , x2 ) = λ1 (1, 2) + λ2 (−1, 1).
On trouve, alors
x1 + x 2 −2x1 + x2
λ1 = ; λ2 = .
3 3
Donc la famille {v1 , v2 } engendre R2 .

Pr. A. TSOULI 15 Cours d’Algèbre 2


16 CHAPITRE 1. ESPACES VECTORIELS
2. Puisque Card{v1 , v2 } = 2 = dimR R2 et comme la famille {v1 , v2 } engendre l’espace vectoriel
R2 , alors {v1 , v2 } est une base de R2 . r
3

Proposition 1.10 Soient E un espace vectoriel de dimension finie et F un sous-espace vectoriel de E.


Alors F est de dimension finie et de plus, on a
1. dimK F ≤ dimK E.

CA
2. dimK F = dimK E ⇔ E = F .

Démonstration.
1. Le cas où F = {0E } est trivial. Sinon, soit B = {v1 , . . . , vn } une base de E. Il est clair que B
engendre F , ce qui implique que F est un sous espace vectoriel de dimension finie. D’après le

N
théorème de la construction de la base, on déduit qu’il existe une base B1 de F telle que B1 ⊂ B.
Autrement dit Card(B1 ) ≤ Card(B ), ce qui montre que dimK F ≤ dimK E. r 3

LA
2. Il est facile de voir que E = F ⇒ dimK F = dimK E.
Inversement, pour montrer que E = F , il suffit de montrer que E ⊂ F . Soit F = Vect(B ),
où B = {v1 , . . . , vn } une base de F . Comme F ⊂ E, alors vi ∈ E, ∀i ∈ {1, . . . , n}. De plus B
est une famille libre de E et Card(B ) = dimK E, alors B est une base de E. Donc ∀x ∈ E,
∃!λ1 , . . . , λn ∈ K tels que
x=
n
X
B
j =1
λj vj ∈ Vect(B ) = F .
SA
Ce qui prouve que E ⊂ F . Ainsi E = F . r
3

Exercice 1.6 Soit F = Vect{(1, 2) , (2, 1)}. Montrer que F = R2 .

Solution. On a {(1, 2) , (2, 1)} est une famille génératrice de F . De plus, il est facile de montrer que
CA

{(1, 2) , (2, 1)} est une famille libre. Alors {(1, 2) , (2, 1)} est une base de F . Ainsi dimR F = 2. En
utilisant le fait que F est un sous espace vectoriel de R2 et dimR F = dimR R2 , on obtient le résultat
désiré F = R2 . r 3

1.2.5 Bases en dimension infinie


M

Définitions 1.1 Soient E un espace vectoriel et F = {xj }j∈A une famille d’éléments de E, non néces-
sairement finie.
SA

1. On appelle combinaison linéaire finie (ou simplement combinaison linéaire) de la famille, toute
expression du type :
X
λj xj , où I est une sous-famille finie de A. (1.2)
j∈I
EN

2. On appelle sous-espace engendré par F , le sous-espace vectoriel de E noté Vect{F }, formé par
toutes les combinaisons linéaires finies des éléments de F .

Remarque 1.9 Vect{F } est un sous-espace vectoriel de E. En effet, si u = λ1 x1 + . . . + λp xp ∈ Vect{F }


et v = µ1 y1 + . . . + µq yq ∈ Vect{F } (avec xj , yj ∈ F ) on a : λu + µv = combinaison linéaire finie d’élé-
ments de F . Autrement dit Vect{F } est un sous espace vectoriel.

Pr. A. TSOULI 16 Cours d’Algèbre 2


1.3. SOMME, SOMME DIRECTE, SOUS-ESPACES SUPPLÉMENTAIRES 17
Plus précisément, on a :
Définitions 1.2
1. Une famille F = {xj }j∈A d’éléments de E est dite génératrice si Vect{F } = E, c’est-à-dire, si
∀x ∈ E, il existe une sous-famille finie {x1 , . . . , xp } ⊂ F telle que :

x = λ1 x1 + . . . + λp xp .

CA
2. La famille F est dite libre, si toute sous-famille finie est libre, c’est-à-dire si : ∀I ⊂ A avec I est
finie : X
λj xj = 0 ⇒ λj = 0, ∀j ∈ I.
j∈I

N
3. Une famille F est dite base si elle est libre et génératrice.

LA
Proposition 1.11 B est une base de E si et seulement si tout élément de E s’écrit d’une manière
unique comme combinaison linéaire finie d’éléments de B.

Exemple 1.10 (Base canonique de R[X ]).


La famille B = {1, X, X 2 , . . . , X n , . . .}n∈N est une base de R[X ]. En effet, la famille est génératrice car

B
tout polynôme s’écrit comme combinaison linéaire finie de {1, X, X 2 , . . . , X n , . . .}n∈N . D’autre part,
elle est libre car si l’on considère une combinaison linéaire finie nulle : λ0 1 + λ1 X + . . . + λp X p = 0,
SA
on a : λ0 = 0, . . . , λp = 0.

Théorème 1.5 Tout espace vectoriel non réduit à {0} admet une base. Plus précisément :
1. De toute famille génératrice on peut extraire une base.
CA

2. Toute famille libre peut être complétée en une base.

Définition 1.8 Soit E un K−ev et B une famille finie de vecteurs de E alors le rang de B, noté rg(B ),
est la dimension de Vect(B ).

Exemple 1.11 On a rg{(1, 0), (0, 1)} = 2 et rg{(1, 2), (−2, −4)} = 1.
M

1.3 Somme, somme directe, sous-espaces supplémentaires


SA

Définition 1.9 Soient E1 et E2 deux sous-espaces vectoriels d’un espace vectoriel E. On appelle somme
de E1 et E2 , le sous-espace de E défini par :

E1 + E2 = {x ∈ E; ∃x1 ∈ E1 , ∃x2 ∈ E2 : x = x1 + x2 }. (1.3)


EN

Théorème 1.6 Soient E un K−ev, F , G et H trois sev de E. On a les propositions suivantes :


1. F + (G + H ) = (F + G) + H (associativité)
2. F + G = G + F (commutativité)
3. F + {0E } = {0E } + F = F (élément neutre)
4. F + E = E + F = E (élément absorbant)

Pr. A. TSOULI 17 Cours d’Algèbre 2


18 CHAPITRE 1. ESPACES VECTORIELS
5. F + G est le plus petit sev de E contenant F et G (minimalité)

Démonstration.
— Les trois premiers points se déduisent directement des propriétés de l’addition dans un espace
vectoriel. r
3
— On montre d’abord 5. On sait que F + G est un sev de E par la propriété précédente. De plus

CA
F = {x + 0E ; x ∈ F } ⊂ F + G. De même, G ⊂ F + G. D’où F G ⊂ F + G. Donc F + G
S

contient bien F et G. Maintenant, si H est un sev de E tels que F G ⊂ H, alors, pour tout
S

x ∈ F et tout y ∈ G, x ∈ H et y ∈ H. Comme H est un sev, on a x + y ∈ H. D’où F + G ⊂ H.


On en déduit que F + G est bien le plus petit sev de E contenant F et G. r
3
— On déduit de 5, que le sous espace vectoriel F + E contient E. Or F + E est un sev de E. D’où

N
F + E = E et on a bien 4. r 3

LA
Proposition 1.12 Soient E1 et E2 deux sous-espaces vectoriels de E et F = E1 + E2 . La décomposition
de tout élément de F en somme d’un élément de E1 et d’un élément de E2 est unique, si et seulement
si E1 E2 = {0E }. On écrit alors F = E1 ⊕ E2 . On dit que F est somme directe de E1 et E2 .
T

Démonstration.

B
— D’après la définition, tout élément de F est somme d’un élément de E1 et d’un élément de E2 .
Mais cette décomposition en général n’est pas unique. En effet, supposons que E1 E2 , {0E }
T
SA
et soit x0 ∈ E1 E2 avec x0 , 0E . Si x = x1 + x2 (avec xi ∈ Ei ) on a aussi la décomposition :
T

x = (x1 + x0 ) + (x2 − x0 ) = x1 + |{z}


x2 .
| {z } | {z } |{z}
∈E1 ∈E2 ∈E1 ∈E2
CA

On voit donc qu’une condition nécessaire pour que la décomposition soit unique, et que
\
E1 E2 = {0E }.

— Cette condition est aussi suffisante. Supposons, en effet, que


M

\
E1 E2 = {0E }

et soient x = x1 + x2 et x = x01 + x02 deux décompositions de x sur E1 et E2 . Par soustraction,


SA

on a :
x1 − x01 = x02 − x2 ∈ E1 ∩ E2 = {0E }.
| {z } | {z }
∈E1 ∈E2

Ainsi, x1 = x01 et x2 = x02 . r


3
EN

Remarque 1.10 On a

F = E1 + E2 et


F = E1 + E2


tout élément x ∈ F s’écrit d’une manière unique

 

F = E1 ⊕ E2 ⇔ et ⇔
x = x 1 + x2
E1 E2 = {0E }

 T 


avec x1 ∈ E1 , x2 ∈ E2

Pr. A. TSOULI 18 Cours d’Algèbre 2


1.3. SOMME, SOMME DIRECTE, SOUS-ESPACES SUPPLÉMENTAIRES 19
Définition 1.10 Soit E un espace vectoriel et soient E1 et E2 deux sous-espaces vectoriels de E. On
dit que E1 et E2 sont supplémentaires (ou que E2 est un supplémentaire de E1 ), si E = E1 ⊕ E2 .

Proposition 1.13 Soit E un espace vectoriel et soient E1 et E2 deux sous-espaces vectoriels de E.


Alors E = E1 ⊕ E2 si et seulement si pour toute base B1 de E1 et toute base B2 de E2 , la famille
{B1 , B2 } est une base de E.

CA
Démonstration.
— En effet, soient B1 = {ei }i∈I et B2 = {vj }j∈J des bases de E1 et E2 respectivement et supposons
que {ei , vj }(i,j )∈I×J est une base de E. Alors tout x ∈ E s’écrit d’une manière unique :

x = λ1 e1 + . . . + λn en + µ1 v1 + . . . + µm vm

N
| {z } | {z }
∈E1 ∈E2

c’est-à-dire tout x ∈ E s’écrit d’une manière unique x = x1 + x2 avec x1 ∈ E1 et x2 ∈ E2 . Ainsi,

LA
E = E1 ⊕ E2 .
— Réciproquement, si E = E1 ⊕ E2 , tout x ∈ E se décompose d’une manière unique sur E1 et E2 ,
et par conséquent, sur la famille B = {B1 , B2 }. On en déduit que B est une base de E. r
3

( B
Théorème 1.7 Soit E un espace vectoriel de dimension finie. Alors

E1 E2 = {0E }
T
SA
E = E1 ⊕ E2 ⇔
dim E = dim E1 + dim E2

Exemple 1.12 Dans R2 , soient v et w sont deux vecteurs indépendants, E1 = Vect{v} et E2 = Vect{w}
les droites vectorielles engendrées par v et par w. On a R2 = E1 ⊕ E2 . En effet E1 E2 = {(0, 0)} et
T
CA

dim E1 = dim E2 = 1 et dim R2 = 2. Autrement dit dim E1 + dim E2 = dim R2 . Comme on le voit
sur la Figure 1.5, tout x ∈ R2 se décompose d’une manière unique sur E1 et E2 .
M
SA
EN

Figure 1.5

Pr. A. TSOULI 19 Cours d’Algèbre 2


20 CHAPITRE 1. ESPACES VECTORIELS
Exemple 1.13 Dans R3 , soit π un plan vectoriel et v un vecteur non contenu dans ce plan. On a :
R3 = π ⊕ Vect{v}. En effet Vect{v} π = {(0, 0, 0)} et dim π + dim (Vect{v}) = 2 + 1 = dim R3 .
T

N CA
B LA
SA
Figure 1.6

Proposition 1.14 Soit E un espace vectoriel. Pour tout sous-espace vectoriel E1 , il existe toujours un
CA

supplémentaire. Le supplémentaire de E1 n’est pas unique, mais si E est de dimension finie, tous les
supplémentaires de E1 ont même dimension.

Exemple 1.14 Soient E = R2 et F = Vect{(1, 0)} est un sous espace vectoriel de E. Alors F admet
des sous espaces supplémentaires. Par exemple, le sous espace vectoriel G = Vect{(0, 1)} est un
supplémentaire de F .
M

Proposition 1.15 (Formule de Grassmann).


Soit E un espace vectoriel de dimension finie et soient E1 et E2 deux sous-espaces vectoriels de E.
SA

Alors
dim(E1 + E2 ) = dim(E1 ) + dim(E2 ) − dim(E1 ∩ E2 ). (1.4)
En particulier
dim(E1 ⊕ E2 ) = dim(E1 ) + dim(E2 ). (1.5)
EN

Démonstration. Il est clair que E1 ∩ E2 est un sous espace vectoriel de E, alors de dimension finie. Soit
BE1 ∩E2 = {e1 , e2 , . . . , ek } est une base de E1 ∩ E2 avec dim(E1 ∩ E2 ) = k. De plus, BE1 ∩E2 est libre dans
E1 , on peut la compléter en une base de E1 par le théorème de la base incomplète. Soit donc {f1 , . . . , fl }
une famille des vecteurs de E1 tels que BE1 = {e1 , . . . , ek , f1 , . . . , fl } soit une base de F . Nous savons
que dim(E1 ) = k + l. Remarquons que les vecteurs fj sont dans E1 \E2 (car ils sont dans E1 mais pas

Pr. A. TSOULI 20 Cours d’Algèbre 2


1.3. SOMME, SOMME DIRECTE, SOUS-ESPACES SUPPLÉMENTAIRES 21
dans E1 ∩ E2 ). Nous repartons de la famille BE1 ∩E2 = {e1 , . . . , ek } mais cette fois nous la complétons
en une base de E2 . Soit {g1 , . . . , gm } des vecteurs de E2 tels que BE2 = {e1 , . . . , ek , g1 , . . . , gm } soit
une base de E2 . Nous savons que dim(E2 ) = k + m. Remarquons aussi que les vecteurs gj sont dans
E2 \E1 . Montrons que BE1 +E2 = {e1 , . . . , ek , f1 , . . . , fl , g1 , . . . , gm } est une base de E1 + E2 . C’est une
famille génératrice car E1 = Vect{BE1 } ⊂ Vect{BE1 +E2 } et E2 = Vect{BE2 } ⊂ Vect{BE1 +E2 }. Donc
E1 + E2 ⊂ Vect{BE1 +E2 }. C’est une famille libre. En effet, soit une combinaison linéaire nulle

CA
α1 e1 + . . . + αk ek + β1 f1 + . . . + βl fl + γ1 g1 + . . . + γm gm = 0E . (1.6)

Notons e = α1 e1 + . . . + αk ek ; f = β1 f1 + . . . + βl fl et g = γ1 g1 + . . . + γm gm . Ainsi (1.6) s’écrit sous


la forme e + f + g = 0E . On a g = −e − f , or e et f sont dans E1 , donc g ∈ E1 . Or les vecteurs gj ne
sont pas dans E1 . Alors g = γ1 g1 + . . . + γm gm = 0E . Or, la famille {g1 , . . . , gm } est libre, donc tous

N
les scalaires γ1 , γ2 , . . . , γm sont nuls. Le reste de l’équation (1.6) devient

LA
α1 e1 + . . . + αk ek + β1 f1 + . . . + βl fl = 0E .

Or, la famille {e1 , . . . , ek , f1 , . . . , fl } est libre, donc tous les scalaires α1 , . . . , αk , β1 , . . . , βl sont nuls.
Par conséquent, la famille BE1 +E2 est libre, donc c’est une base de E1 + E2 . On en déduit alors que
dim(E1 + E2 ) = k + l + m. En utilisant maintenant le fait que dim(E1 E2 ) = k, dim(E1 ) = k + l,
T

B
dim(E2 ) = k + m, on obtient dim(E1 + E2 ) = dim(E1 ) + dim(E2 ) − dim(E1 E2 ). r
T
3
SA
Exercice 1.7 Soient v1 = (1, 0, 0, 1), v2 = (0, 0, 1, 0), v3 = (0, 1, 0, 0), v4 = (0, 0, 0, 1) et v5 = (0, 1, 0, 1)
des vecteurs dans R4 .
1. Vect{v1 , v2 } et Vect{v3 } sont-ils supplémentaires dans R4 ?
2. Vect{v1 , v2 } et Vect{v4 , v5 } sont-ils supplémentaires dans R4 ?
CA

3. Vect{v1 , v3 , v4 } et Vect{v2 , v5 } sont-ils supplémentaires dans R4 ?


4. Vect{v1 , v4 } et Vect{v3 , v5 } sont-ils supplémentaires dans R4 ?

Solution.
1. Par absurde, on suppose que Vect{v1 , v2 } et Vect{v3 } sont supplémentaires dans R4 . Autrement
M

dit
(
Vect{v1 , v2 } Vect{v3 } = {(0, 0, 0, 0)}
T
R = Vect{v1 , v2 } ⊕ Vect{v3 } ⇔
4
4 = dim(R4 ) = dim(Vect{v1 , v2 }) + dim(Vect{v3 }).
SA

Comme dim(Vect{v1 , v2 }) ≤ 2 et dim(Vect{v3 }) = 1, on déduit que

4 = dim(Vect{v1 , v2 }) + dim(Vect{v3 }) ≤ 3.
EN

Ce qui est impossible. Donc Vect{v1 , v2 } et Vect{v3 } ne sont pas supplémentaires dans R4 . r
3
2. Calculons Vect{v1 , v2 } Vect{v4 , v5 }. Soit (a, b, c, d) ∈ Vect{v1 , v2 } Vect{v4 , v5 }. Alors
T T

(
(a, b, c, d) = λ1 v1 + λ2 v2
(a, b, c, d) = λ4 v4 + λ5 v5

Pr. A. TSOULI 21 Cours d’Algèbre 2


22 CHAPITRE 1. ESPACES VECTORIELS
avec λ1 , λ2 , λ4 , λ5 ∈ R. On déduit alors
(
(a, b, c, d) = (λ1 , 0, λ2 , λ1 )
(a, b, c, d) = (0, λ5 , 0, λ4 + λ5 )

ce qui implique que a = b = c = d = 0. Ainsi (a, b, c, d) = (0, 0, 0, 0). Autrement dit

CA
\
Vect{v1 , v2 } Vect{v4 , v5 } = {(0, 0, 0, 0)}.

De plus, les deux vecteurs v1 et v2 sont linéairement indépendants. Alors dim Vect{v1 , v2 } = 2.
De la même manière, les deux vecteurs v4 et v5 sont linéairement indépendants. Ce qui implique
que dim Vect{v4 , v5 } = 2. Ainsi R4 = Vect{v1 , v2 } ⊕ Vect{v4 , v5 }. r
3

N
3. Cherchons Vect{v1 , v3 , v4 } Vect{v2 , v5 }. Soit (a, b, c, d) ∈ Vect{v1 , v3 , v4 } Vect{v2 , v5 }. Alors
T T

LA
(
(a, b, c, d) = (λ1 , λ3 , 0, λ1 + λ4 )
(a, b, c, d) = (0, λ5 , λ2 , λ5 ),

ce qui implique que λ1 = λ2 = 0. Par suite λ3 = λ4 = λ5 . Ainsi v5 = v3 + v4 ∈ Vect{v1 , v3 , v4 }.


Donc Vect{v1 , v3 , v4 } Vect{v2 , v5 } , {(0, 0, 0, 0)}. Autrement dit Vect{v1 , v4 } et Vect{v3 , v5 }
T

ne sont pas supplémentaires dans R4 . r 3


B
4. Remarquons que v4 = v5 − v3 . Alors v4 ∈ Vect{v1 , v4 }
T
Vect{v3 , v5 }. Ainsi Vect{v1 , v4 } et
SA
Vect{v3 , v5 } ne sont pas supplémentaires dans R4 . r
3
CA
M
SA
EN

Pr. A. TSOULI 22 Cours d’Algèbre 2


N CA
LA
A
p pli cati on s lin éair e
s

B
SA
CA
M
SA
EN

23
Chapitre 2

CA
Applications linéaires

N
LA
A
p pli cati on s lin éair e
s L a stru ctur e d' e
s p a ce vectori el n e d evi ent vr aim ent intér e
s-

s ante qu e si l on intr oduit la n oti on d' a p pli cati on lin éair e. Il s' a git d e
s a p pli cati on s entr e

e
s p a ce
s vectori el
s qui, d an s un s en s qu e n ou s allon s pr éci s er, con s ervent la stru ctur e

d' e
s p a ce vectori el.

B
SA
D an s ce c h a pitr e, qui e
st un p eu l axe d e tout le r e
ste du cour s, n ou s allon s d onn er

e
s s enti ellem ent le
s d éfiniti on s et le
s r é
sultat
s élém entair e
s d e ba s e.
CA

2.1 Applications linéaires


Définition 2.1 Soient E et E 0 deux espaces vectoriels sur le même corps K et f une application de
E dans E 0 . On dit que f est linéaire, si :
1. f (x + y ) = f (x) + f (y ), ∀x, y ∈ E.
2. f (λx) = λf (x), ∀x ∈ E, ∀λ ∈ K.
M

L’ensemble des applications linéaires de E dans E 0 est noté LK (E, E 0 ) ou plus simplement, L(E, E 0 ).
SA

Remarque 2.1 Si f est linéaire, on a : f (0E ) = 0E 0 . Il suffit, en effet, de faire λ = 0 dans f (λx) = λf (x).

Certains types d’applications linéaires sont particulièrement importants ; nous y reviendrons largement
dans la suite. En voici les définitions :
EN

Définition 2.2
1. On appelle endomorphisme de E, une application linéaire de E dans E (même espace de départ
et d’arrivée). L’ensemble des endomorphismes de E est noté EndK (E ) ou, plus simplement
End(E ) ou encore LK (E ) ou L(E ).
2. On appelle isomorphisme de E sur E 0 une application linéaire bijective de E dans E 0 . L’ensemble
des isomorphismes de E dans E 0 est noté par IsomK (E, E 0 ).

24
2.1. APPLICATIONS LINÉAIRES 25
3. On appelle automorphisme toute application linéaire bijective de E dans E. L’ensemble des
automorphisme est noté par AutK (E ).

Exemple 2.1
f : E −→ E 0
v 7−→ 0E 0

CA
est une application linéaire dite application nulle.

Exemple 2.2
idE : E −→ E
v 7−→ v

N
est un endomorphisme de E dit identité sur E.

Exemple 2.3

LA
f: R3 −→ R2
(x1 , x2 , x3 ) 7−→ (2x1 + x2 , x2 − x3 )
est une application linéaire. En effet, si v = (x1 , x2 , x3 ) et w = (y1 , y2 , y3 ), on a :

B
f (v + w ) = f ((x1 + y1 , x2 + y2 , x3 + y3 ))
= (2(x1 + y1 ) + (x2 + y2 ), (x2 + y2 ) − (x3 + y3 ))
= ((2x1 + x2 ) + (2y1 + y2 ), (x2 − x3 ) + (y2 − y3 ))
SA
= f (v ) + f (w ).
f (λv ) = f ((λx1 , λx2 , λx3 )) = (2λx1 + λx2 , λx2 − λx3 )
= λ ( 2 x1 + x2 , x2 − x3 )
= λf (v ).
CA

Exemple 2.4 L’application

f: R3 −→ R2
(x1 , x2 , x3 ) 7−→ (x21 − x2 , x2 + x3 )
n’est pas linéaire (ni 1, ni 2 de la Définition 2.1 ne sont satisfaites à cause du terme au carré).
M

Exemple 2.5 Soient C 0 ([0, 1], R) et C 1 ([0, 1], R) les espaces vectoriels des applications f : [0, 1] −→ R
respectivement continues et continues à dérivée continue. L’application :
SA

D : C 1 ([0, 1], R) −→ C 0 ([0, 1], R)


f 7−→ f0
est une application linéaire, puisque :
EN

D (f + g ) = (f + g )0 = f 0 + g 0 = Df + Dg
D (λf ) = (λf )0
= λf 0
= λDf

si λ ∈ R et f , g ∈ C 1 ([0, 1], R).

Pr. A. TSOULI 25 Cours d’Algèbre 2


26 CHAPITRE 2. APPLICATIONS LINÉAIRES
Exemple 2.6 Soit E = E1 ⊕ E2 , alors tout vecteur x ∈ E s’écrit d’une manière unique x = x1 + x2
où x1 ∈ E1 et x2 ∈ E2 . L’application :
pr1 : E −→ E1
(2.1)
x = x1 + x2 7−→ x1
est une application linéaire dite projecteur (ou une projection) sur E1 parallèlement à E2 . De la même

CA
manière, on définit le projecteur sur E2 parallèlement à E1 , par
pr2 : E −→ E2
. (2.2)
x = x1 + x2 7−→ x2

N
B LA
SA
CA

Figure 2.1

Exercice 2.1 Montrer que prj est un projecteur ⇔ prj ◦ prj = prj , j = 1, 2.
M

Exemple 2.7 Soit v0 , 0 un vecteur de E, l’application translation définie par


tv0 : E −→ E
SA

v 7 → v + v0

n’est pas linéaire (noter, par exemple, que : tv0 (0) = v0 , 0).
Exercice 2.2
EN

1. Soit E = C ([0, 1], R) l’espace vectoriel des applications continues de [0, 1] dans R. Montrer que
l’application :
φ1 : E −→ E
f 7−→ F
Z x
où F (x) = f (t)dt, est un endomorphisme de E.
0

Pr. A. TSOULI 26 Cours d’Algèbre 2


2.2. IMAGE ET NOYAU. IMAGE D’UNE FAMILLE DE VECTEURS 27
2. L’application suivante
φ2 : E −→ E
f 7−→ G
Z x
où G(x) = |f (t)|dt, est-elle linéaire ?
0
3. Montrer que l’application :

CA
δ : E −→ R
f 7−→ f (0)
est une application linéaire (elle est appelée fonctionnelle de Dirac).

N
2.2 Image et noyau. Image d’une famille de vecteurs
Proposition 2.1 Soit f : E −→ E 0 une application linéaire et F un sous-espace vectoriel de E. Alors

LA
f (F ) est un sous-espace vectoriel de E 0 . En particulier f (E ) est un sous-espace vectoriel de E 0 appelé
image de f et noté Im(f ). Sa dimension est appelée rang de f et est notée :

rg(f ) := dim(Imf ) = dim(f (E )). (2.3)

B
Démonstration. En effet, il esl clair que f (F ) ⊂ E 0 et f ( 0E ) = 0E 0 ∈ f (F ). De plus, pour tout
|{z}
SA
∈F
y1 , y2 ∈ f (F ); ils existent x1 , x2 ∈ F tels que

y1 = f (x1 ) et y2 = f (x2 ).

On a : y1 + y2 = f (x1 ) + f (x2 ) = f (x1 + x2 ); donc y1 + y2 ∈ f (F ). De plus, si y ∈ f (F ) (alors


CA

| {z }
∈F
y = f (x) avec x ∈ F ), alors pour tout λ ∈ K, on a : λy = λf (x) = f (|{z}
λx ); ainsi λy ∈ f (F ). r
3
∈F

Proposition 2.2 Soit f ∈ L(E, E 0 ) et ker f := {x ∈ E; f (x) = 0E 0 } est un sous-espace vectoriel de


E appelé noyau de f .
M

Démonstration. Il est clair que ker f ⊂ E et 0E ∈ ker f . Soient x, y ∈ ker f , on a f (x + y ) = f (x) + f (y ) = 0E 0


donc x + y ∈ ker f . De plus, ∀λ ∈ K et ∀x ∈ ker f , on a f (λx) = λf (x) = λ0E 0 = 0E 0 . Ainsi,
λx ∈ ker f . r
3
SA

Proposition 2.3 Soit f ∈ L(E, E 0 ). Alors f est injective si et seulement si ker f := {0E }.
Démonstration. Montrons que f est injective si et seulement si ker f := {0E }.
EN

— En effet, soient ker f = {0E } et x, y ∈ E tels que f (x) = f (y ). Cela implique que f (x) − f (y ) = 0E 0 ,
d’où f (x − y ) = 0E 0 . Ainsi x − y ∈ ker f = {0E } et donc x = y c’est-à-dire f est injective.
— Réciproquement, supposons que f est injective et soit x ∈ ker f , c’est-à-dire f (x) = 0E 0 . Puisque
f (0E ) = 0E 0 pour toute application linéaire, on a f (x) = f (0E ). Le fait que f est injective
implique x = 0E . On en déduit que ker f = {0E }.
D’où le résultat. r
3

Pr. A. TSOULI 27 Cours d’Algèbre 2


28 CHAPITRE 2. APPLICATIONS LINÉAIRES
Exemple 2.8 Soit
f: R3 −→ R3
(x, y, z ) 7−→ (x0 , y 0 , z 0 )

x0 = x + y − z



y 0 = 2x + y − 3z

CA
 0

z = 3x + 2y − 4z
ker f est l’ensemble des triplets (x, y, z ) ∈ R3 qui vérifient le système :


 x+y−z =0
2x + y − 3z =0

N
3x + 2y − 4z = 0.

On trouve facilement x = 2λ, y = −λ, z = λ; c’est-à-dire ker f est la droite vectorielle engendrée

LA
par le vecteur (2, −1, 1). Pour ce qui est de Imf , on a : (x0 , y 0 , z 0 ) ∈ Imf si et seulement si, il existe
(x, y, z ) ∈ R3 vérifiant le système :

= x0


 x+y−z
= y0


B
2x + y − 3z
3x + 2y − 4z = z 0
SA
Il s’agit donc de savoir pour quelles valeurs de x0 , y 0 , z 0 . On a

x + y − z = x0 0
 

  x+y−z = x

−y − z = y 0 − 2x0 ⇒  y + z = 2x0 − y 0
= z 0 − 3x0 = 2x0 − y 0 + z 0 − 3x0

−y − z 0
CA

 

la condition de compatibilité est 2x0 − y 0 + z 0 − 3x0 = 0 c’est-à-dire x0 + y 0 − z 0 = 0. L’image de f est


donc le plan de R3 d’équation x0 + y 0 − z 0 = 0. Ainsi rg(f ) = 2.

Exercice 2.3 Soient E un espace vectoriel et E1 et E2 deux sous espaces vectoriels de E tels que
E = E1 ⊕ E2 . Soient pr1 le projecteur sur E1 parallèlement à E2 et pr2 le projecteur sur E2 parallèlement
M

à E1 .
1. Montrer que prj ◦ prj = prj , ∀j = 1, 2 et pr1 ◦ pr2 = pr2 ◦ pr1 = 0.
2. Montrer que E = Im(prj ) ⊕ ker(prj ), ∀j = 1, 2.
SA

Solution.
1. Soient x ∈ E et j ∈ {1, 2}. Il est clair que prj , prj ◦ prj ∈ LK (E, Ej ). De plus, on a
EN

prj ◦ prj (x) = prj (xj ) = xj = prj (x).

Ainsi prj ◦ prj = prj , ∀j = 1, 2. Par ailleurs, on a

pr1 ◦ pr2 (x) = pr1 (x2 ) = 0; pr2 ◦ pr1 (x) = pr2 (x1 ) = 0.

D’où le résultat. r
3

Pr. A. TSOULI 28 Cours d’Algèbre 2


2.2. IMAGE ET NOYAU. IMAGE D’UNE FAMILLE DE VECTEURS 29
2. Pour tout y ∈ Im(prj ) ker(prj ), on a ∃x ∈ E tel que y = prj (x) et prj (y ) = 0. Ceci implique
T

que
prj (y ) = prj (prj (x)) = prj ◦ prj (x) = prj (x) = y = 0.
Par suite Im(prj ) ker(prj ) = {0}. Par ailleurs, il est clair que Im(prj ) + ker(prj ) ⊂ E. Mon-
T

trons que E ⊂ Im(prj ) + ker(prj ). Pour tout x ∈ E, on a x = prj (x) + x − prj (x) . En effet
| {z } | {z }

CA
∈Im(prj ) ker(prj )

prj (x − prj (x)) = prj (x) − prj (prj (x)) = prj (x) − prj (x) = 0.

Donc E = Im(prj ) ⊕ ker(prj ), ∀j = 1, 2. r


3

N
Proposition 2.4 Soit f ∈ L(E, E 0 ) et {vj }j∈I une famille de vecteurs de E.
1. Si f est injective et la famille de {vj }j∈I est libre, alors la famille {f (vj )}j∈I de E 0 est libre.

LA
2. Si f est surjective et la famille {vj }j∈I est génératrice de E, alors la famille {f (vj )}j∈I est
génératrice de E 0 .
En particulier si f est bijective l’image d’une base de E est une base de E 0 .

Démonstration.
B
1. Supposons que la famille {vj }j∈I est libre et que f soit injective. Alors pour toute famille extraite
{vα1 , vα2 , . . . , vαq } la relation
SA
λ1 f (vα1 ) + . . . + λq f (vαq ) = 0 ⇒ f (λ1 vα1 + . . . + λq vαq ) = 0 ⇒ λ1 vα1 + . . . + λq vαq ∈ ker f .

Or ker f = {0E }, donc


CA

λ1 vα1 + . . . + λq vαq = 0E
et puisque la famille {vj }j∈I est libre, on a λ1 = 0, . . . , λq = 0. Donc la famille {f (vj )}j∈I est
libre. r
3
2. Soit y ∈ E 0 quelconque ; puisque f est surjective, il existe x ∈ E tel que y = f (x). D’autre part
la famille {vj }j∈I est génératrice de E, ainsi, x s’écrit sous la forme
M

x = λ1 vα1 + . . . + λp vαp ,

d’où y = f (x) = λ1 f (vα1 ) + . . . + λp f (vαp ). Alors y est une combinaison linéaire d’éléments
de la famille {f (vj )}j∈I et, puisqu’il est choisi arbitrairement dans E 0 , la famille {f (vj )}j∈I est
SA

génératrice. r
3

Théorème 2.1 Deux espaces vectoriels de dimension finie sont isomorphes, si et seulement si, ils ont
même dimension.
EN

Démonstration. En effet, s’il existe un isomorphisme f : E −→ E 0 , l’image par f d’une base de E est
une base de E 0 , donc E et E 0 ont même dimension.
Réciproquement, supposons que dim E = dim E 0 et soient {e1 , . . . , en } et {e01 , . . . , e0n } deux bases
respectivement de E et E 0 . Considérons l’application f : E −→ E 0 construite de la manière suivante :
1. pour k = 1, . . . , n on pose : f (ek ) = e0k ;

Pr. A. TSOULI 29 Cours d’Algèbre 2


30 CHAPITRE 2. APPLICATIONS LINÉAIRES
n n n
xk e0k .
X X X
2. si x = xk ek on pose f (x) = xk f (ek ) =
k =1 k =1 k =1
On vérifie facilement que f est linéaire et bijective. r
3

Dans le cas où les espaces E et E 0 sont de dimension finie, les dimensions du noyau et de l’image de
l’application f sont liées par la relation donnée dans le théorème suivant, l’un des plus importants en

CA
Algèbre Linéaire :

Théorème 2.2 (Théorème du rang).


Soient E et E 0 deux espaces vectoriels de dimension finie et f : E −→ E 0 une application linéaire. On
a alors :

N
dim E = rg(f ) + dim(ker f ). (2.4)

Démonstration. Supposons que dim E = n et dim(ker f ) = r et montrons que dim(Imf ) = n − r.

LA
Soit {w1 , . . . , wr } une base de ker f , et {v1 , . . . , vn−r } une famille de vecteurs telle que
{w1 , . . . , wr , v1 , . . . , vn−r } soit une base de E. Soit B = {f (v1 ), . . . , f (vn−r )}. Montrons que B est une
base de Imf .
1. B engendre Imf .

B
Soit, en effet y = f (x) ∈ Imf . Comme x ∈ E, alors x s’écrit sous la forme

x = a1 w1 + . . . + ar wr + b1 v1 + . . . + bn−r vn−r .
SA
On a donc :
y = f (a1 w1 + . . . + ar wr + b1 v1 + . . . + bn−r vn−r )
= a1 f (w1 ) + . . . + ar f (wr ) + b1 f (v1 ) + . . . + bn−r f (vn−r )
CA

= b1 f (v1 ) + . . . + bn−r f (vn−r ),

ce qui montre que B engendre Imf .


2. B est libre.
Supposons que λ1 f (v1 ) + . . . + λn−r f (vn−r ) = 0E 0 ; on aura f (λ1 v1 + . . . + λn−r vn−r ) = 0E 0 ,
M

donc
λ1 v1 + . . . + λn−r vn−r ∈ ker f .
Par conséquent, il existe a1 , . . . , ar ∈ K tels que :
SA

λ1 v1 + . . . + λn−r vn−r = a1 w1 + . . . + ar wr

c’est-à-dire :
λ1 v1 + . . . + λn−r vn−r − a1 w1 − . . . − ar wr = 0E .
EN

Puisque la famille {v1 , . . . , vn−r , w1 , . . . , wr } est libre, les coefficients de cette combinaison linéaire
sont tous nuls ; en particulier λ1 = 0, λ2 = 0, . . . , λn−r = 0, c’est-à-dire B est libre. r 3

Remarque 2.2
1. Si f est injective ⇒ ker f = {0E } ⇒ dim(ker f ) = 0 ⇒ dim E = rgf = dim(f (E )) ≤ dim E 0 .

Pr. A. TSOULI 30 Cours d’Algèbre 2


2.2. IMAGE ET NOYAU. IMAGE D’UNE FAMILLE DE VECTEURS 31
2. Si f est surjective ⇒ f (E ) = E 0 ⇒ dim E 0 = dim(f (E )) = rgf . Puisque dim(ker f ) ≥ 0, on
obtient dim E 0 ≤ dim E.
3. Si f est bijective ⇒ f injective et surjective ⇒ dim E ≤ dim E 0 et dim E 0 ≤ dim E. Donc
dim E = dim E 0 .

Exercice 2.4

CA
1. Existe-t-il une application linéaire injective de R2 dans R ?
2. Existe-t-il une application linéaire surjective de R dans R2 ?
3. Existe-t-il une application linéaire f : R4 −→ R3 telle que ker f = Vect{(1, 2, 0, −3)} et
Imf = {(x, y, z ) ∈ R3 ; x − y + z = 0} ?

N
Ce théorème a un corollaire important. Pour montrer qu’une application linéaire est bijective, il faut
montrer qu’elle est injective et surjective ; cependant, dans le cas de dimension finie, si la dimension

LA
de l’espace de départ et celle de l’espace d’arrivée sont les mêmes, il suffit de démontrer l’une des deux
propriétés - soit l’injectivité, soit la surjectivité :

Corollaire 2.1 Soient f ∈ L(E, E 0 ), E et E 0 étant deux espaces vectoriels de même dimension finie.
(en particulier, par exemple, si f ∈ End(E ), avec E de dimension finie). Alors les propriétés suivantes
sont équivalentes :
1. f est injective.
B
SA
2. f est surjective.
3. f est bijective.

Démonstration. Il suffit, bien entendu de montrer que 1. est équivalent à 2. Comme on l’a vu f est
CA

injective si et seulement si ker f = {0E }. Puisque dim E = rgf + dim(ker f ); donc f est injective si et
seulement si dim E = rgf , c’est-à-dire dim E = dim(Imf ). Or, par hypothèse, dim E = dim E 0 , donc
f est injective si et seulement si dim(Imf ) = dim E 0 . Puisque Imf ⊂ E 0 cela équivaut à Imf = E 0 ,
c’est-à-dire f est surjective. r
3
M
SA
EN

Pr. A. TSOULI 31 Cours d’Algèbre 2


CA
N
LA
M atri ce
s

B
SA
CA
M
SA
EN

32
Chapitre 3

CA
Matrices

N
3.1 Matrices

LA
Définitions 3.1
1. Soient p, n ∈ N∗ . On appelle matrice de type (p, n) à cœfficients dans K, un tableau A de p × n
éléments de K rangés sur p lignes et n colonnes :

B a11 a12 . . . a1n

SA

 a21 a22 . . . a2n 

A= .. .. .. 
. . .
 
 
ap1 ap2 . . . apn

ou, en abrégé : A = (aij ) 1≤i≤p . Notons que le scalaire aij désigne l’élément de la i-ème ligne et
CA

1≤j≤n
de la j-ème colonne :
M

2. Le nombre p × n est appelé la dimension de A.


SA

3. L’ensemble des matrices à p lignes et n colonnes est noté par Mp,n (K).
4. Si n = p, la matrice A est dite matrice carrée d’ordre n et l’ensemble des matrices carrées est
noté par Mn (K).
EN

Exemple 3.1
!
1 3 −1
1. ∈ M2,3 (R).
0 1 2
 
1 2−i 3+i
2.  0 1 + i i  ∈ M3 ( C ) .
 

−i 2 1

33
34 CHAPITRE 3. MATRICES
3.1.1 Matrices carrées particulières
Définitions 3.2
1. Si p = 1. La matrice A = (a11 , a12 , . . . a1n ) ∈ M1,n (K) est dite matrice ligne de dimension 1 × n.
a11
 
 a21 
∈ Mp,1 (K) est dite matrice colonne de dimension p × 1.
 
2. Si n = 1. La matrice A = 

CA
.. 
.
 
 
ap 1
3. Si aij = 0 dès que i , j, A est appelée matrice diagonale :

a11 ···
 
0 0

N
 0
 a22 ··· 0 

A=  ..

.. .. .. .
 . . . .

LA

0 0 · · · ann

4. La matrice identité ou matrice unité est une matrice carrée avec des 1 sur la diagonale et des 0
partout ailleurs. Elle peut s’écrire diag(1, 1, . . . , 1). Puisque les matrices peuvent être multipliées à
la seule condition que leurs types soient compatibles, il y a des matrices unité de tout ordre. In est

B
la matrice unité d’ordre n et est donc définie comme une matrice diagonale avec 
1 sur chaque en-
1 0 ... 0

SA
. 
0 .. 
! 
  1 0  0 1
trée de sa diagonale principale. Ainsi : I1 = 1 , I2 = , . . . , In =  .
 
0 1 . .
 .. 0 .. 0 


0 ... 0 1
5. Si aij = 0 dès que i > j, A est appelée matrice triangulaire supérieure :
CA

a11 a12 · · · a1n


 

 0 a22 · · · a2n 

A= .. .. . . .. .
. . . .
 
 
0 0 · · · ann
M

6. Si aij = 0 dès que i < j, A est appelée matrice triangulaire inférieure :

a11 0 ···
 
0
SA


 a21 a22 ··· 0 

A= 
.. .. ... .
.. 
. . . 


an1 an2 · · · anp
EN

Exemple 3.2
 
1 2 3
1. La matrice T =  0 4 0  est triangulaire supérieure.
 

0 0 6
!
1 0
2. La matrice V = est triangulaire inférieure.
5 6

Pr. A. TSOULI 34 Cours d’Algèbre 2


Matrices carrées particulières 35
 
1 0 0 0
 0 5 0 0 
3. La matrice D = est diagonale.
 
 0 0 17 0
 

0 0 0 4

Proposition 3.1 Les matrices A = (aij ) et B = (bij ) de dimension n × p sont égales ssi aij = bij pour
tous i, j.

CA
Proposition 3.2 Sur l’ensemble Mp,n (K), on définit les deux lois suivantes :
1. L’addition : si A = (aik ) et B = (bik ), on note C = A + B, la matrice (cik ) telle que
cik = aik + bik , ∀i ∈ ~1, p, ∀k ∈ ~1, n.

N
2. Le produit par un scalaire : si A = (aik ) et λ ∈ K, on note λA la matrice (λaik ) c’est-à-dire la
matrice obtenue en multipliant tous les éléments de A par λ.

LA
Exemple 3.3
! ! !
2 −1 0 3 1 2 0 4 3 1 0 7
i) + = .
1 2 1 −1 3 1 −1 2 4 3 0 1
! !
2 −1 0 3 10 −5 0 15
ii) 5
1 2 1 −1
=
5 10 5 −5
B .
SA
Remarque 3.1
1. L’ensemble Mp,n (K) muni de ces deux lois est un espace vectoriel sur K.
2. L’élément neutre est la matrice dont tous les éléments sont nuls, dite matrice nulle et est notée
0Mp,n (K) ou tout simplement 0.
CA

3. L’opposée de la matrice (aik ) est la matrice (−aik ).


Proposition 3.3 On a dimK (Mp,n (K)) = pn.
Démonstration : En effet, on vérifie facilement que les p × n matrices, dites matrices élémentaires :
M
SA
EN

forment une base de Mp,n (K) dite base canonique.

Pr. A. TSOULI 35 Cours d’Algèbre 2


36 CHAPITRE 3. MATRICES
3.1.2 Matrices associées aux applications linéaires
Soient E et E 0 deux espaces vectoriels sur K, de dimension n et p respectivement, et f : E −→ E 0
une application linéaire. Choisissons une base B1 = {e1 , . . . , en } de E et une base B2 = {e01 , . . . , e0p }
de E 0 . Les images par f des vecteurs e1 , . . . , en se décomposent sur la base B2 par
f (e1 ) = a11 e01 + a21 e02 + . . . + ap1 e0p

CA
f ( e2 ) = a12 e01 + a22 e02 + . . . + ap2 e0p
..
. ...........................
f (en ) = a1n e01 + a2n e02 + . . . + apn e0p .
Définition 3.1 On appelle matrice de f dans les bases B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0p } la

N
matrice notée MB1 ,B2 (f ) appartenant à Mp,n (K) dont les colonnes sont les composantes des vecteurs
f (e1 ), . . . , f (en ) dans la base B2 par

LA
f (e1 ) f (e2 ) . . . f ( en )
e0 a11 a12 ... a1n
   
1 a11 a12 . . . a1n
0
e2  a21 a22 . . . a2n   a21 a22 . . . a2n 
 
 
MB1 ,B2 (f ) = ..  .. .. ..  =  .
 . .. .. .
.  . . .    . . . 

e0p
Remarque 3.2
ap 1 ap 2
B ... apn ap 1 ap 2 . . . apn
SA
1. S’il n’y a pas d’ambiguïté possible, on écrira aussi M(f ) à la place de MB1 ,B2 (f ), mais il est clair
que la matrice associée à f dépend du choix des bases de E et E 0 .
2. Dans le cas où f est un endomorphisme, on peut choisir la même base B dans E considéré
comme espace de départ et d’arrivée. Dans ce cas, on notera MB (f ) au lieu de MB,B (f ).
CA

Proposition 3.4 Soient E et E 0 deux espaces vectoriels sur K de dimension n et p respectivement et


B1 = {e, . . . , en } et B2 = {e01 , . . . , e0p } des bases de E et E 0 respectivement. Alors l’application :
M : LK (E, E 0 ) −→ Mp,n (K)
f 7−→ MB1 ,B2 (f )
est un isomorphisme d’espaces vectoriels, c’est-à-dire :
M



 M (f + g ) = M (f ) + M (g )

M (λf ) = λM (f )

M est bijective.
SA

En particulier : dim(LK (E, E 0 )) = n × p.


Démonstration : On a, en effet :
M (f + g ) = MB1 ,B2 (f + g )
EN

 
= (f + g )(e1 ), (f + g )(e2 ), . . . , (f + g )(en )
 B2 
= f (e1 ) + g (e1 ), f (e2 ) + g (e2 ), . . . , f (en ) + g (en )
   B2 
= f (e1 ), f (e2 ), . . . , f (en ) + g (e1 ), g (e2 ), . . . , g (en )
B2 B2
= MB1 ,B2 (f ) + MB1 ,B2 (g )
= M (f ) + M (g ).

Pr. A. TSOULI 36 Cours d’Algèbre 2


Matrices associées aux applications linéaires 37
Donc
MB1 ,B2 (f + g ) = MB1 ,B2 (f ) + MB1 ,B2 (g ).
De même, si λ ∈ K :
M (λf ) = MB1 ,B2 (λf )
 
= (λf )(e1 ), (λf )(e2 ), . . . , (λf )(en )
B2

CA
 
= λf (e1 ), λf (e2 ), . . . , λf (en )
  B2
= λ f (e1 ), f (e2 ), . . . , f (en )
B2
= λMB1 ,B2 (f )
= λM (f ).

N
Donc M est linéaire. D’autre part M est surjective. Soient, en effet :
a11 . . . a1n
 

LA
 a21 . . . a2n 
∈ Mp,n (K)
 
A= 
.. .. 
. .
 
 
ap1 . . . apn
et f ∈ L(E, E 0 ) définie de la manière suivante
B
f (e1 ) = a11 e01 + a21 e02 + . . . + ap1 e0p
SA
... = ........................
f (en ) = a1n e01 + a2n e02 + . . . + apn e0p .
On prolonge, ensuite, f par linéarité sur E, c’est-à-dire, si
x = λ1 e1 + . . . + λn en ∈ E,
CA

on pose
f (x) = λ1 f (e1 ) + . . . + λn f (en ).
Il est clair que A = MB1 ,B2 (f ). Enfin M est injective. Soit en effet f ∈ ker M , ce qui implique
M (f ) = 0Mp,n (K) , autrement dit
f (e1 ) f (e2 ) . . . f (en )
M

e01 ...
 
0 0 0
e02 
 0 0 ... 0  
MB1 ,B2 (f ) = ..  .. .. ..  .
SA

.  . . .  
e0p 0 0 ... 0
EN

Pr. A. TSOULI 37 Cours d’Algèbre 2


38 CHAPITRE 3. MATRICES
Ceci signifie que f (e1 ) = 0, . . . , f (en ) = 0. Donc, si x = λ1 e1 + . . . + λn en ∈ E, on aura

f (x) = λ1 f (e1 ) + . . . + λn f (en ) = 0,

c’est-à-dire f = 0. Donc f est injective. Par ailleurs, en utilisant le fait que L(E, F ) ' Mp,n (K), on
obtient
dim(L(E, F )) = dim(Mp,n (K)) = n × p.

CA
D’où le résultat.
Exemple 3.4 Soit E un espace vectoriel de dimension n et

idE : E −→ E

N
x 7−→ x.

Considérons une base B = {e1 , e2 , . . . , en }. On a

LA
idE (ei ) = ei , ∀i ∈ ~1, n.

Donc
... 0
 
1 0

MB (idE ) = B

 0

 ..

 . 0
1
...
.
0 ..


.

0 

SA
0 ... 0 1
Cette matrice est notée In ou tout simplement I et est appelée matrice unité de Mn (K).

Exemple 3.5 Soient E = R2 et


CA

pr1 : R2 −→ R2
(x, y ) 7−→ (x, 0).
M
SA
EN

Figure 3.1

Considérons la base canonique B = {e1 , e2 } de R2 avec e!1 = (1, 0) et e2 = (0, 1). On a pr1 (e1 ) = (1, 0) = e1
1 0
et pr1 (e2 ) = (0, 0) = 0e1 + 0e2 . Donc MB (pr1 ) = .
0 0

Pr. A. TSOULI 38 Cours d’Algèbre 2


Matrices associées aux applications linéaires 39
−→ −→
Exemple 3.6 Soient E = R2 et f la symétrie par rapport à l’axe Ox parallèlement à l’axe Oy. Soit
B = {e1 , e2 } la base canonique de E.

N CA
LA
Figure 3.2

!
1 0
On a f (e1 ) = e1 et f (e2 ) = −e2 . Donc MB (f ) = .
B 0 −1

Exemple 3.7 Dans le plan R2 rapporté à la base canonique B = {e1 , e2 }, on considère la rotation de
SA
centre O et d’angle θ. Comme le montre la Figure ci-dessous
CA
M
SA

Figure 3.3
EN

f (e1 ) = cos(θ )e1 + sin(θ )e2


f (e2 ) = − sin(θ )e1 + cos(θ )e2
!
cos(θ ) − sin(θ )
et donc MB (f ) = .
sin(θ ) cos(θ )

Pr. A. TSOULI 39 Cours d’Algèbre 2


40 CHAPITRE 3. MATRICES
Exemple 3.8 Soient B1 = {e1 , e2 } la base canonique de R2 et B2 = {e01 , e02 , e03 } la base canonique de
R3 . On considère l’application linéaire :

f: R3 −→ R2
(x, y, z ) 7−→ (x − y, z − y )
On a

CA
f (e01 ) = f (1, 0, 0) = (1, 0) = e1
f (e02 ) = f (0, 1, 0) = (−1, −1) = −e1 − e2
f (e03 ) = f (0, 0, 1) = (0, 1) = e2
Donc !
1 −1 0
MB2 ,B1 (f ) = .

N
0 −1 1

LA
3.2 Produit matriciel
Définition 3.2 Soient A = (aij ) ∈ Mp,n (K) et B = (bjk ) ∈ Mn,q (K). On appelle produit de matrices,
l’application :
Mp,n (K) × Mn,q (K) −→ Mp,q (K)
(aij ) , B
(bjk ) 7−→ C = (cik )
SA
où n
X
cik = ai1 b1k + ai2 b2k + . . . + ain bnk = aij bjk .
j =1

En d’autres termes, l’élément cik de la iième ligne et k ième colonne du produit C = AB est la somme
CA

des produits des éléments de la iième ligne de A par les éléments de même rang de la k ième colonne
de la matrice B. Brièvement, on dit que le produit de deux matrices s’effectue lignes par colonnes.
Voici le schéma de cette définition :
M
SA
EN

Figure 3.4

Pr. A. TSOULI 40 Cours d’Algèbre 2


3.2. PRODUIT MATRICIEL 41
Remarque 3.3 Le produit AB ne peut s’effectuer que si le nombre des colonnes de A est égal au
nombre des lignes de B.

Exemple 3.9
 
! 2 0 1 0
2 −1 1
1. Soient A = et B =  1 1 2 2  . On a
 
1 0 2

CA
1 2 1 0
 
! 2 0 1 0 !
2 −1 1 4 1 1 −2
AB =  1 1 2 2 =
 
.
1 0 2 4 4 3 0
1 2 1 0

N
     
2 3 ! 2 3 ! 11
1 1
2. Soient A = 
 4 1  et B =

. On a AB = 
 4 1 

=
 7 .

3 3

LA
0 2 0 2 6
! !
2 −1 1 4 1
3. Soient A = et B = . Alors le produit AB n’est pas défini. Tandis que
1 0 2 0 2
BA l’est.

Remarque 3.4
B 0 0
!
SA
1. On peut avoir AB = 0 sans que A ou B soient nulles. Par exemple pour A = et
1 0
! !
0 0 0 0
B= . On a AB = .
0 1 0 0
2. AB = AC avec A , 0 n’implique pas nécessairement B = C (c’est-à-dire,! en général on ne peut
CA

!
0 0 0 0
pas simplifier par A, même si A , 0). Par exemple pour A = et B = et
1 0 0 1
!
0 0
C= . On a AB = AC et pourtant B , C.
1 1
3. En général, on a AB , BA (c’est-à-dire : la multiplication entre matrices n’est pas commutative).
M

! !
0 0 0 0
Par exemple pour A = et B = . On a AB , BA.
1 0 0 1

Proposition 3.5
SA

1. La multiplication est associative, i.e.,

A(BC ) = (AB )C, ∀A ∈ Mp,n (K), B ∈ Mn,q (K), C ∈ Mq,m (K).


EN

2. La multiplication est distributive à gauche par rapport à l’addition, i.e.,

A(B + C ) = AB + AC, ∀A ∈ Mp,n (K), ∀B, C ∈ Mn,q (K).

3. La multiplication est distributive à droite par rapport à l’addition, i.e.,

(A + C )B = AB + CB, ∀A, C ∈ Mp,q (K), ∀B ∈ Mq,n (K).

Pr. A. TSOULI 41 Cours d’Algèbre 2


42 CHAPITRE 3. MATRICES
Remarque 3.5 Remarquons enfin que la multiplication est une loi interne sur l’ensemble Mn (K) des
matrices carrées d’ordre n, c’est-à-dire une application
Mn (K) × Mn (K) −→ Mn (K).

On vérifie immédiatement que la matrice In est l’élément neutre de la multiplication, i.e.,


∀A ∈ Mn (K), In A = AIn = A.

CA
Donc les lois de somme et de produit confèrent à Mn (K) une structure d’anneau unitaire non com-
mutatif.

3.2.1 Matrice d’un vecteur. Calcul de l’image d’un vecteur

N
Définition 3.3 Soient E un espace vectoriel de dimension n et B = {e1 , . . . , en } une base de E et

LA
x = x1 e1 + . . . + xn en
un vecteur de E. On appelle matrice de x dans la base B, la matrice colonne des composantes de x
dans la base B, i.e,  
x1
MB (x) = 
 . 
 .. 

B xn
SA
notée aussi M (x).
Exemple 3.10 Dans R2 , on considère
! le vecteur x = 3e1 − e2 avec B = {e1 , e2 } est la base canonique
3
de R2 . Alors MB (x) = .
CA

−1

Proposition 3.6 Soient E et F deux espaces vectoriels sur K et soient B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0p }
deux bases de E et F respectivement. Pour toute application f ∈ LK (E, F ) et pour tout x ∈ E, on
a:
MB2 (f (x)) = MB1 ,B2 (f )MB1 (x),
M

ou plus brièvement
M (f (x)) = M (f )M (x).
 
a11 . . . a1n
SA

 . .. 
Démonstration : On a MB1 ,B2 (f ) =  ..

 , ce qui veut dire que :
. 
ap1 . . . apn
p
a1i e1 + . . . + api e0p
0
aki e0k .
X
f ( ei ) = =
EN

k =1

On a
n n p p n
! p
aki e0k aki xi e0k = yk e0k .
X X X X X X
f (x) = f (x1 e1 + . . . + xn en ) = xi f (ei ) = xi =
i=1 i=1 k =1 k =1 i=1 k =1
| {z }
yk

Pr. A. TSOULI 42 Cours d’Algèbre 2


Produit matriciel. Matrice de l’inverse d’une application 43
Donc  
y1 n
 .  X
 .
MB2 (f (x)) =  .  avec yk =
 aki xi . (3.1)
i=1
yp
D’autre part

CA
 n
X

    a1i xi   
a11 . . . a1n x1  i=1
 
 y1
 . ..   . 
.   ..  =  ..
 ..  .
   
MB1 ,B2 (f )MB1 (x) = 
 . .  .   . 
 =  (3.2)
 n 
ap1 . . . apn xn  X  yp
 api xi 

N
i=1

Il s’ensuit de (3.1) et (3.2) que

LA
MB1 ,B2 (f )B1 M (x) = MB2 (f (x)).

Exemple 3.11 Soit le plan R2 rapporté à sa base canonique. Déterminer l’image du vecteur x = (3, 2)
π
par la rotation de centre O et d’angle .
6
B
SA
CA

Figure 3.5

On a
M

 √   √ 
3−2
cos( π6 ) − sin( π6 ) 3
− 21  3
! ! !
3 2 3 2√  .
M (f (x)) = M (f ).M (x) = = √ =
sin( π6 ) cos( π6 )

2 1 3 2 3+2 3
SA

2 2 2

3.2.2 Produit matriciel. Matrice de l’inverse d’une application


Proposition 3.7 Soient E, F et G trois espaces vectoriels de dimension finie sur le même corps K, et
EN

soient B1 = {e1 , . . . , en }, B2 = {e01 , . . . , e0p } et B3 = {e001 , . . . , e00q } des bases de E, F et G respectivement.


Si g ∈ L(E, F ) et f ∈ L(F , G). On a

MB1 ,B3 (f ◦ g ) = MB2 ,B3 (f )MB1 ,B2 (g ),

ou, plus brièvement


M (f ◦ g ) = M (f )M (g ).

Pr. A. TSOULI 43 Cours d’Algèbre 2


44 CHAPITRE 3. MATRICES
Démonstration : Soit x ∈ E arbitraire. En utilisant le résultat de la Proposition 3.6, on a
     
M (f ◦ g )M (x) = M (f ◦ g )(x) = M f (g (x)) = M (f )M g (x) = M (f )M (g )M (x).

Puisque x est arbitraire, donc


M (f ◦ g ) = M (f )M (g ).

CA
Définition 3.4 Une matrice carrée A ∈ Mn (K) est dite inversible, s’il existe une matrice A0 ∈ Mn (K)
telle que
AA0 = A0 A = In .
La matrice A0 est dite inverse de A et est notée A−1 .

N
! !
1 2 3 −2
Exemple 3.12 La matrice A = est inversible et son inverse est A−1 = , comme

LA
1 3 −1 1
on le vérifie immédiatement en effectuant les produits AA−1 et A−1 A.

Remarque 3.6

B
1. Il existe des matrices non inversibles, par exemple la matrice nulle. Mais la matrice nulle n’est
pas la seule matrice non inversible.
SA
! !
1 0 x y
2. Considérons par exemple la matrice A = . S’il existait une matrice A0 = telle
0 0 z t
! ! ! ! !
1 0 x y 1 0 x y 1 0
que AA0 = I2 , on aurait = c’est-à-dire = ce
0 0 z t 0 1 0 0 0 1
CA

qui évidemment impossible.

En fait, les matrices inversibles sont les matrices qui représentent les applications linéaires bijectives.
On a en effet :

Proposition 3.8 Soient E et F deux espaces vectoriels de dimension n sur le même corps K et soient
M

B1 = {e1 , . . . , en } une base de E et B2 = {e01 , . . . , e0n } une base de F . Une application linéaire
f : E −→ F est bijective (c’est-à-dire est un isomorphisme) si et seulement si MB1 ,B2 (f ) est inversible.
De plus, on a
SA

 −1
MB1 ,B2 (f ) = MB2 ,B1 (f −1 ),
ou, d’une manière plus concise
M (f −1 ) = M (f )−1 .
EN

Démonstration : On a f −1 ◦ f = idE ; d’où MB1 ,B1 (f −1 ◦ f ) = MB1 ,B1 (idE ). Donc, d’après la Proposition
3.7, on a
MB2 ,B1 (f −1 )MB1 ,B2 (f ) = In .
De même, on voit que
MB1 ,B2 (f )MB2 ,B1 (f −1 ) = In .

Pr. A. TSOULI 44 Cours d’Algèbre 2


Calcul de l’inverse d’une matrice 45
3.2.3 Calcul de l’inverse d’une matrice
Il existe différentes méthodes pour calculer l’inverse d’une matrice, sur lesquelles nous reviendrons.
Pour le moment, on peut retenir la suivante qui est d’ailleurs d’un usage courant.

Soient A ∈ Mn (K), x et x0 ∈ Kn et X, X 0 les matrices colonnes qui représentent x et x0 dans la


base canonique de Kn . Considérons l’équation matricielle :

CA
X 0 = AX. (3.3)

Si A est inversible, en multipliant les deux membres à gauche par A−1 , on obtient

A−1 X 0 = (A−1 A)X,

N
c’est-à-dire X = A−1 X 0 . Donc A−1 est la matrice du système obtenu en résolvant le système (3.3) en

LA
les composantes xi de x.
!
1 2
Exemple 3.13 Calculer l’inverse de la matrice A = .
1 3
x01 x01
! ! ! ! !
x1 1 2 x1
Écrivons l’équation matricielle (3.3) avec X = et X 0 = . On a =
ce qui est équivalent au système ( B x2

x01 = x1 + 2x2
x02 x02 1 3 x2
SA
x02 = x1 + 3x2 .
En résolvant en x1 et x2 , on trouve
x1 = 3x01 − 2x02
(

x2 = −x01 + x02 ,
CA

c’est-à-dire !
3 −2
X= X 0.
−1 1
!
3 −2
Donc A−1 = .
−1 1
M

Proposition 3.9 Soient A, B ∈ Mn (K) deux matrices inversibles. Alors

(AB )−1 = B −1 A−1 .


SA

Démonstration : On a

ABB −1 A−1 = A(BB −1 )A−1 = AIn A−1 = AA−1 = In


EN

et
B −1 A−1 AB = B −1 (A−1 A)B = B −1 In B = B −1 B = In .
Donc (AB )−1 = B −1 A−1 .
Définition 3.5 L’ensemble des matrices inversibles de Mn (K) est noté GL(n, K) et est dit groupe
linéaire.

Pr. A. TSOULI 45 Cours d’Algèbre 2


46 CHAPITRE 3. MATRICES

3.3 Changement de base


La matrice qui représente une application linéaire a été construite à l’aide d’un choix des bases
dans l’espace de départ et dans l’espace d’arrivée. Dans ce paragraphe, nous allons voir comment relier
deux matrices qui représentent la même application linéaire en des bases différentes.

CA
3.3.1 Matrice de passage
Soient E un espace vectoriel de dimension n et B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases
de E. Les vecteurs e0i s’écrivent comme combinaisons linéaires des vecteurs ei :
e01 = p11 e1 + p21 e2 + . . . + pn1 en

N
e02 = p12 e1 + p22 e2 + . . . + pn2 en
... ...........................

LA
e0n = p1n e1 + p2n e2 + . . . + pnn en .
Définition 3.6 On appelle matrice de passage de la base B1 = {e1 , . . . , en } à la base B2 = {e01 , . . . , e0n },
la matrice notée PB1 →B2 et est définie par
p11 p12 . . . p1n
 

B
PB1 →B2 = MB2 ,B1 (idE ) =





p21 p22 . . . p2n
..
.
..
.
..
.


.


SA
pn1 pn2 . . . pnn
On a, bien entendu PB1 →B2 = MB2 ,B1 (idE ) et PB2 →B1 = MB1 ,B2 (idE ).
Exemple 3.14 L’ensemble R2 muni de sa base canonique B1 = {e1 , e2 }. On pose e01 = 2e1 + 5e2 et
e02 = e1 + 7e2 . La matrice de passage de la base canonique B1 à la nouvelle base B2 = {e01 , e02 } est
CA

donnée par !
2 1
PB1 →B2 = .
5 7
Proposition 3.10
1. Propriété transitivité : PB1 →B2 PB2 →B3 = PB1 →B3 .
M

2. Les matrices de passage sont inversibles, et de plus, on a PB−11→B2 = PB2 →B1 .


Exemple 3.15 L’ensemble R2 muni de sa base canonique B1 = {e1 , e2 }. On pose e01 = 2e1 + 5e2 et
e02 = e1 + 7e2 et v1 = 2e01 − e02 et v2 = e01 + e02 . La matrice de passage de la base canonique B1 à la base
SA

B2 = {e01 , e02 } est donnée par : !


2 1
PB1 →B2 =
5 7
et la matrice de passage de la base B2 à la base B3 = {v1 , v2 } est donnée par :
EN

!
2 1
PB2 →B3 = .
−1 1
La matrice de passage de la base B1 à la base B3 = {v1 , v2 } est alors donnée par :
! ! !
2 1 2 1 3 3
PB1 →B3 = PB1 →B2 PB2 →B3 = = .
5 7 −1 1 3 12

Pr. A. TSOULI 46 Cours d’Algèbre 2


Action du changement de base sur les composantes d’un vecteur 47
3.3.2 Action du changement de base sur les composantes d’un vecteur
Proposition 3.11 Soient x ∈ E, B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases de l’espace vectoriel
E et soient P = PB1 →B2 ; X = MB1 (x) et X 0 = MB2 (x). Alors

X 0 = P −1 X.

CA
Démonstration. Soit x ∈ E de composantes (x1 , . . . , xn ) dans la base B1 = {e1 , . . . , en } et de compo-
santes (x01 , . . . , x0n ) dans la base B2 = {e01 , . . . , e0n }. Il est facile de déterminer les relations entre les xi
et x0i à l’aide de la matrice de passage PB1 →B2 . Notons

x01

N
   
x1
 .  0 .. 
 ..  = MB1 (x) et X : = 

X :=   
 = MB2 (x) et P = PB1 →B2 .
. 
x0n

LA
xn

On a
P X 0 = MB2 ,B1 (idE ) × MB2 (x) = MB1 (idE (x)) = MB1 (x) = X,
c’est-à-dire P X 0 = X, d’où X 0 = P −1 X.
B
Exemple 3.16 Soit R2 muni de deux bases : la base canonique B1 = {e1 , e2 } et la base B2 = {e01 , e02 }
SA
définie par
e01 = 2e1 + e2
(3.4)
e02 = 3e1 + 2e2 .
CA

!
2 3
Soit x = 2e1 + 3e2 . Pour calculer les composantes de x dans la base {e0 , e0 }.
1 2 On a P = et
1 2
! !
2 −3 2
P −1 = et X = . Donc
−1 2 3
! ! !
0 −1 2 −3 2 −5
M

X =P X= = .
−1 2 3 4

Donc x = −5e01 + 4e02 .


SA

3.3.3 Action du changement de base sur la représentation matricielle


Proposition 3.12 Soit f ∈ L(E, F ) et soient B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases de E
EN

et B3 = {v1 , . . . , vp } et B4 = {v10 , . . . , vp0 } deux bases de F . Notons

A = MB1 ,B3 (f ); A0 = MB2 ,B4 (f ); P = PB1 →B2 et Q = PB3 →B4 .

Alors, on a
A0 = Q−1 AP .

Pr. A. TSOULI 47 Cours d’Algèbre 2


48 CHAPITRE 3. MATRICES
Démonstration : Soit x ∈ E un vecteur arbitraire. On a
   
MB4 f (x) = Q−1 MB3 f (x) = Q−1 MB1 ,B3 (f )MB1 (x) = Q−1 AX (3.5)

où on a posé X = MB1 (x). D’autre part, si X 0 = MB2 (x), on aurait :


 
M f (x) = MB2 ,B4 (f )MB3 (x) = A0 X 0 = A0 P −1 X. (3.6)

CA
On déduit via (3.5) et (3.6) que
A0 P −1 X = Q−1 AX.
Comme x est arbitraire, cela implique que

N
A0 P −1 = Q−1 A.

D’où

LA
A0 = Q−1 AP .
Corollaire 3.1 Soit f ∈ L(E ) et B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases de E. Notons
A = MB1 (f ), A0 = MB2 (f ) et P = PB1 →B2 . Alors, on a

B
A0 = P −1 AP .

Définition 3.7 Deux matrices A, A0 ∈ Mn (K) sont dites semblables, s’il existe une matrice inversible
SA
P ∈ Mn (K) telle que
A0 = P −1 AP .

Remarque 3.7 Il est clair que deux matrices semblables représentent le même endomorphisme en des
CA

bases différentes.

Exemple 3.17 Soit f l’endomorphisme de R3 est représenté dans la base canonique B1 = {e1 , e2 , e3 }
par la matrice  
3 −1 1
A = MB1 (f ) =  0 2

0 .

M

1 −1 3
Déterminer la matrice A0 qui représente f dans la base {e01 , e02 , e03 }, où
SA

e01 = (1, 0, −1) = e1 − e3





e02 = (0, 1, 1) = e2 + e3
 0

e3 = (1, 0, 1) = e1 + e3 .
 
1 0 1
EN

0 − 1
On a A = P AP avec P =  0 1 0  . Alors P −1 = PB2 →B1 . Il s’agit donc d’exprimer e1 , e2 et

−1 1 1
e3 dans la base {e01 , e02 , e03 }. Or
e01 = e1 − e3



e0 = e2 + e3
 02

e3 = e1 + e3 .

Pr. A. TSOULI 48 Cours d’Algèbre 2


Action du changement de base sur la représentation matricielle 49
En résolvant en e1 , e2 et e3 , on obtient

1
e1 = (e01 + e03 )



2




 1
e2 = (e01 + 2e02 − e03 )

 2
1


= (−e01 + e03 ).

e3

CA



2
   
1 1 −1 2 0 0
1
Donc P −1 =  0 2 0  . En effectuant le produit A0 = P −1 AP , on trouve A0 =  0 2 0  .
  
2
1 −1 1 0 0 4

N
Remarque 3.8 Puisque A0 = M (f )B2 , ceci veut dire que f (e01 ) = 2e01 , f (e02 ) = 2e02 et f (e03 ) = 4e03 .
Comme d’ailleurs on le vérifie directement. On a, en effet

LA
f (e01 ) = f (e1 − e3 ) = f (e1 ) − f (e3 ).

Or f (e1 ) = 3e1 + e3 de même f (e3 ) = e1 + 3e3 . Donc f (e01 ) = 2e1 − 2e3 = 2e01 , etc.

B
SA
CA
M
SA
EN

Pr. A. TSOULI 49 Cours d’Algèbre 2


N CA
LA
D étermin ant
s

B
SA
CA
M
SA
EN

50
Chapitre 4

CA
Déterminants

N
LA
L e prin ci p al intér êt d e
s d étermin ant
s e
st d e fournir d e
s con diti on s ex
pli cite
s d'in d é-

p en d an ce lin éair e, en qu elqu e s orte d e


s formule
s qui p erm ettent d e s avoir si un e famille

d e vecteur s e
st libr e ou n on et au s si la r é
s oluti on d e
s sy
stèm e
s lin éair e
s.

4.1 Définition des déterminants par récurrence B


SA
Définition 4.1 Soit A = (aij ) ∈ Mn (K). On définit, par récurrence, une application :

det : Mn (K) −→ K
A 7−→ det(A)
CA

de la manière suivante :
 
1. Si n = 1, c’est-à-dire si A = a , on pose det(A) = a.

2. Si n > 1, notons Aij la matrice obtenue de A en supprimant la ième ligne et la j ème co-
lonne (c’est-à-dire la ligne et la colonne qui passent par l’élément aij . On pose alors (puisque
M

Aij ∈ Mn−1 (K)) :

det(A) = a11 (−1)1+1 det(A11 ) + . . . + a1k (−1)1+k det(A1k ) + . . . + a1n (−1)1+n det(A1n ).
SA

Le scalaire det(A) est dit déterminant de A et le déterminant de la matrice


 
a11 . . . a1n
 . .. 
EN

 .
 . . 

an1 . . . ann


a11 . . . a1n

est noté, habituellement par
.. ..
.

. .

an1 . . . ann

51
52 CHAPITRE 4. DÉTERMINANTS
Exemple 4.1 On a

4 −2

3
= 4 × (−1)1+1 × 5 + (−2) × (−1)1+2 × 3 = 20 + 6 = 26.
5


a c
Plus généralement = ad − bc.

CA
b d

Exemple 4.2 On a

1 −2 3
1 −1 2 −1 2 1
1 × ( −1 ) 1 + 1 + (−2) × (−1)1+2 + 3 × (−1)1+3

N
2 1 −1 =

5 1 1 1 1 5


1 5 1
= (1 + 5) + 2(2 + 1) + 3(10 − 1) = 39.

LA
Exemple 4.3 On a

2 −1

0 1
0 −2 8 1 −2 8
0 −2






1
3
−2 4
3 5
8
2
4 −5






=

2 × ( −1 ) 1 + 1 3


4 B 5 2
4 −5





+ ( −1 ) × ( −1 ) 1 + 2



3
−2
5 2
4 −5





SA


1 0 8


1 0 −2
1+3
+0 × (−1) 3 3 2 + 1 × ( −1 ) 1 + 4 3 3 5

−2 4 −5 −2 4

4
!
5 2 3 2 3 5
CA

= 2 0 × (−1)2 + (−2) × (−1)3 + 8 × ( −1 ) 4



4 −5 4 −5 4 4


!
5 2 3 2 3 5
+ 1 × ( −1 ) 2 + ( −2 ) × ( −1 ) 3 + 8 × ( −1 ) 4

4 −5 −2 −5 −2 4


3 5 3 5 3 3 
− 1 × ( −1 ) 2 + 0 × ( −1 ) 3 + (−2) × (−1)4

4 4 −2 4 −2 4


M

h i h i
= 2 2(−15 − 8) + 8(12 − 20) + (−25 − 8) + 2(−15 + 4) + 8(12 + 10)
h i
− (12 − 20) − 2(12 + 6)
= −55.
SA

Remarque 4.1 Il est clair que det(In ) = 1, det(0n ) = 0, ∀n ∈ N∗ .

La propriété fondamentale des déterminants est exprimée par le théorème suivant :


EN

Théorème 4.1 Le déterminant est 


une application linéaire, par rapport à chaque, colonne, c’est-à-dire :
a11 . . . a1k . . . a1n

 a
 21 . . . a2k . . . a2n 

si A =  . ..  , alors, ∀λ ∈ K, ∀k = 1, . . . , n, on a :
.. 

 .. . . 
an1 . . . ank . . . ann

Pr. A. TSOULI 52 Cours d’Algèbre 2


4.1. DÉFINITION DES DÉTERMINANTS PAR RÉCURRENCE 53


a11 . . . λa1k . . . a1n
a11 . . . a1k . . . a1n

a21 . . . λa2k . . . a2n
a21 . . . a2k . . . a2n
1.
.. .. .. = λ .. .. .. .
. . . . . .



an1 . . . λank . . . a nn
an1 . . . ank . . . a
nn


a11 ... a1 k ... a1n
a21 ... a2k ... a2n

CA

a11 . . . a1k . . . a1n

.. .. ..
a21 . . . a2k . . . a2n

. . .


2. = λ .. .. .. .

λaj 1 . . . λajk . . . λajn . . .


.. .. ..
an1 . . . ank . . . a1n

. . .



an1 . . . ank . . . a

N
nn

a11 . . . a1k + b1k . . . a1n






a11 . . . a1k . . . a1n



a11 . . . b1k . . . a1n

a21 . . . a2k + b2k . . . a2n a21 . . . a2k . . . a2n
a21 . . . b2k . . . a2n

LA

3.
.. .. .. = ..
.. .. +
.. .. .. .
. . . . . . . . .



an1 . . . ank + bnk . . . ann an1 . . . ank . . . ann
an1 . . . bnk . . . ann

4.
a11 ... a1k ... a1n a11 . . . a1k . . . a1n






..
.
aj 1 + bj 1 . . . ajk + bjk . . .
..
. B ..
.





ajn + bjn a
= j1

..

.



. . . a
..
.
jk . . . a
..
.
jn





SA


.. .. .. ..
.. ..

. . .


. . .


an1 ... ank ... ann an1 . . . ank . . . ann


a11 . . . a1k . . . a1n
CA



.. .. ..
. . .



+ bj 1 . . . bjk . . . bjn

.. .. ..

. . .


an1 . . . ank . . . ann
M

Remarque 4.2 Soient A ∈ Mn (K) et λ ∈ K. On a det(λA) = λn det(A).

Proposition 4.1 Si l’on échange entre elles deux colonnes ou deux lignes, le déterminant change de
SA

signe.

1 2 2 1
Exemple 4.4 On a = − .

3 8 8 3

EN



0 0 0 1 0

1 0 0 0 0


Exemple 4.5 Calculer ∆ =

0 0 0 0 1 .


0 1 0 0 0


0 0 1 0 0

Pr. A. TSOULI 53 Cours d’Algèbre 2


54 CHAPITRE 4. DÉTERMINANTS
On a
∆ = det(e2 , e4 , e5 , e1 , e3 ) = − det(e1 , e4 , e5 , e2 , e3 )
= det (e1 , e2 , e5 , e4 , e3 ) = − det(e1 , e2 , e3 , e4 , e5 )

1 0 0 0 0

0 1 0 0 0



= − 0 0 1 0 0
= − det(I5 )

CA

0 0 0 1 0


0 0 0 0 1
= −1.
Ces remarques permettent de démontrer le théorème principal, celui qui motive l’introduction de la
notion de déterminant.

N
Théorème 4.2 Soit A = (C1 , . . . , Cn ) ∈ Mn (K). Alors les vecteurs colonnes C1 , . . . , Cn de la matrice
A forment une base de Kn si et seulement si det(A) , 0.

LA
     
2 3 −2
Exemple 4.6 Soient v1 =   0  ; v2 =  1  et v3 =  2  trois vecteurs de R3 . Montrons que
    

−1 2 −3

B 2 3 −2
la famille {v1 , v2 , v3 } forme une base de R3 . On pose A =  0 1

−1 2 −3

2  . On a det(A) = −22 , 0.

SA
Alors la famille {v1 , v2 , v3 } est une base de R3 .

4.1.1 Transposée d’une matrice


CA

Définition 4.2 On appelle transposée d’une matrice A ∈ Mp,n (K) et de terme général, aij la matrice
notée t A ∈ Mn,p (K) obtenue en échangeant les lignes et les colonnes de même indice i de A i.e.,

A = (aij ) ⇔ t A = (aji ).
 
! 1 3
1 0 −2
. Alors t A =  0 4  .
M

Exemple 4.7 Soit A =


 
3 4 6
−2 6

Proposition 4.2 Soient A, B ∈ Mp,n (K) et α ∈ K. On a


SA

1. t ( t A)
= A.
2. t (αA)
= α t A.
3. t (A + B ) = t A + t B.
EN

 
! 1 3
1 0 −2 t
Exemple 4.8 Soit A = . Alors A =  0 4 

 . De plus
3 4 6
−2 6
!
t 1 0 −2
( t A) = = A.
3 4 6

Pr. A. TSOULI 54 Cours d’Algèbre 2


Transposée d’une matrice 55
Proposition 4.3 Soient A ∈ Mp,n (K) et B ∈ Mn,q (K). On a
t
(AB ) = t B t A.
Définition 4.3 Soit A ∈ Mn (K).
1. On dit que A est symétrique si t A = A.
2. On dit que A est antisymétrique si t A = −A.

CA
!
2 1
Exemple 4.9 1. Soit A = = t A. Donc A est une matrice symétrique.
1 3
 
0 1 −2
2. Soit A =  −1 0 3  . Il est clair que t A = −A. Donc A est une matrice antisymétrique.
 

N
2 −3 0

Remarque 4.3 Ou, d’une manière équivalente, (en prenant la contraposée) : Un déterminant est nul

LA
si et seulement si l’une des colonnes est combinaison linéaire des autres colonnes.
Théorème 4.3 Pour toute matrice A ∈ Mn (K), on a :
det( t A) = det(A).

Exemple 4.10 Soit A =


1 −2
3 5
!
B
. On a det(A) =

1

3

5

−2
= 11 et det( t A) =




−2 5

1 3
= 11.
SA
Donc det(A) = det( t A).
Théorème 4.4
1. Le déterminant est une fonction multilinéaire de chaque ligne.
CA

2. Si une matrice a deux lignes égales, le déterminant est nul.


3. Si l’on échange entre elles deux lignes, le déterminant change de signe.
4. Le déterminant d’une matrice est non nul si et seulement si les vecteurs lignes sont indépendants,
ou (d’une manière équivalente) : un déterminant est nul si et seulement si l’une des lignes est
une combinaison linéaire des autres lignes.
M

Exercice 4.1 Soit A une matrice antisymétrique d’ordre impair. Montrer que det(A) = 0.
 
a11 . . . a1n
 . .. 
 ..
Solution. La matrice A =   est antisymétrique, alors
SA

. 
an1 . . . ann
 
−1 × a11 . . . −1 × a1n
t 
A = −A =  .. .. 
.

. .
EN


−1 × an1 . . . −1 × ann
De plus, det(A) = det( t A) = det(−A) = (−1)n det(A), où n est l’ordre de la matrice A. Comme n
est impair, alors
det(A) = (−1)n det(A) = − det(A).
On en déduit que det(A) = 0. r
3

Pr. A. TSOULI 55 Cours d’Algèbre 2


56 CHAPITRE 4. DÉTERMINANTS

4.2 Calcul des déterminants


Nous avons déjà calculé le déterminant par le développement selon la 1ère ligne. Compte tenu du
fait que si l’on échange entre elles des lignes le déterminant est le même au signe près.
 
a11 . . . a1n

CA
 . .. 
 ..
Définition 4.4 Soit A =  .  ∈ Mn (K). On appelle cofacteur de l’élément aij le sca-
an1 . . . ann
laire :
cof (aij ) := (−1)i+j det(Aij )

N
où Aij est la matrice obtenue en supprimant la ième ligne et la j ème colonne.
 
1 0 −3

LA
Exemple 4.11 Soit A =  2 4 −2 

.

5

− 1 3
4 −2 2 −2 2 4
Alors cof (1) = + = 10; cof (0) = − = 10 et cof (−3) = + = −22.

−1 3 5 3 5 −1

Remarque 4.4 Le signe (−1)i+j dans la B


définition de cofacteur est déterminé par le schéma suivant
SA
(schéma en damier) :
+ − + − +
 
...
 − + − + − ...
 

 + − + − + ...
 

 .
 − + − + − ...
CA


 
 + − + − + ...
 

... ... ... ... ... ...

Théorème 4.5 On a les formules suivantes


1. Développement du déterminant selon la j ème ligne :
M

det(A) = aj 1 cof (aj 1 ) + aj 2 cof (aj 2 ) + . . . + ajn cof (ajn ).

2. Développement du déterminant selon la j ème colonne :


SA

det(A) = a1j cof (a1j ) + a2j cof (a2j ) + . . . + anj cof (anj ).
 
1 −2 3
EN

Exemple 4.12 Soit A =  2 1 0 .


 

1 −1 2

1. Développons A selon la 3ème ligne :



−2 3 1 3 1 −2
det(A) = 1 − (−1) +2 = −3 − 6 + 10 = 1.

1 0 2 0 2 1

Pr. A. TSOULI 56 Cours d’Algèbre 2


4.2. CALCUL DES DÉTERMINANTS 57
2. Développons A selon la 3ème colonne :

2 1 1 −2
det(A) = 3

+2

= −9 + 10 = 1.
1 −1 2 1

Le calcul d’un déterminant ne présente pas de difficulté, mais il peut être très long. On utilise pour
cela la propriété suivante :

CA
Proposition 4.4 Le déterminant ne change pas si à une ligne (respect, à une colonne) on ajoute
une combinaison linéaire des autres lignes (respect, des autres colonnes). Autrement dit pour toute
matrice A ∈ Mn (K) ayant les colonnes C1 , C2 , . . . , Cn et des lignes L1 , L2 , . . . , Ln . On note A0 la
matrice obtenue par une des opérations élémentaires sur les colonnes et sur les lignes, qui sont :
n
λj Cj avec λj ∈ K (i , j ) et la matrice A0 est obtenue en ajoutant à une colonne
X
1. Ci ← Ci +

N
j =1
de A un multiple d’une autre colonne de A. Alors det(A0 ) = det(A).

LA
n
λj Lj avec λj ∈ K (i , j ). Alors le déterminant ne change pas.
X
2. Li ← Li +
j =1
Remarque 4.5 La méthode pratique pour le calcul des déterminants consiste à utiliser la propriété
ci-dessus de manière à faire paraître le plus possible de zéros sur les lignes ou sur les colonnes.





1 −2
1 −1
1 3 4
0 2 4
B
SA
Exemple 4.13 Calculer ∆ =


2 1 3 1 2 .

−1 0 1 1 3
1 −1 1 3

0
En utilisant les opérations élémentaires suivantes : L2 ← L2 − L1 ; L3 ← L3 − 2L1 et L4 ← L4 + L1 ,
on obtient
CA
M

1 −1 −1


0
5 1 −5 −6
SA


En développant selon la première colonne : ∆ = . En utilisant les opérations

−2 2 4 7



1 −1 1 3
élémentaires suivantes : C2 ← C2 + C1 et C3 ← C3 + C1 , on obtient
EN

Pr. A. TSOULI 57 Cours d’Algèbre 2


58 CHAPITRE 4. DÉTERMINANTS
En développant selon la première ligne :

6 0
−6
2 7


∆= 0 2 7 = 6 = 6(6 − 14) = −48.

2 3


0 2 3

4.2.1 Déterminant du produit de matrices

CA
Théorème 4.6 Pour toutes matrices A, B ∈ Mn (K), on a
det(AB ) = det(A) det(B ).

Corollaire 4.1 Soit A ∈ Mn (K) est inversible si et seulement si det(A) , 0 et l’on a alors

N
1
det(A−1 ) = .

LA
det(A)

Démonstration : Supposons que A est inversible. Il existe alors A−1 ∈ Mn (K) telle que AA−1 = In ;
d’où det(AA−1 ) = det(In ) = 1 et par conséquent
det(A) det(A−1 ) = 1.

Donc det(A) , 0 et det(A−1 ) =


1
.
B
SA
det(A)
Réciproquement, soit A = (C1 , C2 , . . . , Cn ) et supposons que det(A) , 0. Les vecteurs colonnes de
la matrice A forment donc une base de Kn et A est la matrice de passage de la base canonique B1
à la base B2 = {C1 , C2 , . . . , Cn } telle que A = PB1 →B2 . Or, on sait que les matrices de passage sont
inversibles, donc A est inversible. r 3
CA

Corollaire 4.2 Soient A et A0 sont deux matrices semblables. Alors det(A) = det(A0 ).
Démonstration : En effet, puisque A0 = P −1 AP , on a
det(A) det(P )
det(A0 ) = det(P −1 AP ) = det(P −1 ) det(A) det(P ) = = det(A).
det(P )
M

4.3 Calcul de l’inverse d’une matrice


SA

Définition 4.5 La comatrice d’une matrice A ∈ Mn (K) est la matrice obtenue de A en remplaçant
chaque élément par son cofacteur et est notée com(A). La comatrice est aussi appelée matrice des
cofacteurs et est notée cof (A).
EN

! !
1 2 3 −4
Exemple 4.14 Soit A = . On a cof (A) = .
4 3 −2 1

Théorème 4.7 Soit A ∈ Mn (K). Alors, si A est inversible (c’est-à-dire det(A) , 0), on a
t cof (A)
A−1 = . (4.1)
det(A)

Pr. A. TSOULI 58 Cours d’Algèbre 2


Caractérisation des bases 59
Définition 4.6 La transposée de la matrice des cofacteurs des éléments aij de A, notée par adj(A),
est appelée adjointe classique de A.
!
1 2
Exemple 4.15 Soit A = . On a det(A) = 5 , 0, donc A est inversible. On a cof (3) = 1,
−1 3
!
3 1
cof (−1) = −2, cof (2) = 1, cof (1) = 3. Donc cof (A) = et
−2 1

CA
t cof (A)
!
−1 1 3 −2
A = = .
det(A) 5 1 1
! !
a b 1 d −b
Plus généralement, si A = , ad − bc , 0, on a A−1 = .

N
c d ad − bc −c a
 
1 2 0

LA
Exemple 4.16 Soit A =  −1 3 0  , on a det(A) = −3 − 2 = −5 , 0, donc A est inversible. Les
 

0 1 −1
cofacteurs des coefficients de la première ligne sont

3 1 −1 0 −1 3
cof (1) =

= −3, cof (2) = −
= −1, cof (0) =
= −1.
0

−1

Après calcul des autres cofacteurs, on trouve B 0 −1





0 1

SA
 
−3 2 0
1
A−1 = −  −1 −1 0  .

5
−1 −1 5
CA

4.3.1 Caractérisation des bases


Nous avons déjà vu le théorème fondamental qui affirme que les vecteurs {v1 , . . . , vn } de Kn forment
une base si et seulement si
det(v1 , . . . , vn ) , 0.
Ce résultat s’étend immédiatement à un espace vectoriel quelconque E de dimension finie. En effet,
M

le choix d’une base {e1 , . . . , en } de E permet d’identifier E à Kn par l’isomorphisme.


φ: E −→ Kn
x = x1 e1 + . . . + xn en 7−→ (x1 , . . . , xn ).
SA

Puisque φ est un isomorphisme, les vecteurs v1 , . . . , vn forment une base de E si et seulement si les
vecteurs φ(v1 ), . . . , φ(vn ), c’est-à-dire les composantes des vecteurs vi , forment une base de Kn et plus
généralement :
rg{v1 , . . . , vn } = rg{φ(v1 ), . . . , φ(vn )}.
EN

Théorème 4.8 Soit E un espace vectoriel de dimension n. Les vecteurs {v1 , . . . , vn } de E forment une
base si et seulement si
det(v1 , . . . , vn ) , 0,
où (v1 , . . . , vn ) désigne la matrice dont les colonnes sont les composantes des vecteurs v1 , . . . , vn dans
une base B = {e1 , . . . , en } (quelconque) de E.

Pr. A. TSOULI 59 Cours d’Algèbre 2


60 CHAPITRE 4. DÉTERMINANTS
Exemple 4.17 Soit f : R1 [X ] −→ R2 une application linéaire définie
par f (P (X )) = (a, b) avec
1 0
P (X ) = a + bX. Montrons que {1, X} est une base de R1 [X ]. On a = 1 , 0. Donc {1, X} est

0 1
une base de R1 [X ].

CA
4.3.2 Comment reconnaître si une famille de vecteurs est libre
Définition 4.7 On appelle mineur d’ordre r d’une matrice A le déterminant d’une matrice d’ordre r
extraite de A obtenue en choisissant r lignes et r colonnes.

N
Exemple 4.18 Par exemple, en choisissant la 2ème et 3ème ligne et la 2ème et 4ème colonne dans la
matrice suivante

LA
 
1 2 7 3 2
3 4
 

 0 5 1 


 2 1 3 6 1


2 1 −1 3 2

on obtient le mineur δ =

3 4
= 14.
B
SA

1 6

Théorème 4.9 Soient {v1 , . . . , vr } une famille de r vecteurs d’un espace vectoriel E de dimension n
CA

(r ≤ n) et A = (v1 , . . . , vr ) la matrice dont les colonnes sont les composantes des vecteurs v1 , . . . , vr
dans une base quelconque de E. La famille {v1 , . . . , vr } est libre si et seulement si on peut extraire de
A un mineur d’ordre r non nul.

     
1 0 1
2 1 5
     
M

     
     
Exemple 4.19 Les vecteurs v1 = 
 3 ,
 v2 = 
 2 
 et v3 = 
 9 
 forment une famille libre de

 3 


 4 


 −2 

5 0 0
SA

R5 , car dans la matrice


 
1 0 1
2 1 5
 
 
 
A= 3 2 9 ,
EN


 

 3 4 −2 

5 0 0

3 2 9

par exemple le mineur δ = 3 4

−2
= −210 est non nul.

5 0 0

Pr. A. TSOULI 60 Cours d’Algèbre 2


4.4. SYSTÈMES D’ÉQUATIONS LINÉAIRES 61

4.4 Systèmes d’équations linéaires


Définition 4.8 Un système d’équations linéaires à n équations et p inconnues (x1 , x2 , . . . , xp ) peut
s’écrire sous la forme :
a11 x1 + a12 x2 + . . . + a1p xp = b1



a21 x1 + a22 x2 + . . . + a2p xp = b2

CA


.. .. .. .. (4.2)



 . . . .
an1 x1 + an2 x2 + . . . + anp xp = bn .

i) Si n = p, on dit que le système est carré d’ordre n.

N
ii) Si b1 = b2 = . . . = bn = 0, on dit que le système (4.2) est homogène.
iii) Le système obtenu en remplaçant les bi par 0 :

LA
a11 x1 + a12 x2 + . . . + a1p xp = 0



a21 x1 + a22 x2 + . . . + a2p xp = 0



.. .. .. .. (4.3)



 . . . .
an1 x1 + an2 x2 + . . . + anp xp = 0

est appelé système homogène associé à (4.2). B


SA
Exemple 4.20 Le système (
x + 2 y − 5z = 1
−x + 3y + 2z = −9
est un système de 2 équations et 3 inconnues de système homogène associé
CA

(
x + 2y − 5z = 0
−x + 3y + 2z = 0.

Exemple 4.21
1. Le système
M



 x + 2y − 3z + 4t = −3
3x − 6y + z + 5t = 11
2 y + 5z − t = 0


SA

est un système de 3 équations et 4 inconnues x, y, z et t. Le système homogène associé est




 x + 2y − 3z + 4t = 0
3x − 6y + z + 5t = 0
EN

2y + 5z − t = 0.

2. Le système
+ y − 3z = 11


 2x
x − 4y + 9z = −2




 −12x + 11y + 2z = −1
7x + 3y + z = 0

Pr. A. TSOULI 61 Cours d’Algèbre 2


62 CHAPITRE 4. DÉTERMINANTS
est un système de 4 équations et 3 inconnues x, y et z. Le système homogène associé est

+ y − 3z =


 2x 0
x − 4y + 9 z =

 0


 −12x + 11y + 2z = 0
7x + 3y + z = 0.

CA
4.4.1 Systèmes compatibles, systèmes équivalents
Définition 4.9 (Système compatible) On appelle une solution du système (4.2) tout p−uplet (x1 , . . . , xp )
de Rp vérfiant le système (4.2).

N
Exemple 4.22 Le système (
x + 2 y − 5z = 1

LA
(4.4)
−x + 3y + 2z = −9
est un système de 2 équations et 3 inconnues (x, y, z ). On a (2, −3, −1) est une solution de (4.4).

Définition 4.10 Un système est dit compatible, s’il admet au moins une solution, sinon on dit qu’il
est incompatible.
B
SA
Remarque 4.6 Il est clair que (0, 0, . . . , 0) ∈ Rp est une solution du système homogène (4.3), donc
(4.3) est toujours compatible.

Définition 4.11 (Systèmes équivalents) On dit que deux systèmes sont équivalents, s’ils ont le même
ensemble de solutions.
CA

4.4.2 Méthode de Cramer


Définition 4.12 Un système carré de n équations et n inconnues est dit système de Cramer, s’il admet
une unique solution.
M

Considérons le systéme d’équations linéaires à n équations et n inconnues suivant

a11 x1 + a12 x2 + . . . + a1n xn = b1



SA



a21 x1 + a22 x2 + . . . + a2n xn = b2



.. . (4.5)
 .


 = ..
an1 x1 + an2 x2 + . . . + ann xn = bn .

EN

Ce systéme peut aussi s’écrire sous forme matricielle AX = B où

a11 a12 . . . a1n x1 b1


     
 a21 a22 . . . a2n   x2   b2 
∈ Mn ( K ) , X =
     
A= 
.. .. ..  
.. , B= 
.. .
. . . . .
     
     
an1 an2 . . . ann xn bn

Pr. A. TSOULI 62 Cours d’Algèbre 2


Méthode de Cramer 63
Définissons la matrice Aj ∈ Mn (K) par

a11 . . . a1,j−1 b1 a1,j +1 . . . a1n


 

 a21 . . . a2,j−1 b2 a2,j +1 . . . a2n 

Aj =  .. .. .. .. .. .
. . . . .
 
 
an1 . . . an,j−1 bn an,j +1 . . . ann

CA
Autrement dit, Aj est la matrice obtenue en remplaçant la j ème colonne de A par le second membre
B. La règle de Cramer va nous permettre de calculer la solution du système dans le cas où det(A) , 0
en fonction des déterminants des matrices A et Aj .

N
Théorème 4.10 (Règle de Cramer).
Soit
AX = B (4.6)

LA
un système de n équations à n inconnues. On a trois cas se présentent :
1. Si det(A) , 0. Alors l’unique solution (x1 , x2 , . . . , xn ) du système (4.6) est donnée par :

det(Aj )
xj =
B det(A)
, 1 ≤ j ≤ n.
SA
2. Si det(A) = 0 et det(Aj ) = 0, ∀j ∈ ~1, n. Alors le système (4.6) admet une infinité des
solutions.
3. Si det(A) = 0 et ∃j0 ∈ ~1, n tel que det(Aj0 ) , 0. Alors le système (4.6) n’admet pas de
solution.
CA

Exemple 4.23 Résolvons le système suivant :




 x + 2z =6
−3x + 4y + 6z = 30
−x − 2y + 3z


= 8.
M

On a
       
1 0 2 6 6 0 2 1 6 2
SA

A =  −3 4 6  , B =  30  , A1 =  30 4 6  , A2 =  −3 30 6  ,
       

−1 −2 3 8 8 −2 3 −1 8 3
 
1 0 6
EN

A 3 =  −3 4 30  , det(A) = 44, det(A1 ) = −40, det(A2 ) = 72, det(A3 ) = 152.


 

−1 −2 8
det(A1 ) 40 10 det(A2 ) 72 18
La solution est alors donnée par : x = = − = − , y = = = et
det(A) 44 11 det(A) 44 11
det(A3 ) 152 38
z= = = .
det(A) 44 11

Pr. A. TSOULI 63 Cours d’Algèbre 2


64 CHAPITRE 4. DÉTERMINANTS
4.4.3 Systèmes échelonnés
Exemple 4.24 Résoudre le système suivant :
 
−1−y +2z
 2x = −1 − y + 2z x = 45
 
 2x + y − 2z = −1  x =
 
   2 

2+z

2y − z = 2 ⇐⇒

y = 2
⇐⇒  y = 5
2
⇐⇒  y = 52

2z = 6 
z = 3  z =

3  z = 3.

CA
 
5 5
Donc le système admet une unique solution 4, 2, 3 .

Définition 4.13 Un système est échelonné si le nombre de coefficients nuls commençant une ligne

N
croît strictement ligne après ligne :

 a1j1 xj1 + ... + ... + ... + . . . + a1p xp = b1

LA

a2j2 xj2 + + + . . . + a2p xp = b2




 ... ...

a3j3 xj3 + ... + . . . + a3p xp = b3

 .. ..
. .






arjr xjr + . . . + arp xp = br

B
avec a1j1 , a2j2 , . . . , arjr des réels tous non nuls, appelés les pivots. Les éléments xj1 , xj2 , . . . , xjr sont
appelés des inconnues principales et les autres sont appelés les inconnues secondaires.
SA
Exemple 4.25
1. Pour le système (
2x + y − 2z + t = 7
CA

5z + 6t = −3
les éléments x et z sont les inconnues principales, y et t les inconnues secondaires.
2. Pour 3x + 2y − z = 1, x est une inconnue principale et les autres sont secondaires.
M

4.5 Méthode du pivot de Gauss


4.5.1 Opérations élémentaires
SA

Définition 4.14 On appelle opération élémentaire une des trois opérations suivantes :
1. Echanger la iéme ligne et la j éme ligne. Autrement dit L ←→ L . i j
2. Multiplier une ligne Li par un scalaire non nul α. Autrement dit Li ←− αLi .
EN

3. Ajouter à une ligne Li une autre ligne Lj multipliée par un scalaire α. Autrement dit Li ←− Li + αLj
avec i , j.

Remarque 4.7 Attention il est essentiel de ne pas modifier la ligne Lj .

Proposition 4.5 Les opérations élémentaires transforment un système en un système équivalent.

Pr. A. TSOULI 64 Cours d’Algèbre 2


Méthode du pivot de Gauss 65
4.5.2 Méthode du pivot de Gauss
Définition 4.15 La méthode du pivot de Gauss consiste à obtenir un système échelonné équivalent
en utilisant les opérations élémentaires.
Exemple 4.26 On a
 
x + y − z = 7 x +
y − z = 7

CA

 

x + 5y = 3 ⇐⇒ 4y + z = −4 L2 ← L2 − L1
2x + y − z = 1 − y + z = −13 L3 ← L3 − 2L1

 

 x + y − z = 7


⇐⇒  + 4y + z = −4

N
5

4 z = −14 L3 ← L3 + 41 L2
x = 7−y+z



⇐⇒  4y = −4 − z = 19

LA

z = −16 L3 ← 43 L3

−63


 x = 5 − 19
4 − 16 = 4
⇐⇒  y = 3−z = 19
4
z = −16.
 

B

Ainsi le système possède une unique solution − 63 19
4 , 4 , −16 .

SA
Exemple 4.27 On a
 

 x + y + 3z + 2t = −2 
 x + y + 3z + 2t = −2
2x + 3y + 4z + t = −1 ⇐⇒ y − 2z − 3t = 3 L2 ← L2 − 2L1
CA

3x + 7y + z − 6t = 6 4y − 8z − 12t = 12 L3 ← L3 − 3L1

 

 x + y + 3z + 2t = −2


⇐⇒ y − 2z − 3t = 3
L3 ← 41 L3


y − 2z − 3t = 3

 x + y + 3z + 2t = −2

⇐⇒ y − 2z − 3t = 3
M

L3 ← L3 − L2


0 = 0
(
x + y = −2 − 3z − 2t
⇐⇒
y = 3 + 2z + 3t
SA

(
x = −2 − 3z − 2t − y
⇐⇒
y = 3 + 2z + 3t
(
x = −2 − 3z − 2t − 3 − 2z − 3t
⇐⇒
y = 3 + 2z + 3t
EN


 x = −5 − 5z − 5t

⇐⇒ z, t ∈ R.


y = 3 + 2z + 3t

Alors le système admet une infinité de solutions (−5 − 5z − 5t, 3 + 2z + 3t, z, t) où z et t sont deux
paramètres quelconque.

Pr. A. TSOULI 65 Cours d’Algèbre 2


66 CHAPITRE 4. DÉTERMINANTS
i) Pour z = 0 et t = 0 le vecteur (−5, 3, 0, 0) est une solution du système.
ii) Pour z = 1 et t = −2 le vecteur (0, −1, −2, 1) est une solution du système.

Exemple 4.28 Résoudre le système suivant :

+ y − z = 7


 x

CA
x + 5y = 3




 2x + y − z = 1
3x + y + z = −2.

On a

N
+ y − z = 7 x + − z = 7
 

 x 
 y
x + 5y = 3 4y + z = −4 L2 ← L2 − L1

 

⇐⇒

LA


 2x + y − z = 1 

 − y + z = −13 L3 ← L3 − 2L1
3x + y + z = −2 − 2y + 4z = −17 L4 ← L4 − 3L1
 




x + y − z = 7

 4y + z = 3
⇐⇒ 3
4z = −12 L3 ← L3 − 41 L2





B 
9

x = 5−y+z
3 1
2 z = −17 + 2 L4 ← L4 + 2 L2
SA


4y = 3 − z = 19



⇐⇒



z = −16 L3 ← 43 L3
−62
z = L4 ← 92 L4


27
−63
x = 5 − 19

4 − 16 =
CA

4



19
y = 3−z =


⇐⇒ 4


 z = −16
−62

0 = 27 + 16 L4 ← L4 − L1 .

Donc le système est incompatible, ainsi l’ensemble des solutions est vide .
M
SA
EN

Pr. A. TSOULI 66 Cours d’Algèbre 2

Vous aimerez peut-être aussi