Vous êtes sur la page 1sur 56

College de Paris Supérieur Togo

Algèbre Mathématiques
Kokou Essiomle, Ph.D

23 octobre 2023
Table des matières

1 Espaces Vectoriels 3
1.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Sous-espace vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Familles génératrices, familles libres, familles liées, Bases . . . . . . . . . . . . . . . 6
1.3.1 Familles génératices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Familles libres-Familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Bases et dimensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Applications linéaires 11
2.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Application linéaire et indépendance linéaire . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Noyau, Image et Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . 14

3 Matrices 18
3.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.1 Addition de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.2 Multiplication d’une matrice par un scalaire . . . . . . . . . . . . . . . . . . . 19
3.3.3 Multiplication des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.4 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.4 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4.1 Cas particuliers de matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4.2 Opérations sur les matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . 23
3.4.3 Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.5 Représentation d’une application linéaire par une matrice . . . . . . . . . . . . . . . 25
3.5.1 Caractérisation d’une application linéaire . . . . . . . . . . . . . . . . . . . . 25
3.5.2 Regles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6 Changement de base et matrice d’un endomorphisme . . . . . . . . . . . . . . . . . 31
3.6.1 Matrice de changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6.2 Changement de base et son influence sur la matrice d’un endomorphisme. . 34
3.6.3 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

4 Déterminant d’une matrice 38


4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Propriétés fondamentales du déterminant d’une matrice d’ordre n . . . . . . . . . . 40
4.4 Inverse d’une matrice et déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.5 Utilisation du déterminant pour le calcul de l’inverse d’une matrice . . . . . . . . . 42

1
5 Diagonalisation 44
5.1 Valeurs et vecteurs propre d’un endomorphisme . . . . . . . . . . . . . . . . . . . . 44
5.2 Diagonalisation d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3 Diagonalisation d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

6 Système d’equations linéaires 52


6.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2 Existence de la solution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.3 Système de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.4 Résolution d’un système d’équation linéaire . . . . . . . . . . . . . . . . . . . . . . . 54
6.4.1 Résolution d’un système de Cramer . . . . . . . . . . . . . . . . . . . . . . . . 54
6.4.2 Résolution d’un système linéaire par la méthode de Gauss . . . . . . . . . . . 54

2
Chapitre 1
Espaces Vectoriels

1.1 Définitions et propriétés


Définition 1.1. Soit E un ensemble non vide muni d’une loi de composition interne notée ∗ et
d’une loi de composition externe notée ·, est un espace vectoriel lorsque les propriétés suivantes
sont vérifiées :
A1 ∀u, v, w ∈ E, (u ∗ v) ∗ w = u ∗ (v ∗ w) (associativité).
A2 Il existe un vecteur de E, noté e et appelé vecteur neutre tel que u ∗ e = e ∗ u = u ∀u ∈ E.
A3 Pour chaque vecteur u ∈ E, il existe un vecteur de E noté u −1 tel que u ∗ u −1 = e (l’élément
symetrique).
A4 ∀(u, v) ∈ E2 , u ∗ v = v ∗ u (commutativité).
A5 ∀u ∈ E, 1 · u = u.
A6 ∀λ ∈ R, ∀(u, v) ∈ E2 , λ · (u ∗ v) = λ · u ∗ λ · v.
A7 ∀(λ, µ) ∈ R2 , ∀u ∈ E, (λ ∗ µ) · u = λ · u ∗ µ · u
A8 ∀(λ, µ) ∈ R2 , ∀u ∈ E, λ · (µ · u) = (λ × µ) · u.
Remarque 1.1.

1. On appelle par vecteur tout élément d’un espace vectoriel E et par scalaire tout nombre
réel.
2. Lorsque E muni de la loi de composition interne satisfait les propriétés A1 − A4 , on dit dit
que E est un groupe commutatif
Exemple 1.1.

1. (Rn , +, ·) est un espace vectoriel. L’addition et la multiplication par un scalaire sont définies
par :
(x1 , x2 , · · · , xn ) + (y1 , y2 , · · · , yn ) = (x1 + y1 , x2 + y2 , · · · , xn + yn )
λ · (x1 , x2 , · · · , xn ) = (λx1 , λx2 , · · · , λxn ) .
2. On désigne par F(R, R) l’ensemble des fonctions de R à valeur dans R muni des lois + et ·
avec ∀f , g ∈ F(R, R), f + g ∈ F(R, R) est définie par
(f + g)(x) = f (x) + g(x),

et λ · f est définie par :


(λ · f )(x) = λ × f (x).
Alors (F(R, R), +, ·) est un espace vectoriel.

3
Proposition 1.1. Soit E un espace vectoriel. Alors,
(i) ∀λ ∈ R, λ · 0 = 0 ;
(ii) ∀x ∈ E, 0 · x = 0 ;
(iii) ∀λ ∈ R et ∀u ∈ E : λ · u = 0 =⇒ λ = 0 ou u = 0 ;
(iv) ∀λ ∈ R∗ et ∀u, v ∈ E : λ · u = λ · v =⇒ u = v ;
(v) ∀λ, µ ∈ R et ∀u ∈ E et u , 0 : λ · u = µ · u =⇒ λ = µ ;
(vi) ∀λ ∈ R et ∀u ∈ E : λ · (−u) = (−λ) · u = −(λ · u).

Preuve 1.1.

(i) Soit λ ∈ R, alors d’aprés l’axiome (A6 ), on déduit que λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0. Il s’en suit
que λ · 0 = 0.
(ii) Soit u ∈ E, alors d’aprés l’axiome (A7 ), on a 0 · u = (0 + 0) · u = 0 · u + 0 · u. Il s’en suit que
0 · u = 0.
(iii) Soit λ ∈ R et u ∈ E tel que λ · u = 0.
— Supposons que λ , 0 et montrons que −1 −1
  u = 0. En effet, on a λ ·(λ·u) = λ ·0 = 0. D’aprés
l’axiome (A8 ) on déduit que λ−1 λ · u = 0, donc 1 · u = 0. Par suite à partir de l’axiome
(A5 ) on déduit que u = 0.
— Supposons que u , 0 et montrons  que λ = 0. Supposons le contraire, ç.a.d λ , 0, alors
−1 −1
λ · (λ · u) = 0 et donc λ λ · u = 0, par suite 1 · u = u = 0 ce qui est en contradiction
avec l’hypothèse u , 0. Donc si u , 0 alors λ = 0.
(iv) Soit ∗ −1 −1
 λ ∈R et u,
 v ∈ E tel que λ · u = λ · v. Donc λ · (λ · u) = λ · (λ · v) ce qui est equivalent
−1 −1
a λ λ · u = λ λ · v, donc 1 · u = 1 · v. D’où u = v.
(v) Soient λ, µ ∈ R et u ∈ E\{0} tel que λu = µu, montrons que λ = µ. On a

(λ − µ) · u = λ · u + (−µ) · u = µ · u + (−µ) · u = (µ + (−µ)) · u = 0 · u = 0.

Comme u , 0 donc λ − µ = 0 d’où λ = µ.


(vi) On a

λ · u = λ · ((u + u) − u) = λ · (u + u) + λ · (−u) = λ · u + λ · u + λ · (−u)

Par suite λ · u + λ · (−u) = 0, il s’en suit que λ · (−u) = −(λ · u). D’autres part, (−λ) · u + λ · u =
(−λ + λ) · u = 0, donc (−λ) · u = −(λ · u). Finalement on a donc établit

(−λ) · u = λ · (−u) = −(λ · u).

Exercise
On désigne par E l’ensemble des nombres réels strictement positifs : E = {x ∈ R : x > 0}. On
définit sur E deux lois ∗ et · par : ∀x, y ∈ E et λ ∈ R

x ∗ y = xy et λ · x = xλ
Montrer que (E, ∗, ·) est un espace vectoriel.

4
1.2 Sous-espace vectoriels.
Définition 1.2. Soient E un espace vectoriel et F un sous-ensemble de E. Alors, F est un sousespace
vectoriel de E si et seulement si :
(i) 0 ∈ F ;
(ii) F est stable pour l’addition vectorielle, ç.a.d. ∀u, v ∈ F, on a u + v ∈ F ;
(iii) F est stable pour la multiplication par un scalaire, c.a.d. ∀u ∈ F, ∀λ ∈ R, λ · u ∈ F.
Théorème 1.1. F est un sous-espace vectoriel (s.e.v.) de E si et seulement si
1. 0 ∈ F.
2. ∀α, β ∈ R, ∀u, v ∈ F, on aαu + βv ∈ F.
Preuve 1.2. Supposons que F est un s.e.v. de E, alors par (i) on a 0 ∈ F. Soient α, β ∈ R et u, v ∈ F,
montrons que αu + βv ∈ F. Pour cela, posons z = αu et w = βv, alors par (iii) on déduit que z ∈ F et
w ∈ F et par (ii) on déduit que z + w ∈ F. Il s’en suit que αu + βv ∈ F et par suite (2) est vérifiées.
Réciproquement, supposons que (1) et (2) sont vérifiées et montrons que F est un s.e.v. de E.
En effet,
— (i) découle directement de (1).
— Pour (ii) et (iii) : on a par hypothèses que ∀α, β ∈ R, αu + βv ∈ F. Si l’on prend α = β = 1
alors on déduit que u + v ∈ F et donc (ii) est vérifiée. Si l’on prend β = 0 alors on déduit que
αu ∈ F∀u ∈ F et ∀α ∈ R et donc (iii) est vérifiée.
Exemple 1.2.

1. {0} est un s.e.v. de E et E est un s.e.v. de lui même. Si F est un s.e.v. de E avec F , {0} et E , E
alors est appelé sous-espace vectoriel propre de E.
2. Considérons le sous-ensemble F de R3 définit par F = {(x, y, 0) : x, y ∈ R}. Alors F est un s.e.v.
de R3 . En effet,
— (0, 0, 0) ∈ F.
— Soient α, β ∈ R et u, v ∈ F, u = (x, y, 0) et v = (x0 , y 0 , 0). Alors

αu + βv = α(x, y, 0) + β (x0 , y 0 , 0) = (αx + βx0 , αy + βy 0 , 0) ∈ F


n
3. Considérons F = (x, y) ∈ R2 : x2 + y 2 = 1 , alors F n’est pas un s.e.v. de R2 car (0, 0) < F.
4. Considérons F = {(x, 0) : x ∈ N}, alors F√ n’est pas un s.e.v. de R. En effet, u = (1, 0) ∈ F et
v = (2, 0) ∈ F mais αu + βv < F avec α = 2 et β = 0.
n o
5. Le sous-ensemble F de R2 définit par F = (x, y) ∈ R2 : 2x − y = 0 est un s.e.v. de R2 .
Proposition 1.2. Si F et G sont deux s.e.v. de E alors F ∩ G est un s.e.v. de E.
Preuve 1.3. On a 0 ∈ F et 0 ∈ G alors 0 ∈ F ∩ G. D’autres part, soient α, β ∈ R et u, v ∈ F ∩ G et
montrons que αu + βv ∈
mathbf F ∩ G. En effet, comme F et G sont deux s.e.v. de E alors αu + βv ∈ F et αu + βv ∈ G donc
αu + βv ∈ F ∩ G.

Exercice
n o
On considère les ensembles E = (x, y) ∈ R2 : y = 2x et F = {(x, x) : x ∈ R. Montrer que E et F sont
des s.e.v. de R2 et déterminer E ∩ F.

5
1.3 Familles génératrices, familles libres, familles liées, Bases
1.3.1 Familles génératices
Définition 1.3. Soient E un espace vectoriel et u1 , u2 , · · · , un des vecteurs de E.
On appelle combinaison linéaire des vecteurs u1 , u2 , · · · , un , tout vecteur de la forme

α1 u1 + α2 u2 + · · · + αn un ,

où α1 , α2 , · · · , αn ∈ R.
L’ensemble de toutes les combinaisons linéaires de ces vecteurs, qu’on désigne par vect ({u1 , u2 , · · · , un }),
est appelé sous-espace engendré par les vecteurs u1 , u2 , · · · , un .
En d’autres termes, vect ({u1 , u2 , · · · , un }) = {α1 u1 + α2 u2 + · · · + αn un : α1 , α2 , · · · , αn ∈ R}.
Exemple 1.3. Prenons E = R2 , u1 = (1, 2), u2 = (2, 3), u3 = (−1, 1). Alors

vect ({u1 , u2 , u3 }) = {α1 u1 + α2 u2 + α3 u3 : α1 , α2 , α3 ∈ R}


= {α1 (1, 2) + α2 (2, 3) + α3 (−1, 1) : α1 , α2 , α3 ∈ R}
= {(α1 + 2α2 − 3α3 , 2α1 + 3α2 + α3 ) : α1 , α2 , α3 ∈ R}
Théorème 1.2. Soit E un espace vectoriel et {u1 , u2 , · · · , un } ⊂ E. Alors
(i) vect ({u1 , u2 , · · · , un }) est un s.e.v. de E.
(ii) vect ({u1 , u2 , · · · , un }) est le plus petit s.e.v. de E contenant la famille {u1 , u2 , · · · , un }, c.a.d. si F
est un s.e.v. de E contenant la famille {u1 , u2 , · · · , un } alors vect ({u1 , u2 , · · · , un }) ⊂ F.
Preuve 1.4. Pour (i), on a 0 ∈ vect ({u1 , u2 , · · · , un }) car 0 = 0u1 +0u2 +· · ·+0un (α1 = α2 = · · · = αn = 0).
Soient α, β ∈ R et u, v ∈ vect ({u1 , u2 , · · · , un }), montrons que αu + βv ∈ vect ({u1 , u2 , · · · , un }). En effet,
u = α1 u1 + α2 u2 + · · · + αn un et v = β1 u1 + β2 u2 + · · · + βn un . Alors

αu + βv = α (α1 u1 + α2 u2 + · · · + αn un ) + β (β1 u1 + β2 u2 + · · · + βn un )
= (αα1 + ββ1 ) u1 + (αα2 + ββ2 ) u2 + · · · + (ααn + ββn ) un
= γ1 u1 + γ2 u2 + · · · + γn un ∈ vect ({u1 , u2 , · · · , un }) .
Pour (ii), Soit F un s.e.v. de E tel que la famille de vecteurs {u1 , u2 , · · · , un } est contenue dans F,
montrons que vect ({u1 , u2 , · · · , un }) ⊂ F. Pour cela soit u ∈ vect ({u1 , u2 , · · · , un }) alors ∃α1 , α2 , · · · , αn ∈
R tels que u = α1 u1 +α2 u2 +· · ·+αn un . Comme F est un s.e.v. de E alors α1 u1 ∈ F, α2 u2 ∈ F, · · · , αn un ∈
F et donc α1 u1 + α2 u2 + · · · + αn un ∈ F. D’où u ∈ F. Ainsi vect ({u1 , u2 , · · · , un }) ⊂ F. Donc vect
({u1 , u2 , · · · , un }) est le plus petit sous espace vectoriel de F contenant la famille {u1 , u2 , · · · , un }.
Définition 1.4. Soit E un espace vectoriel, on dit que la famille de vecteurs {u1 , u2 , · · · , un } est une
famille génératrice de E si E = vect ({u1 , u2 , · · · , un }).
En d’autres termes, {u1 , u2 , · · · , un } est une famille génératrice de E si et seulement si pour tout
u ∈ E, il existe α1 , α2 , · · · , αn ∈ R tels que u = α1 u1 + α2 u2 + · · · + αn un .
Exemple 1.4.

1. Considérons E = R2 et soit u = (x, y) ∈ E. Alors

u = (x, y) = (x, 0) + (0, y) = x(1, 0) + y(0, 1) = xe1 + ye2 .


Donc R2 = vect ({e1 , e2 }) avec e1 = (1, 0) et e2 = (0, 1).

6
2. Considérons E = R3 et soit u = (x, y, z) ∈ E. Alors

u = (x, y, z) = (x, 0, 0) + (0, y, 0) + (0, 0, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) = xe1 + ye2 + ze3 .

Donc R3 = vect ({e1 , e2 , e3 }) avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1).


n o
3. Considérons E = (x, y, z) ∈ R3 : x − y = 0 . Soit u ∈ E, alors u = (x, y, z) avec x − y = 0 donc
x = y. Ainsi

u = (x, y, z) = (x, x, z) = (x, x, 0) + (0, 0, z) = x(1, 1, 0) + z(0, 0, 1) = xu1 + zu2 .

D’où E = vect ({u1 , u2 }) avec u1 = (1, 1, 0) et u2 = (0, 0, 1).

1.3.2 Familles libres-Familles liées


Définition 1.5. Soit E un espace vectoriel et {u1 , u2 , · · · , un } une famille finie de vecteurs de E. On
dit que cette famille est une famille liée s’il existe des scalaires non tous nuls α1 , α2 , · · · , αn ∈ R tels
que

α1 u1 + α2 u2 + · · · + αn un = 0
Dans ce cas on dits que les vecteurs u1 , u2 , · · · , un sont linéairement dépendants.

Exemple 1.5. Considérons dans l’espace vectoriel E = R2 les vecteurs u1 , u2 , u3 avec u1 = (1, 1), u2 =
(0, 1) et u3 = (1, 0). Remarquons que u1 = (1, 0) + 2(0, 1) = u2 + 2u3 . Par suite

(−1)u1 + (1)u2 + (2)u3 = 0 (α1 = −1, α2 = 1, α3 = 2)


Donc la famille {u1 , u2 , u3 } est liée.

Définition 1.6. Soit E un espace vectoriel et {u1 , u2 , · · · , un } une famille finie de vecteurs de E. On
dit que cette famille est une famille libre si

α1 u1 + α2 u2 + · · · + αn un = 0 =⇒ α1 = α2 = · · · = αn = 0
Dans ce cas on dits que les vecteurs u1 , u2 , · · · , un sont linéairement indépendants.

Exemple 1.6.

1. Dans E = R2 on considère les vecteurs e1 = (1, 0) et e2 = (0, 1). Alors

αe1 + βe2 = 0 ⇔ α(1, 0) + β(0, 1) = (0, 0) ⇔ (α, β) = (0, 0) ⇔ α = β = 0.

Donc la famille {e1 , e2 } est une famille libre dans R2 .


2. Dans E = R3 on considère les vecteurs e1 = (1, 0, 0), e2 = (0, 0, 1) et e3 = (0, 0, 1). Alors
αe1 + βe2 + γe3 = 0 ⇔ α(1, 0, 0) + β(0, 0, 1) + γ(0, 0, 1) = (0, 0, 0) ⇔ (α, β, γ) = (0, 0, 0).
Donc α = β = γ = 0 et par suite la famille {e1 , e2 , e3 } est une famille libre dans R3 .

7
3. Dans E = R3 on considère les vecteurs u1 = (6, 0, −1) et u2 = (1, 1, 4).

αu1 + βu2 = 0 ⇔ (6α + β, β, 4β − α) = (0, 0, 0)





 6α + β = 0
⇔ β=0


 4β − α = 0

⇔ α = β = 0.

Donc la famille {u1 , u2 } est une famille libre dans R3 .

Remarque 1.2.

1. Si 0 ∈ {u1 , u2 , · · · , un }, soit par exemple u1 = 0, alors les vecteurs u1 , u2 , · · · , un sont linéaire-


ment dépendants. En effet, 1 · 0 + 0 · u2 + 0 · u3 + · · · + 0 · un = 0.
2. La famille {u} est une famille libre avec u , 0. En effet, α · u = 0 ⇒ α = 0 car u , 0.
3. Soit {u1 , u2 , · · · , un } est une famille de vecteurs de E. Si deux des vecteurs u1 , u2 , · · · , un sont
colinéaires, ç.a.d. par exemple u1 = λu2 (λ , 0), alors {u1 , u2 , · · · , un } est une famille liée. En
effet,

u1 − λu2 + 0 · u3 + 0 · u4 + · · · + 0 · un = 0

donc α1 = 1, α2 = −λ, α3 = α4 = · · · = αn = 0. Par suite les αi pour i = 1, · · · , n sont non tous


nuls. Donc la famille {u1 , u2 , · · · , un } est liée.
4. Si {u1 , u2 , · · · , un } est une famille libre, alors toute sous-famille A ⊂ {u1 , u2 , · · · , un } est une
famille libre.

1.3.3 Bases et dimensions


Définition 1.7. Soit E un espace vectoriel. Une famille {e1 , e2 , · · · , en } est dite base de E, si tout
vecteur de E peut s’ecrire d’une manière unique comme combinaison linéaire des vecteurs de cette
famille.

Théorème 1.3. Soit E un espace vectoriel et B = {e1 , e2 , · · · , en } une famille de vecteurs de E. Alors

(B est une base de E) ⇐⇒ (B est une famille libre et génératrice de E) .

Preuve 1.5. ⇒ Supposons que B = {e1 , e2 , · · · , en } est une base de E et montrons que B est libre et
génératrice.
— B est libre : soient α1 , α2 , · · · αn ∈ R tels que α1 e1 + α2 e2 + · · · + αn en = 0 et vérifions que
α1 = α2 = · · · = αn = 0. En effet, on a

α1 · e1 + α2 · e2 + · · · + αn · en = 0 et
0 · e1 + 0 · e2 + · · · + 0 · en = 0
comme B est une base de E alors necessairement par unicité de l’ecriture on a α1 = α2 = · · · =
αn = 0.
— B est géneratrice de E : soit u ∈ E, comme B est une base de E alors u s’ecrit de manière
unique sous la forme u = nk=1 αk ek et donc E = vect ({e1 , e2 , · · · , en }).
P

8
⇐ Supposons que B = {e1 , e2 , · · · , en } est une famille libre et génératrice de E, montrons que
B est une base de E. Soit u ∈ E, comme B est génératrice de E alors ∃α1 , α2 , · · · , αn ∈ R tels que
u = α1 e1 + α2 e2 + · · · + αn en , montrons que u s’ecrit de manière unique sous cette forme. Pour cela
supposons que u = β1 e1 + β2 e2 + · · · + βn en et vérifions que α1 = β1 , α2 = β2 , · · · , αn = βn . En effet,

u = α1 e1 + α2 e2 + · · · + αn en = β1 e1 + β2 e2 + · · · + βn en
Donc

(α1 − β1 ) e1 + (α2 − β2 ) e2 + · · · + (αn − βn ) en = 0


et comme B est une famille libre donc α1 − β1 = α2 − β2 = · · · = αn − βn = 0.

Exemple 1.7.

1. Dans E = R, B = {1} est une base.


2. Dans E = R2 , B = {e1 , e2 } avec e1 = (1, 0) et e2 = (0, 1) est une base, appelée base canonique de
R2 .
3. Dans E = R3 , B = {e1 , e2 , e3 } avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) est une base, appelée
base canonique de R3 .

Théorème 1.4. Si E est un espace vectoriel et B est une base de E ayant n élément alors toute base
de E admetn éléments. On dit que n est la dimension de E, et on note dim(E) = n.
   
Exemple 1.8. dim({0}) = 0, dim(R) = 1, dim R2 = 2, dim R3 = 3 et dim (Rn ) = n.

Proposition 1.3. Soit E un espace vectoriel de dimension n. Alors,


(i) toute famille ayant p éléments avec p > n est une famille liée ;
(ii) toute famille libre S = {u1 , · · · , un } ayant n éléments est une base de E ;
(iii) toute famille génératrice B = {u1 , · · · , un } ayant n éléments est une base de E.

Théorème 1.5 (Théorème de la base incomplète).


Soient B = {e1 , e2 , · · · , en } une base d’un espace vectoriel E et {u1 , u2 , · · · , um } une famille libre de E
avec m ≤ n, on peut alors construire une nouvelle base de E formée des vecteurs u1 , u2 , · · · , um et de
n − m vecteurs convenablement choisis parmis ceux de la base B.

Exemple 1.9. Considérons E = R3 et B = {e1 , e2 , e3 } sa base canonique. Soit la famille {u1 , u2 } avec
u1 = (1, 1, 1) et u2 = (1, −1, 1). Il est facile de verifier que la famille {u1 , u2 } est une famille libre (à
faire !). D’autres part, on peut remarquer que u1 − u2 = 2e2 et donc (1)u1 + (−1)u2 + (−2)e2 = 0. Il
s’en suit que la famille {u1 , u2 , e2 } est une famille liée, donc on ne peut pas choisir e2 dans B pour
completer la famille {u1 , u2 } de manière à avoir une base de E. Mais il est facile de vérifier que
{e1 , u1 , u2 } est une famille libre (à faire ! !), et donc c’est une nouvelle base de E.

Théorème 1.6. Soit E un espace vectoriel et F un sous-espace vectoriel de E. Alors,


(i) dim(F) ≤ dim(E) ;
(ii) dim(F) = dim(E) ⇐⇒ F = E.

9
n o
Exemple 1.10. Soit F = (x, y, z) ∈ R3 : x − y = 0 , F est un sous-espace vectorriel de R3 (à vérifier ! !).

(x, y, z) ∈ F ⇐⇒ x − y = 0 ⇐⇒ x = y
et donc

(x, y, z) ∈ F ⇔ (x, y, z) = (x, x, z) = (x, x, 0) + (0, 0, z) = x(1, 1, 0) + z(0, 0, 1) = xu1 + zu2 ,


avec u1 = (1, 1, 0) et u2 = (0, 0, 1). Donc F = vect ({u1 , u2 }).
Vérifions que u1 et u2 sont linéairement indépendants :

αu1 + βu2 = 0 ⇐⇒ (α, α, 0) + (0, 0, β) = (0, 0, 0)


⇐⇒ (α, α, β) = (0, 0, 0),
 
et donc α = β = 0. D’où {u1 , u2 } est une base de F, ainsi dim(F) = 2 < dim R3 = 3.

10
Chapitre 2
Applications linéaires

2.1 Définitions et propriétés


Définition 2.1. Soient E et F deux espaces vectoriels. On appelle application linéaire de E dans F,
toute application f de E dans E vérifiant les deux propriétés suivantes :
(i) ∀x, y ∈ E, f (x + y) = f (x) + f (y) ;
(ii) ∀λ ∈ R et ∀x ∈ E, f (λ · x) = λ · f (x).
L ’ensemble de toutes les applications linéaires de E dans F est noté par £(E, F).

Exemple 2.1.

1. Considérons E = R, E = R2 et f l’application de E dans F définie par f (x) = (x, 2x). On a

f (x + y) = (x + y, 2(x + y)) = (x + y, 2x + 2y) = (x, 2x) + (y, 2y) = f (x) + f (y)


f (λx) = (λx, 2λx) = λ(x, 2x) = λf (x).

Donc f est une application linéaire de R dans R2 .


2. L’application f de R dans R définie par f (x) = ax + b avec b , 0 n’est pas une application
linéaire.

Remarque 2.1.

a. Dans le cas où E = E, alors l’application linéaire f de E dans F est appelée endomorphisme


ou aussi opérateur linéaire.
b. Si f est une application linéaire bijective de E dans F, alors elle est appelée isomorphisme
de E dans F ; si de plus E = F, alors elle apellée automorphisme de E.
c. Si f est une application linéaire de E dans F avec F = R, alors f est appelée forme linéaire
définie sur E.
d. Désignons par 0E le vecteur nul dans E et par 0F le vecteur nul dans F. Alors, f (0E ) = 0F .
En effet, f (0E ) = f (0 · 0E ) = 0 · f (0E ) = 0F .
e. Pour tout u ∈ E, on a f (−u) = −f (u).

Proposition 2.1. Soient E et F deux espaces vectoriels et f une application de E dans F. Alors

(f est linéaire ) ⇐⇒ (∀λ, µ ∈ R et ∀x, y ∈ E on a f (λx + µy) = λf (x) + µf (y)).

11
Preuve 2.1. ⇒ Soient λ, µ ∈ R, x, y ∈ E, posons z = λx + µy = z1 + z2 avec z1 = λx et z2 = µy. Comme
f est linéaire, alors par (i) et (ii) on a

f (λx + µy) = f (z1 + z2 ) = f (z1 ) + f (z2 ) = f (λx) + f (µy) = λf (x) + µf (y)


⇐ Suppososns que ∀λ, µ ∈ R et x, y ∈ E on a f (λx+µy) = λf (x)+µf (y). Alors en prenant λ = µ = 1
dans cette expression on obtient f (x +y) = f (x)+f (y) ; et en prenant µ = 0 on obtient f (λx) = λf (x).

Remarque 2.2. De manière générale, on peut montrer par recurrence sur n que f est une applica-
tion linéaire de E dans F si et seulement si ∀x1 , x2 , · · · , xn ∈ E et ∀λ1 , λ2 , · · · , λn ∈ R on a
 n  n
X  X
f  λi xi  = λi f (xi )
k=1 k=1

Exemple 2.2.

1. Soit α ∈ R∗ , considérons l’application

hα : E −→ E
x 7−→ hα (x) = α · x
L’application hα est un endomorphisme de E, appelé homothétie vectoriel de rapport α.
Remarquons que h1 = idE .
2. Soient les deux applications suivantes

P1 : R × R −→ R
et P2 : R × R −→ R
(x, y) 7−→ P1 (x, y) = x
P1 et P2 sont deux applications linéaires appelées respectivement première et seconde pro-
jection de R × R sur R.
De manière générale l’application

P i : Rn
(x1 , x2 , · · · , xi , · · · , xn ) 7−→ R
xi

est une application linéaire de Rn dans R appelée i ieme projection de Rn sur R.

Exercice
Soient a, b, c, d ∈ R et soit f l’application de R2 dans R2 définie par f (x, y) = (ax + by, cx + dy).
1. Montrer que f est une application linéaire de R2 dans R2 .
2. Montrer que :  
f est un automorphisme de R2 ⇐⇒ (ad − bc , 0)

Proposition 2.2. Soient E, F, G trois espace vectoriels et f une application linéaire de E dans F et g
une application linéaire de F dans G. Alors, l’application h = g ◦ f est une application linéaire de
E dans G.

12
Preuve 2.2. Soient α, β ∈ R et x, y ∈ E, a-t-on que h(αx + βy) = αh(x) + βh(y) ? Comme g et f sont
linéaires alors

h(αx + βy) = g ◦ f (αx + βy) = g(f (αx + βy))


= g(αf (x) + βf (y))
= αg(f (x)) + βg(f (y)) = αg ◦ f (x) + βg ◦ f (y)
= αh(x) + βh(y).
Définition 2.2. Deux espaces vectoriels E et F sont dits isomorphes s’il existe une application
linéaire bijective de E dans E.

2.2 Application linéaire et indépendance linéaire


Proposition
n o 2.3. Soient E et F deux espacesnvectoriels etf une o application linéaire de E dans F. Si
u1 , · · · , up est une famille liée dans E alors f (u1 ) , · · · , f up est une famille liée dans F.
n o
Preuve 2.3. Si u1 , · · · , up est une famille liée dans E, alors il existe α1 , α2 , · · · , αp ∈ R non tous nuls

tels que : α1 u1 +α2 u2 +· · ·+αp up = 0E . En composant par f , on obtient f (α1 u1 + α2 u2 + · · · + αp up =
f (0E ) = 0F . Par linéarité de f , on déduit que
 
α1 f (u1 ) + α2 f (u2 ) + · · · + αp f up = 0F .
n  o
D’où la famille f (u1 ) , · · · , f up est une famille liée dans F.
n  o
Remarque 2.3. La réciproque de ce résultat est en géneral fausse, ç.a.d. si f (u1 ) , · · · , f up est
n o
une famille liée dans F alors on n’a pas nécessairement que u1 , · · · , up est une famille liée dans
n  o
E. En effet, si f (u1 ) , · · · , f up est liée alors il existe α1 , α2 , · · · , αp ∈ R non tous nuls tels que :
   
α1 f (u1 ) + α2 f (u2 )+· · ·+αp f up = 0F . Par linéarité de f on déduit que f α1 u1 + α2 u2 + · · · + αp up =
n o
0F = f (0F ). Donc si f est injective alors on a α1 u1 +α2 u2 +· · ·+αp up = 0E et donc la famille u1 , · · · , up
sera liée dans ce cas. D’où la proposition :
n  o
Proposition 2.4. Si f est une application linéaire injective de E dans F et que la famille f (u1 ) , · · · , f up
n o
est liée dans F alors la famille u1 , · · · , up est liée dans E.

Une question naturelle   que l’on peut se poser : quel est le lien entre l’indépendance linéaire des
vecteurs f (u1 ) , · · · , f up et celle des vecteurs u1 , · · · , up ? La reponse est dans les deux propositions
suivantes :
n  o n o
Proposition 2.5. Si f (u1 ) , · · · , f up est une famille libre de F, alors u1 , · · · , up est une famille
libre de E.

Preuve 2.4. Si α1 u1 + α2 u2 + · · · + αp up = 0E a-t-on que α1 = α2 = · · · = αp = 0 ?


 
On a α1 u1 + α2 u2 + · · · + αp up = 0E donc f α1 u1 + α2 u2 + · · · + αp up = f (0E ) = 0F . Par linéarité
  n  o
de f , on déduit que α1 f (u1 ) + α2 f (u2 ) + · · · + αp f up = 0F et comme la famille f (u1 ) , · · · , f up
est une famille libre dans F, alors on deduit que α1 = α2 = · · · = αp = 0.

13
n o
Remarque 2.4. La réciproque de ce résultat est géneralement fausse, ç.a.d. si u1 , · · · , up est une
n  o
famille libre dans E alors on n’a pas nécessairement que f (u1 ) , · · · , f up est une famille libre
dans F. Pour que ceci soit vrai, il faut ajouter une hypothèse sur l’application linéaire f comme le
montre la proposition suivante :
n o
Proposition 2.6. Si f est une application linéaire injective de E dans F et si u1 , · · · , up est une
n  o
famille libre dans E, alors la famille f (u1 ) , · · · , f up est libre dans F.
 
Preuve 2.5. Si α1 f (u1 ) + α2 f (u2 ) + · · · + αp f up = 0F , a-t-on que α1 = α2 = · · · = αp = 0 ?. On a par
linéarité de f ,

   
α1 f (u1 ) + α2 f (u2 ) + · · · + αp f up = 0F = f (0E ) ⇐⇒ f α1 u1 + α2 u2 + · · · + αp up = f (0E ) .

Comme f est injective, alors α1 u1 + α2 u2 + · · · + αp up = 0E . D’où α1 = α2 = · · · = αp = 0 car la


n o
famille u1 , · · · , up est libre dans E.

Comme conséquence on a le résultat suivant :

Théorème 2.1. Soient E et F deux espaces vectoriels et f un isomorphisme de E sur F. Alors si


B = {e1 , e2 , · · · , en } est une base de E, alors B0 = {f (e1 ) , f (e2 ) , · · · , f (en )} est une base de F.

Preuve 2.6. On a que f est un isomorphisme de E sur F, donc f est une application linéaire bijective
de E sur F. Ainsi f est injective et surjective. On a que {e1 , e2 , · · · , en } est une famille libre et que f est
injective, alors d’aprés la proposition précédente on déduit que la famille {f (e1 ) , f (e2 ) , · · · , f (en )}
est une famille libre de F. Il reste à montrer que {f (e1 ) , f (e2 ) , · · · , f (en )} est une famille génératrice
de F. En effet, comme f est surjective donc f (E) = F et par suite ∀y ∈ F, ∃x ∈ E tel que f (x) = y.
Comme B est une base de E, alors ∃α1 , α2 , · · · , αp ∈ R tel que x = α1 e1 + α2 e2 + · · · + αn en . Par suite

y = f (x) = f (α1 e1 + α2 e2 + · · · + αn en ) = α1 f (e1 ) + α2 f (e2 ) + · · · + αn f (en ) .


D’où E = vect ({f (e1 ) , f (e2 ) , · · · , f (en )}) et par suite B 0 est une base de F.

Comme conséquence du théorème précédent, on a le résultat suivant :

Corollaire 2.1. Si E et F sont deux espaces vectoriels isomorphes alors dim(E) = dim(F).

2.3 Noyau, Image et Rang d’une application linéaire


Définition 2.3. Soient E et F deux espaces vectoriels et f une application linéaire de E dans F. On
appelle noyau de f , l’ensemble noté Ker(f ) et définit par

Ker(f ) = {x ∈ E : f (x) = 0F }

Exemple 2.3. Soit f l’application linéaire définie de R vers R × R par f (x) = (x, 2x) (à vérifier ! ! !).
Déterminons Ker(f ). Par définition Ker(f ) = {x ∈ E : f (x) = 0R2 = (0, 0)}. Donc

x ∈ Ker(f ) ⇐⇒ f (x) = (x, 2x) = (0, 0) ⇐⇒ x = 0.


D’où Ker(f ) = {0}.

Remarque 2.5. On a toujours Ker(f ) , ∅ car 0E ∈ Ker(f ). En effet, f (0E ) = 0F .

14
Proposition 2.7. Soient E et F deux espaces vectoriels et f une application linéaire de E dans F.
Alors Ker(f ) est un sous espace vectoriel de E.
Preuve 2.7. On a 0E ∈ Ker(f ). Soient α, β ∈ R et x, y ∈ Ker(f ). Vérifions que αx+βy ∈ Ker(f ). Comme
x, y ∈ Ker(f ), alors f (x) = f (y) = 0. Et par linéarité de f , on déduit que f (αx+βy) = αf (x)+βf (y) = 0.
D’où αx + βy ∈ Ker(f ).
Exemple 2.4.

1. Considérons l’application f définie de R3 dans R2 par f (x, y, z) = (x + y, y + z). L’application


f est linéaire (à vérifier ! !). Déterminons Ker(f ).

(x, y, z) ∈ Ker(f ) ⇐⇒ f (x, y, z) = (0, 0)


⇐⇒ (x + y, y + z) = (0, 0)
(
x+y = 0
⇐⇒
y +z = 0
⇐⇒ x = −y et z = −y.
Par suite

(x, y, z) ∈ Ker(f ) ⇐⇒ (x, y, z) = (−y, y, −y) = y(−1, 1, −1) = y · v


où v = (−1, 1, −1). D’où Ker(f ) = vect({v}) = {λv : λ ∈ R}. Ainsi dim(Ker(f )) = 1.
2. Considérons l’application linéaire f définie de R3 dans R par f (x, y, z) = x + y (à vérifier).
Déterminons Ker(f ).

(x, y, z) ∈ Ker(f ) ⇐⇒ f (x, y, z) = 0 ⇐⇒ x + y = 0 ⇐⇒ y = −x


Par suite

(x, y, z) ∈ Ker(f ) ⇔ (x, y, z) = (x, −x, z) = (x, −x, 0) + (0, 0, z) = x(1, −1, 0) + z(0, 0, 1)
Ainsi Ker(f ) = vect({u, v}) avec u = (1, −1, 0) et v = (0, 0, 1). On peut vérifier facilement que
la famille {u, v} est libre (à faire ! ! !), donc dim(Ker(f )) = 2.
Théorème 2.2. Soit f une application linéaire de E dans E. Alors

f est injective ⇐⇒ Ker(f ) = {0E } .


Preuve 2.8. ⇒ Supposons que f est injective. Comme 0E ∈ Ker(f ) alors {0E } ⊂ Ker(f ). Vérifions
que Ker(f ) ⊂ {0E }. Pour cela

x ∈ Ker(f ) ⇐⇒ f (x) = 0F = f (0E )


=⇒ x = 0E car f est injective.
D’où Ker(f ) ⊂ {0E } et par suite Ker(f ) = {0E }.
⇐ Réciproquement, soient x, y ∈ E tels que f (x) = f (y) et montrons que x = y.

f (x) = f (y) ⇐⇒ f (x) − f (y) = 0F


⇐⇒ f (x − y) = 0F ( par linéarité de f )
⇐⇒ x − y ∈ Ker(f ) = {0E }
=⇒ x − y = 0E =⇒ x = y.

15
D’où f est injective.
Exemple 2.5. Considérons l’application

f : R3 −→ R3
(x, y, z) 7−→ (2x, x − y, z)
L’application f est linéaire (à montrer ! !), a-t-on qu’elle est injective ?. Pour cela déterminons
Ker(f ).

(x, y, z) ∈ Ker(f ) ⇐⇒ f (x, y, z) = (0, 0, 0)


⇐⇒ (2x, x − y, z) = (0, 0, 0)



 2x = 0
⇐⇒  x−y = 0


 z=0

⇐⇒ x = y = z = 0.
D’où Ker(f ) = {(0, 0, 0)}, ainsi f est injective.
Définition 2.4. Soit f une application linéaire de E dans F. L’image de f , noté Im (f ), est l’en-
semble des images par f des vecteurs de E.

Im(f ) = f (E) = {y ∈ F : ∃x ∈ E tel que f (x) = y}


Théorème 2.3. Im(f ) est un sous espace vectoriel de F.
Preuve 2.9. On a 0F ∈ Im(f ) car 0F = f (0E ). Soient v, w ∈ Im(f ) et α, β ∈ R, vérifions que αv + βw ∈
Im(f ). On a v, w ∈ Im(f ), donc ∃x, y ∈ E tels que v = f (x) et w = f (y). Comme f est linéaire alors
αv + βw = αf (x) + βf (y) = f (αx + βy) ∈ Im(f ).
Exemple 2.6. Considérons l’application linéaire (à vérifier !)

f : R3 −→ R3
(x, y, z)
7−→ (x − y, y − z, z − x)
Déterminons Im(f ). Pour cela

v = (x0 , y 0 , z0 ) ∈ Im(f ) ⇐⇒ ∃u = (x, y, z) ∈ R3 tel que v = f (x, y, z) = (x − y, y − z, z − x)


⇐⇒ v = (x, 0, −x) + (−y, y, 0) + (0, −z, z)
⇐⇒ v = x(1, 0, −1) + y(−1, 1, 0) + z(0, −1, 1).
Par suite Im(f ) = vect ({u1 , u2 , u3 }) avec u1 = (1, 0, −1), u2 = (−1, 1, 0) et u3 = (0, −1, 1).
Déterminons dim(Im(f )). Pour cela remarquons que u1 +u2 = −u3 , donc la famille {u1 , u2 , u3 } est
liée, donc ne peut constituer une base de Im(f ), par suite dim(Im(f )) < 3 et Im(f ) = vect ({u1 , u2 }) =
vect ({u1 , u3 }) = vect ({u2 , u3 }). D’autres part il est facile de vérifier que u1 et u2 sont linéairement
indépendants, D’où dim(Im(f )) = 2.
Théorème 2.4. Une application linéaire f de E dans F est bijective si et seulement si Im(f ) = F et
Ker(f ) = {0E }.
Proposition 2.8. Soit f une application linéaire bijective de E dans F. Alors f −1 est une application
linéaire de F dans E.

16
Preuve 2.10. Soient y, z ∈ F et α, β ∈ R avec y = f (x) et z = f (x0 ) ; donc x = f −1 (y) et x0 = f −1 (z).
Vérifions que f −1 (αy + βz) = αf −1 (y) + βf −1 (z). Pour cela

f −1 (αy + βz) = f −1 (αf (x) + βf (x0 )) = f −1 (f (αx + βx0 )) = αx + βx0 = αf −1 (y) + βf −1 (z).

Ce qui termine la peuve.

Définition 2.5. Soit f une application linéaire de E dans F. On appelle rang de f , et on note
rang(f ), la dimension de Im(f ) :

rang(f ) = dim(Im(f )).

Exemple 2.7. On reprend l’exemple précédent

f : R3 −→ R3
(x, y, z) 7−→ (x − y, y − z, z − x)

On a démontré que dim(Im(f )) = 2, donc ran(f ) = 2.

Théorème 2.5 (Théorème de la dimension).


Soient E et F deux espaces vectoriels et f une application linéaire de E dans F. Alors

dim(E) = rang(f ) + dim(Ker(f ))

Corollaire 2.2. Soit f une application linéaire de E dans F. Alors


(i) rang(f ) = dim(E) ⇐⇒ f injective,
(ii) rang(f ) = dim(F) ⇐⇒ f surjective,
(iii) rang(f ) = dim(E) = dim(F) ⇐⇒ f bijective.

Remarque 2.6. Dans le cas où f est une application linéaire de E dans F avec dim(E) = dim(F),
alors pour montrer que f est bijective il suffit de montrer que f est injective ou bien surjective.
Généralement, il suffit de montrer que Ker(f ) = {0E }.

17
Chapitre 3
Matrices

3.1 Définitions et notations


Définition 3.1. On appelle matrice réelle à n lignes et m colonnes, un tableaux rectangulaire de
nombres réels comportant n lignes et m colonnes et décrit comme suite :

 a11 a12 · · · a1j · · · a1m


 

 a21 a22 · · · a2j · · · a2m
 

 .. .. .. ..
 

 . . . . 
M =  
 ai1 ai2 · · · aij · · · aim 

 .. .. .. ..
 
 . . . . 


an1 an2 · · · anj · · · anm

3.2 Notations
— Le nombre réel aij represente le terme dans la matrice M situé à la i ieme ligne et la j ieme
colonne.
— L’ensemble des matrices à n lignes et m colonnes est noté par : Mn,m (R).
— Une matrice à n lignes et m colonnes est notée par :
   
M = aij 1≤i≤n ou tout simplement M = aij
1≤j≤m n,m

— Une matrice colonne est une matrice M = (ai1 )1≤i≤n ayant une seule colonne :
 
 a11 
 a21 
 
M =  . 

 .. 
 
an1
 
— Une matrice ligne est une matrice M = a1j ayant une seule ligne :
1≤j≤m
 
M= a11 a12 · · · a1m
— Une matrice carée est une matrice M ayant le même nombre de lignes et de colonnes, ç.a.d.
M ∈ Mn,n (R) (i.e. m = n ). On dira alors que M est une matrice carrée d’ordre n.
— La matrice nulle de Mn,m (R) est la matrice à n lignes et m colonnes dont tous les termes sont
nuls. On la note par : O.

18
Exemple 3.1.
 
 1 3 5 −2 
1. La matrice M =  8 −4 3 2  est une matrice à 3 lignes et 4 colonnes, M ∈ M3,4 (R).
 
−1 −2 3 5
 
 
2. La matrice M = 1 0 3 0 est une matrice ligne, M ∈ M1,4 (R).
 
 −1 
3. La matrice M =  12  est une matrice colonne, M ∈ M3,1 (R).
 
0
 
 
 3 −2 4 
4. La matrice M =  0 −1 6  est une matrice carrée d’ordre 3, M ∈ M3,3 (R).
 
1 7 9
 
!
0 0 0
5. La matrice O = est la matrice nulle dans M ∈ M2,3 (R).
0 0 0

3.3 Opérations sur les matrices


3.3.1 Addition de matrices
   
Définition 3.2. Soient A = aij et B = bij deux éléments de Mn,m (R), on appelle somme de
n,m n,m
A et B la matrice de Mn,m (R) notée A + B et définie par :
 
A + B = cij aveccij = aij + bij
n,m
! ! !
−1 5 3 2 0 3 2 1 1 0
Exemple 3.2. Considérons les matrices A = ,B = et C =
3 0 4 2 4 8 −5 4 4 −5
!
−1 8 5 3
Alors, A + B = , mais A + C et B + C ne sont pas définies.
7 8 −1 6
Proposition 3.1. Soient A, B, C ∈ Mn,m (R), alors
(i) A + (B + C) = (A + B) + C,
(ii) A + B = B + A,
(iii) A + O = O + A
.
Remarque 3.1. L’addition des matrices dans Mn,m (R) définit une lois de composition interne sur
cet ensemble. Elle est commutative,
  associative,
  d’élément neutre la matrice nulle O dans Mn,m (R)
et le symétrique de A = aij est −A = −aij . On en déduit donc le théorème suivant :
n,m n,m

Théorème 3.1. Mn,m (R), + est un groupe commutatif.

3.3.2 Multiplication d’une matrice par un scalaire


 
Définition 3.3. Soit M = aij ∈ Mn,m (R) et λ ∈ R. On appelle produit de M par λ la matrice de
n,m
Mn,m (R) notée λ · M et définie par :
 
λ · M = bij avec bij = λaij
n,m

19
   
 2 1   −4 −2 
Exemple 3.3. Soit la matrice M =  0 −1  ∈ M3,2 (R) et λ = −2, alors λ · M =  0 2 .
   

5 8 −10 −16
  

Proposition 3.2. Soient A, B ∈ Mn,m (R) et λ, µ ∈ R. Alors,


(i) 1 · A = A ;
(ii) λ · (A + B) = λ · A + λ · B ;
(iii) (λ + µ) · A = λ · A + µ · A ;
(iv) λ · (µ · A) = (λµ) · A.

Remarque 3.2. La multiplication d’une matrice par un scalaire permet de définir une loi de com-
position externe sur Mn,m (R) par :

R × Mn,m (R) −→ Mn,m (R)


· :
(λ, A) 7−→ λ·A

Tenant compte du fait que Mn,m (R), + est un groupe commutatif et des propriétés des propo-
sitions précédentes, on déduit le résulat suivant :

Théorème 3.2. Mn,m (R), +, · est un espace vectoriel.

Exemple 3.4. Considérons
! M2,2 (R), +, • espace vectoriel des matrices carrées d’ordre 2.
a c
Soit A = ∈ M2,2 (R), donc
b d
! ! ! !
a 0 0 0 0 c 0 0
A= + + +
0 0 b 0 0 0 0 d
! ! ! !
1 0 0 0 0 1 0 0
=a +b +c +d
0 0 1 0 0 0 0 1
= aI1 + bI2 + cI3 + dI4
! ! ! !
1 0 0 0 0 1 0 0
avec I1 = , I2 = , I3 = et I4 = .
0 0 1 0 0 0 0 1
On déduit donc que M2,2 (R) = vect ({I1 , I2 , I3 , I4 }). Vérifions si la famille {I1 , I2 , I3 , I4 } est libre.
Pour cela, soient α, β, γ, δ ∈ R tels que αI1 + βI2 + γI3 + δI4 = O, vérifions que α = β = γ = δ = 0.
! !
α γ 0 0
αI1 + βI2 + γI3 + δI4 = O ⇐⇒ = ⇐⇒ α = β = γ = δ = 0
β δ 0 0
Il s’en suit que la famille {I1 , I2 , I3 , I4 } est libre, comme elle est génératrice alors c’est une base

de M2,2 (R), et donc dim M2,2 (R) = 4 = 2 × 2.

De la même manière on peut montrer facilement que dim Mn,m (R) = n × m.

3.3.3 Multiplication des matrices


   
Définition 3.4. Soient A = aij ∈ Mn,p (R) et B = bij ∈ Mp,m (R). On appelle produit de A par
n,p p,m
B la matrice de Mn,m (R), notée A × B, et définie par :
p
X
 
A × B = cij où cij = ai1 b1j + ai2 b2j + · · · + aip bpj = aik bkj
n,m
k=1

20
 
Si on note par C = A × B = cij
n,m
Pour obtenir le terme de la i-ième ligne et la j-ième colonne dans C à savoir cij , alors on mul-
tiplie terme à terme les termes de la i-ème ligne dans A par les termes de la j-ème colonne dans
B.
Exemple 3.5.

1. Considérons les matrices A ∈ M4,3 (R) et B ∈ M3,2 (R) suivantes :


 
 1 2 3   
 0 −2 
 −5 2 −3 
 
A =   et B =  1 3 
 
 0 1 4  
−1 0
 
0 −1 0
 
 
 −1 4 
 5 16
 
A × B =   . On ne peut pas considérer B × A

 −3 3 
1 −3
 
 
   1 
2. Considérons A = 0 1 −1 ∈ M1,3 (R) et B =  −1  ∈ M3,1 (R). Alors,
 
5
 
   
   1   0 1 −1 
A × B = 0 1 −1 ×  −1  = (−6) ∈ M1,1 (R) et B × A =  0 −1 1  ∈ M3,3 (R)
 
5 0 5 −5
   
     
 1 2 5   1   0 
3. Considérons A =  0 3 0  et B =  2 , alors A × B =  6 .
     
−1 1 2 −1 −1
     

Remarque 3.3. Pour que le produit A×B de deux matrices A et B soit définit, il faut que le nombre
de colonnes dans la matrice à gauche soit égale au nombre de lignes dans la matrice à droite.
Proposition 3.3. Soient A ∈ Mn,p (R), B ∈ Mp,q (R) et C ∈ Mq,m (R) et λ ∈ R. Alors,
(i) (λ · A) × B = A × (λ · B) = λ · (A × B) ;
(ii) (A × B) × C = A × (B × C) (associativité).

3.3.4 Transposée d’une matrice


Définition 3.5. Soit A ∈ Mn,m (R), on appelle transposée de A, notée t A, la matrice obtenue à partir
de A en échangeant le rôle des lignes et des colonnes.
   
En d’autres termes si A = aij alors t A = bij avec bij = aji .
n,m m,n
 
 1 2  !
t 1 −1 5
Exemple 3.6. Considérons la matrice A =  −1 0  ∈ M3,2 (R), alors A = ∈ M2,3 (R).
 
2 0 8
5 8
 

Proposition 3.4. Soient A, B ∈ Mn,m (R) et C ∈ Mm,p (R). Alors


 
(i) t t A = A ;
(ii) t (A + B) = t A + t B ;
(iii) t (A × C) = t C × t A.

21
3.4 Matrices carrées
Rappelons qu’une matrice A est dite carrée si le nombre delignes est égale au nombre de co-
lonnes, ç.a.d. A ∈ Mn,n (R),
 
 a11 a12 · · · a1n 
 a a22 · · · a2n

 21 
A =  . .. .. ..
 ∈ M (R)
n,n
 ..

 . . . 

an1 an2 · · · ann
On appelle diagonale de A, le sous-ensemble {a11 , a22 , · · · , ann }

3.4.1 Cas particuliers de matrices carrées


1. Matrice diagonale : Une matrice A ∈ Mn,n (R) est dite diagonale si tous les termes qui ne sont
pas situés sur la diagonale sont nuls :
 
A = aij est diagonale ⇐⇒ aij = 0 ∀i , j
n,n
 
 a11 0 0 · · · 0 
 0 a22 0 · · · 0
 

A =  . .. .. ..

 .. .

. . 
 
0 0 · · · ann
2. Matrice unité : La matrice unité In ∈ Mn,n (R) est la matrice diagonale dont tous les termes
de la diagonale sont égaux à 1 . En d’autres termes :
 
In = aij avec aij = 0 ∀i , j et aii = 1 ∀i = 1, · · · , n.
n,n
 
 1 0 · · · 0 
 0 1 · · · 0 
 
In =  . .

.. .. 

 .. ..

 . . 

0 ··· 0 1
3. Matrice triangulaire supérieure : Une matrice carrée A ∈ Mn,n (R) est dite triangulaire supé-
rieure si tous les situés en dessous de la diagonale sont tous nuls :
 
A = aij est triangulaire supérieure ⇐⇒ aij = 0∀i > j∀i = 1, · · · , n, ∀j = 1, · · · , n.
n,n
 
 a11 a12 · · · a1n 
 0 a22 a23 a2n
 

A =  . .. .. ..

 ..

 . . . 

0 ··· 0 ann
4. Matrice triangulaire inférieure : Une matrice carrée A ∈ Mn,n (R) est dite triangulaire infé-
rieure si tous les situés au dessus de la diagonale sont tous nuls :
 
A = aij est triangulaire supérieure ⇐⇒ aij = 0∀i < j∀i = 1, · · · , n, ∀j = 1, · · · , n.
n,n
 
 a11 0 ··· 0 
 a21 a22 ··· 0
 

A =  . .. .. ..

 .. .

 . . 

an1 an2 · · · ann

22
5. Matrice symétrique : Une matrice carrée A ∈ Mn,n (R) est dite symétrique si tous les éléments
de A sont symétriques par rapport à la diagonale :

A symetrique ⇐⇒ aij = aji ∀i = 1, · · · , n, ∀j = 1, · · · , n.

En d’autres termes : A symetrique ⇐⇒ A = t A.


Exemple :
 
 1 −1 3 
A =  −1 0 6  , A = tA
 

3 6 −1

Exercice
Déterminer toutes les matrices diagonales X d’ordre 3 vérifiant l’équation : X 2 − X − 2I = 0.

3.4.2 Opérations sur les matrices carrées


La multiplication des matrices carrées définit une loi de composition interne sur Mn,n (R) :

∀A, B ∈ Mn,n (R), A × B ∈ Mn,n (R)


Cette loi de composition interne n’est pas commutative car généralement A × B , B × A.
! !
1 0 0 1
Exemple 3.7. Considérons les matrices A = et B = , alors
1 1 0 0
! !
0 1 1 1
A×B = et B × A =
0 1 0 0

Proposition 3.5. Soient A, B, C ∈ Mn,n (R). Alors


(i) In × A = A × In = A ;
(ii) A × (B + C) = A × B + A × C et (B + C) × A = B × A + C × A ;
(iii) (λ · A) × B = A × (λ · B) = λ · (A × B) où λ ∈ R.

Formule du binôme
Si A, B ∈ Mn,n (R) avec A × B = B × A, alors
p
X
(A + B)p = Cpk Ak Bp−k avec A0 = In et B0 = In
k=0

Exercices
 
 1 1 0 
Soit la matrice A =  0 1 1 .
 
0 0 1
 

1. Calculer A2 et A3 .

23
2. Montrer que pour tout entier naturel n, An s’ecrit sous la forme
 
 1 an bn 
An =  0 1 an 
 
0 0 1
 

Ecrire les relations de récurrence vérifiées par (an ) et (bn ) ; en déduire An pour tout n.
3. Soit la matrice B = A − I3 . Calculer Bn pour tout n ∈ N. En déduire un autre mode de calcul
de An .

3.4.3 Matrices carrées inversibles


Définition 3.6. Une matrice carrée A ∈ Mn,n (R) est dite inversible s’il existe une matrice B ∈
Mn,n (R) appelée inverse de A tel que : A × B = In et B × A = In .

Notation : L’inverse de A est noté par A−1 .


!
1 1
Exemple 3.8. Considérons la matrice A = , cherchons si A admet un inverse. Pour cela
1 −1
!
a c
on cherchera une matrice B = tel que A × B = B × A = I2 .
b d



a + b = 1 (I)
! ! ! 

1 1 a c 1 0 a − b = 0 (II)


A × B = I2 ⇐⇒ × = ⇐⇒ 
1 −1 b d 0 1 c + d = 0 (III)




c − d = 1 (IV )

1
En faisant (I) + (II), on obtient a = 2 et d’aprés (II) on obtient b = a = 21 . De la même manière,
on obtient c = 12 et d = − 12 . Par suite
!
−1 1/2 1/2
A =B= (vérifier que l’on a bien B × A = I2 !! )
1/2 −1/2

Remarque 3.4. On a In × In = In , donc In−1 = In .

Proposition 3.6. Soient A, B ∈ Mn,n (R) deux matrices carrées inversibles. Alors,
 −1
(i) A−1 = A;
(ii) (A × B)−1 = B−1 × A−1 .

Preuve 3.1.
 −1
(i) Notons par B = A−1 , donc B × A = A × B = In , par suite B−1 = A. Ainsi A−1 = A.
(ii) Notons par C l’inverse de A×B, alors C ×(A×B) = (A×B)×C = In . Il s’en suit par associativité
que (C × A) × B = In . Par suite (C × A) × B × B−1 = In × B−1 = B−1 . Ainsi C × A = B−1 . De même
on compose par A−1 , on obtient alors C = B−1 × A−1 .

Proposition 3.7. Si A et B sont deux matrices carrées telles que A , O, B , O et A × B = O, alors A


et B ne sont pas inversibles.

24
Preuve 3.2. Supposons par l’absurde que A ou B sont inversibles, par exemple supposons A inver-
sible. Alors

A × B = O =⇒ A−1 × (A × B) = A−1 × O = O
 
=⇒ A−1 × A × B = O
=⇒ B = O ce qui est absurde.
Donc A et B ne sont pas inversibles.

Proposition 3.8. Si A est inversible alors l’équation matricielle A × X = B admet une solution
unique X = A−1 × B.

Preuve 3.3.
A × X = B =⇒ A−1 × (A × X) = A−1 × B
 
=⇒ A−1 × A × X = A−1 × B
=⇒ X = A−1 × B.

3.5 Représentation d’une application linéaire par une matrice


3.5.1 Caractérisation d’une application linéaire
n o
Soient E et F deux espaces vectoriels avec B = {e1 , e2 , · · · , en } une base de E et B 0 = e10 , e20 , · · · , em
0

une base de F, et soit f une application linéaire de E dans F. Considérons un vecteur u ∈ E, alors
u = α1 e1 + α2 e2 + · · · + αn en . Les scalaires α1 , α2 , · · · , αn representent les coordonnées de u dans la
base B. Notons par v = f (u), on a alors

f (u) = f (α1 e1 + α2 e2 + · · · + αn en ) = α1 f (e1 ) + α2 f (e2 ) + · · · + αn f (en ) = v


Ceci montre que si l’on connait f (e1 ) , f (e2 ) , · · · , f (en ) alors on connait totalement f (u). Comme
f (ei ) ∈ F pour i = 1, · · · , n alors f (ei ) se décompose dans la base B 0 de F comme suite :

f (e1 ) = a11 e10 + a21 e20 + a31 e30 + · · · + am1 em


0

f (e2 ) = a12 e10 + a22 e20 + a32 e30 + · · · + am2 em


0

f (e3 ) = a13 e10 + a23 e20 + a33 e30 + · · · + am3 em0


 
f ej = a1j e10 + a2j e20 + a3j e30 + · · · + amj em 0

f (en ) = a1n e10 + a2n e20 + a3n e30 + · · · + amn em


0

Si l’on note par α10 , α20 , · · · , αn0 les coordonnées de v = f (u) dans la base B 0 , ç.a.d. v = α10 e10 +
α20 e20 + · · · + αm
0 e0 .
On a alors
m

v = f (u) ⇐⇒ α10 e10 + α20 e20 + · · · + αm


0 0
em = α1 f (e1 ) + α2 f (e2 ) + · · · + αn f (en )
= α1 (a11 e10 + a21 e20 + · · · + am1 em
0
)+
+ α2 (a12 e10 + a22 e20 + · · · + am2 em
0
) + ···+
+ · · · + αn (a1n e10 + a2n e20 + · · · + amn em
0
)
= (α1 a11 + α2 a12 + · · · + αn a1n ) e10 + · · · +
0
+ · · · + (α1 am1 + α2 am2 + · · · + αn amn ) em
Par identification, on obtient

25
α10 = α1 a11 + α2 a12 + · · · + αn a1n



α20 = α1 a21 + α2 a22 + · · · + αn a2n




.. ..





 . .
αi0 = α1 ai1 + α2 ai2 + · · · + αn ain





 .. ..
. .




0

αm = α1 am1 + α2 am2 + · · · + αn amn

Par suite

α10
     
   a11 a12 · · · a1n   α1 
α20
  a21 a22 · · · a2n   α2 
     

 =   × 
..
  .. .. .. ..   .. 
 


   .
  . . . .   . 
  
αm 0   a
m1 am2 · · · amn αm
 
 a11 a12 · · · a1n 
 a21 a22 · · · a2n 
 
Posons M =  . 
.. .. .. , alors on remarque que les colonnes de la matrice M sont

 ..

 . . . 

am1 am2 · · · amn
formées par les composantes des vecteurs f (ei ) dans la base B0

 
 α1 
 α2
 

Donc si α1 , α2 , · · · , αn sont les coordonnées de u dans la base B, on note aussi u =  . , et
 ..


 
αn
 0 
 α1 
 0 
 α2 
0 0 0 0
α1 , α2 , · · · , αn sont les coordonnées de v = f (u) dans la base B , on note aussi v =  . , alors
 .. 
 
αn0

26
α10
   
   α1 
α20 α2
   
   
f (u) = v ⇐⇒  ..
 = M × 
  ..
 ⇐⇒ v = M · u


 . 


 . 

αn0 αn

Définition 3.7. La matrice n M est o appelée matrice de l’application linéaire f dans les bases B =
{e1 , e2 , · · · , en } et B 0 = e10 , e20 , · · · , em
0 . On la note par : M (f , B, B 0 ).

Remarque 3.5. Une application linéaire f de E dans F est parfaitement déterminée par la
donnée de sa matrice relativement à la base de E et celle de F.
1. Soit f l’application linéaire définie par :

f : R3 −→ R2
(x, y, z) 7−→
(2x − y, 3y − 2z)

Soit B 3
n = {eo1 , e2 , e3 } la base canonique de R avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1). Soit
B0 = e1 , e2 la base canonique de R2 avec e10 = (1, 0) et e20 = (0, 1). On a alors
0 0

f (e1 ) = f (1, 0, 0) = (2, 0) = 2 · (1, 0) + 0 · (0, 1) = 2 · e10 + 0 · e20


f (e2 ) = f (0, 1, 0) = (−1, 3) = (−1, 0) + (0, 3) = (−1) · (1, 0) + 3 · (0, 1) = (−1) · e10 + 3 · e20
Par suite la matrice de f dans les bases B et B 0 est donnée par
!
0 2 −1 0
M (f , B, B ) =
0 3 −2
 
2. Soit f ∈ L R2 , R3 une application linéaire de matrice A dans les bases canoniques B = {e1 , e2 }
 
n o  1 1 
et B 0 = e10 , e20 , e30 respectivement de R2 et R3 donnée par A =  −1 1 . On a donc
 
1 −1
 

f (e1 ) = (1) · e10 + (−1) · e20 + (1) · e30


f (e2 ) = (1) · e10 + (1) · e20 + (−1) · e30

Si u = (x, y) ∈ R2 et v = f (u) = (x0 , y 0 , z0 ) ∈ R3 , alors on a

u = x · e1 + y · e2 et v = x0 · e10 + y 0 · e20 + z0 · e30 .

Par linéarité de f , on déduit que v = f (u) = f (x · e1 + y · e2 ) = xf (e1 ) + yf (e2 ). Ainsi

x0 · e10 + y 0 · e20 + z0 · e30 = x (e10 − e20 + e30 ) + y (e10 + e20 − e30 )

D’où

x0 · e10 + y 0 · e20 + z0 · e30 = (x + y) · e10 + (−x + y) · e20 + (x − y) · e30 .

Par suite

27
 0

 x = x+y
 0


 y = −x + y
 z0 = x − y

ce qui est équivalent à


 0   
 x   1 1 !
x

 0  
v =  y  =  −1 1 = A·u

    ×
 0    y
z 1 −1

La matrice M d’une application linéaire f de E dans F dépend des bases que l’on a choisies
dans E et F. Ceci est bien illustré dans l’exemple suivant.

Exemple 3.9. Considérons l’application linéaire f suivante :

f : R3 −→ R2
(x, y, z) 7−→ (2x − y, 3y − 2z)
n o
Notons par B1 = {e1 , e2 , e3 } et B10 = e10 , e20 les bases canoniques respectivement de R3 et R2 (i.e.

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), e10 = (1, 0) et e20 = (0, 1) .
Soit B2 = {u1 , u2 , u3 } une nouvelle base de R3 avecn u1 = o(1, 1, −1), u2 = (0, 1, 0), u3 = (−1, 1, 0)
(vérifier que B2 est bien une base de R3 !! ) et soit B20 = u10 , u20 une nouvelle base de R2 avec u10 =
(1, 0) et u20 = (1, 1) (vérifier aussi que B02 est bien une base de R2 !! ).
— Matrice de f dans B1 et B10 :
!
0 2 −1 0
M (f , B1 , B1 ) =
0 3 −2
0
— Matrice de f dans
 B2 et B 1 :
Les colonnes de M f , B2 , B10 sont formées des coordonnés de f (u1 ) , f (u2 ) et f (u3 ) dans la base
B10 . On a

f (u1 ) = f (1, 1, −1) = (1, 5) = (1, 0) + (0, 5) = (1) · e10 + (5) · e20
f (u2 ) = f (0, 1, 0) = (−1, 3) = (−1, 0) + (0, 3) = (−1) · e10 + (3) · e20
f (u3 ) = f (−1, 1, 0) = (−3, 3) = (−3, 0) + (0, 3) = (−3) · e10 + (3) · e20 ,
par suite
!
1 −1 −3
M (f , B2 , B10 ) =
5 3 3
0
— Matrice de f dans  B2 et B2 :
Les colonnes de M f , B2 , B20 sont formées par les coordonnées de f (u1 ) , f (u2 ) et f (u3 ) dans
la base B02 . Il nous faut donc exprimer f (u1 ) , f (u2 ) et f (u3 ) dans B02 . On a e10 = (1, 0) = u10 et u20 =
(1, 1) = (1, 0) + (0, 1) = e10 + e20 = u10 + e20 . Il s’en suit que

e10 = u10
e20 = −u10 + u20
Par suite

28
f (u1 ) = (1) · e10 + (5) · e20 = (1) · u10 + (5) · (−u10 + u20 ) = (−4) · u10 + (5) · u20
f (u2 ) = (−1) · u10 + (3) · (−u10 + u20 ) = (−4) · u10 + (3) · u20
f (u3 ) = (−3) · u10 + (3) · (−u10 + u20 ) = (−6) · u10 + (3) · u20
Ainsi
!
−4 −4 −6
M (f , B2 , B20 ) =
5 3 3
— Matrice de f dans B1 et B20 :
On a

f (e1 ) = 2e10 = 2 · u10 + 0 · u20


f (e2 ) = −e10 + 3e20 = −u10 + 3 (−u10 + u20 ) = −4 · u10 + 3 · u20
f (e3 ) = −2e20 = −2 (−u10 + u20 ) = 2 · u10 − 2 · u20 .
Ainsi
!
2 −4 2
M (f , B1 , B20 ) =
0 3 −2

Exercice
Considérons l’application identité

idR2 : R2 −→ R2
(x, y) 7−→ (x, y)
1. Déterminer sa matrice lorsque l’espace de départ et d’arrivée R2 est muni de sa base cano-
nique.
2. Déterminer la matrice de idR2 lorsquen l’espace
o de départ est muni de sa base canonique et
l’espace d’arrivée est muni de la base e1 , e2 avec e10 = (1, 0) et e20 = (1, 1).
0 0

3. nDéterminer
o la matrice de idR2 lorsque l’espace de départ et d’arrivée R2 est muni de la base
0 0
e1 , e2 .
Conclusion ?

Proposition 3.9. Toute matrice à m lignes et n colonnes represente une application linéaire de Rn
vers Rm .

Preuve 3.4. Considérons A ∈ Mm,n (R) donnée par


 
 a11 a12 · · · a1n 
 a
 21 a22 · · · a2n


A =  . .. .. ..

 ..

 . . . 

am1 am2 · · · amn
Considérons l’application f : Rn → Rm définie par f (ei ) = (a1i , a2i , · · · , ami ) pour i = 1, · · · , n. Ceci
caractérise bien une application linéaire de Rn dans Rm .

29
!
1 −1 0
Exemple 3.10. Soit la matrice de A ∈ M2,3 (R) donnée par A = . Si l’on note par B =
1 0 1
{u1 , u2 , u3 } une base de R3 et par B0 = {v1 , v2 } une base de R2 , alors la matrice A permet de définir
une application linéaire de R3 dans R2 donnée par :

f (u1 ) = v1 + v2
f (u2 ) = −v1
f (u3 ) = v2 .
Si u ∈ R3 et v ∈ R2 avec u = x · u1 + y · u2 + z · u3 et v = x0 · v1 + y 0 · v2 . Alors
 
!  x 
x0
! ( 0
1 −1 0   x = x−y
f (u) = v ⇐⇒ A · u = v ⇐⇒ ×  y  =
 
0 ⇐⇒
1 0 1 y y0 = x + z
z
 

Donc la matrice A permet de féfinir une application linéaire f de R3 dans R2 définie par :

f : R3 −→ R2
(x, y, z) 7−→ (x − y, x + z)
Remarque 3.6. De manière générale, toute matrice à m lignes et n colonnes permet de définir une
application linéaire d’un espace vectoriel E de dimension n vers un espace vectoriel F de dimension
m.

Proposition 3.10. Soit E un espace vectoriel de base B et idE : E → E est l’application identité de E
définie par : ∀x ∈ E, idE (x) = x. Alors M (idE , B, B) = I, où I est la matrice identité.

3.5.2 Regles de calcul


Théorème 3.3. Soient E et F deux espaces vectoriels de bases respectivement B et B 0 et soient f et
g deux applications linéaire de E dans F. Alors
(i) M (f + g, B, B 0 ) = M (f , B, B 0 ) + M (g, B, B 0 ) ;
(ii) M (λ · f , B, B 0 ) = λ · M (f , B, B 0 ).

Remarque 3.7. Comme conséquences de ce théorème, on déduit :


1. M (0, B, B 0 ) = O (matrice nulle),
2. M (−f , B, B 0 ) = −M (f , B, B 0 )
.

Théorème 3.4. Soient E, F et G trois espaces vectoriels de bases respectivement B, B 0 et B 00 , et


soient f : E → F et g : F → G deux applications linéaire. Alors

M (g ◦ f , B, B 00 ) = M (g, B 0 , B 00 ) × M (f , B, B 0 )

Exemple 3.11. Considérons

f : R3 −→ R2 f : R2 −→ R3
(x, y, z) 7−→ (2x − y, 3y − 2z) (x, y) 7−→ (x + y, y − x, x − y)

30
On muni R3 de sa base canonique B = {e1 , e2 , e3 } et R2 de la base B 0 = {u1 , u2 } avec u1 = (1, 0) et
u2 = (1, 1). On a
 
!  1 2 
2 −4 2
M (f , B, B 0 ) = et M (g, B 0 , B) =  −1 0 
 
0 3 −2
1 0
 

alors la matrice de g ◦ f par rapport à la base B dans R3 est donnée par


 
 2 2 −2 
0 0
M(g ◦ f , B, B) = M (g, B , B) × M (f , B, B ) =  −2 4 −2
 
 

2 −4 2

Corollaire 3.1. Soient E et F deux espaces vectoriels et f un isomorphisme de E dans F avec B une
base de E et B 0 une base de F. Alors

M f −1 , B 0 , B = M (f , B, B 0 ) −1
   

3.6 Changement de base et matrice d’un endomorphisme


3.6.1 Matrice de changement de base
n o
Soit E un espace vectoriel et B = {e1 , e2 , · · · , en } une base de E et soit B 0 = e10 , e20 , · · · , en0 une
nouvelle base de E. Supposons que

e10 = a11 e1 + a21 e2 + a31 e3 + · · · + an1 en


e20 = a12 e1 + a22 e2 + a32 e3 + · · · + an2 en
e30 = a13 e1 + a23 e2 + a33 e3 + · · · + an3 en
.. ..
. .
ej0 = a1j e1 + a2j e2 + a3j e3 + · · · + anj en
.. ..
. .
en0 = a1n e1 + a2n e2 + a3n e3 + · · · + ann en
Soit u un vecteur de E de coordonnées α10 , α20 , · · · , αn0 dans la nouvelle base B 0 de E. Cherchons
les coordonnées α1 , α2 , · · · , αn de u dans la base B (ancienne base de E ). On a

u =α10 e10 + α20 e20 + · · · + αn0 en0


=α10 (a11 e1 + a21 e2 + a31 e3 + · · · + an1 en ) + α20 (a12 e1 + a22 e2 + a32 e3 + · · · + an2 en ) + · · · +
+ · · · + αn0 (a1n e1 + a2n e2 + a3n e3 + · · · + ann en )
= (α10 a11 + α20 a12 + · · · + αn0 a1n ) e1 + (α10 a21 + α20 a22 + · · · + αn0 a2n ) e20 +
+ · · · + (α10 an1 + α20 an2 + · · · + αn0 ann ) en
=α1 e1 + α2 e2 + · · · + αn en .

Par identification, on obtient

31
α1 = α10 a11 + α20 a12 + · · · + αn0 a1n



α2 = α10 a21 + α20 a22 + · · · + αn0 a2n




.. ..





 . .
αi = α10 ai1 + α20 ai2 + · · · + αn0 ain





 .. ..
. .




αn = α10 an1 + α20 an2 + · · · + αn0 ann

Donc

  a11 a12 · · · a1n   α10 


     
 α1
  a21 a22 · · · a2n   α20 
α2
     

 =   × 
..  .. .. .. ..   .. 
 


 .   .
  . . .   . 
  
αm an1 an2 · · · ann αn0
 
 a11 a12 · · · a1n 
 a21 a22 · · · a2n 
 
Posons P =  . 
.. .. .. , alors on remarque que les colonnes de la matrice P sont

 ..

 . . . 

an1 an2 · · · ann
formées par les composantes des vecteurs e10 , e20 , · · · , en0 dans la base B.

Définition 3.8. La matrice P dont les colonnes sont formées par les coordonnées des vecteurs de
la nouvelle base B 0 dans l’ancienne base B de E est appelée matrice de passage de B à B 0 .

Exemple 3.12.

1. Considérons E = R2 , B = {e1 , e2 } la base canonique de R2 , i.e. e1 = (1, 0) et e2 = (0, 1). Soit


B 0 = {u1 , u2 } une nouvelle base de E = R2 , avec u1 = (1, 0) et u2 = (1, 1). On a

u1 = e1 = 1 · e1 + 0 · e2
u2 = (1, 1) = (1, 0) + (0, 1) = e1 + e2 = 1 · e1 + 1 · e2
!
0 1 1
donc la matrice de passage de B à B est : P = .
0 1
2. Considérons E = R3 et B = {e1 , e2 , e3 } la base canonique de R3 . Soit B 0 = {u1 , u2 , u3 } une
nouvelle base de E = R3 , avec u1 = (1, 1, −1), u2 = (0, 1, 0) et u3 = (−1, 1, 0). On a

u1 = e1 + e2 − e3
u2 = e3 = 0 · e1 + 0 · e2 + 1 · e3
u3 = (−1) · e1 + 1 · e2 + 0 · e3 ,
 
 1 0 −1 
donc la matrice de passage de B à B 0 est : P =  1 1 1 .
 

−1 0 0

Proposition 3.11. La matrice de passage de B à B 0 est inversible et son inverse P −1 represente la


matrice de passage de B 0 à B.

32
Donc les colonnes de P −1 sont formées des coordonnés des vecteurs de la base B dans la nou-
velle base B 0 .
D’aprés ce qui précède on a montré que si α10 , α20 , · · · , αn0 sont les coordonnées de u dans la
nouvelle base B 0 de E et α1 , α2 , · · · , αn sont les coordonnées de u dans l’ancienne base B de E, alors
   0 
 α1   α1 
 0 
 α2   α 
 
 = P ×  2 
 ..   .. 

 .   . 
   
αn αn0

Théorème 3.5. Soit u un vecteur de E. Si l’on note par X 0 la matrice à une colonne formée des
coordonnées de u dans la nouvelle base B 0 de E et par X la matrice colonne formée des coordonnées
de u dans l’ancienne base B de E. Alors,

X = P × X0

Corollaire 3.2. Soit u ∈ E, B une base de E et B 0 une nouvelle base de E. Si on note par X la
matrice colonne formée des coordonnées de u dans la base B et X 0 la matrice colonne formée des
coordonnées de u dans la nouvelle base de E. Alors X 0 = P −1 × X.

En d’autres termes, les coordonnées de u dans la nouvelle base B 0 de E sont données par la
matrice à une colonne X 0 avec X 0 = P −1 × X.

Exemple 3.13. Considérons E = R2 , B = {e1 , e2 } la base canonique de R2 , i.e. e1 = (1, 0), e2 = (0, 1).
Considérons B 0 = {u1 , u2 } une nouvelle base de R2 avec u1 = (1, !0) et u2 = (1, 1).
1 1
La matrice de passage de B à B 0 est donnée par P = .
0 1
Soit 2
! v = (2, 3) ∈ R , donc les coordonnées de v dans la base B sont données par la matrice X =
2
. Cherchons les coordonnées de v dans la nouvelle base B 0 . Notons par α et β les coordonnées
3
!
0 0 α
de v dans la base B , X = , alors d’aprés la conséquence précédente on a
β
! !
α −1 2
=P ×
β 3
Pour connaitre X 0 , il suffit donc de déterminer P −1 . Or d’aprés Proposition 3.11, P −1 repre-
sente la matrice de passage de B 0 à B, donc les colonnes de P −1 sont formées des coordonnées des
vecteurs de B dans la nouvelle base B 0 . Ainsi

e1 = u1 = (1) · u1 + 0 · u2
e2 = (0, 1) = (−1 + 1, 1) = (−1, 0) + (1, 1) = −u1 + u2
! ! ! ! !
1 −1 α 1 −1 2 −1
d’où P −1 = . Par suite X =0 = × = . Ainsi
0 1 β 0 1 3 3
v = (−1) · u1 + (3) · u2 .

33
3.6.2 Changement de base et son influence sur la matrice d’un endomorphisme.
Soient E un espace vectoriel, f un endomorphisme de E, B une base de E et B 0 une nouvelle
base de E. Notons par M(f , B, B) la matrice de f dans B et par M (f , B 0 , B 0 ) la matrice de f dans B 0 ,
et notons par P la matrice de passage de B à B 0 .
Une question naturelle que l’on peut se poser est : quelle est l’influence d’un changement de
base sur la matrice d’un endomorphisme ?. Pour repondre a cette question, on procède comme
suite :
Soient u ∈ E et v = f (u) ∈ A. Notons par

X la matrice colonne formée des coordonnées de u dans B,


X0 la matrice colonne formée des coordonnées de u dans B 0 ,
Y la matrice colonne formée des coordonnées de v = f (u) dans B,
Y0 la matrice colonne formée des coordonnées de v = f (u) dans B 0 .
On a

v = f (u) ⇐⇒ M(f , B, B) × X = Y ⇐⇒ M (f , B0 , B0 ) × X 0 = Y 0
Or X = P · X 0 et Y = P · Y 0 , donc M(f , B, B) × P · X 0 = P · Y 0 . En composant par P −1 , on obtient
P −1 × M(f
, B, B) × P · X 0 = Y 0 = M (f , B 0 , B 0 ) × X 0 . D’où

M (f , B 0 , B 0 ) = P −1 × M(f , B, B) × P .

Théorème 3.6. Soient B et B 0 deux bases de E et f un endomorphisme de E. Notons par P la


matrice de passage de B à B 0 , alors

M (f , B 0 , B 0 ) = P −1 × M(f , B, B) × P

Remarque 3.8. Ce résultat se généralise à une application linéaire f : E → F, où E et F deux espaces


vectoriels avec B1 et B10 deux bases de E, et B2 et B20 deux bases de F. Si l’on note par
— P la matrice de passage de B1 à B10 ,
— Q la matrice de passage de B2 à BB20 ,
alors

M (f , B10 , B20 ) = Q−1 × M (f , B1 , B2 ) × P .

Exemple 3.14. Soit f l’application définie par :

f : R3 −→ R3
(x, y, z) 7−→ (−x, 3y + 2z, 2z + x)
Vérifier que f est une application linéaire. n o
Soit B = {e1 , e2 , e3 } la base canonique de R3 et B0 = u10 , u20 , u30 une nouvelle base de R3 avec

u1 = (1, 1, −1), u2 = (0, 1, 0) et u3 = (−1, 1, 0) (vérifier qu’il s’agit bien d’une base de R3 !!! .
La matrice de f dans B est donnée par
 
 −1 0 0 
M(f , B, B) =  0 3 2 
 
1 0 2
 

Déterminons la matrice de f dans B 0 : M (f , B 0 , B 0 ).

34
On a M (f , B 0 , B 0 ) = P −1 × M(f , B, B) × P où P est la matrice de passage de B à B 0
 
 1 0 −1 
P =  1 1 1 
 
−1 0 0
 

Déterminons P −1 . On peut le faire de deux manières differentes :


1eme façon

 α α 0 α” 
 

P −1 =  β β 0 β 00  .
 
γ γ 0 γ 00
 

 α α 0 α”   1 0 −1   1 0 0 
     

P × P −1 = I ⇔  β β 0 β 00  ×  1 1 1  =  0 1 0 


     
γ γ 0 γ 00 −1 0 0 0 0 1
     

 α + α 0 − α” α 0 −α + α 0   1 0 0 
   

⇔  β + β 0 − β 00 β 0 −β + β 0  =  0 1 0  .


   
γ + γ 0 − γ 00 γ 0 −γ + γ 0 0 0 1
   

On obtient donc le système suivant

α + α 0 − α” = 1
 0
−α + α 0 = 0
 

 
 α =0 

β + β 0 − β 00 = 0
 0
−β + β 0 = 0
  
, β =1 ,
 

 
 

 γ + γ 0 − γ 00 = 0
  γ0 = 0
  −γ + γ 0 = 1

On obtient donc α = 0, β = 1, γ = −1 et α” = −1, β 00 = 2, γ 00 = −1. D’où


 
 0 0 0 
P −1 =  1 1 2 
 
−1 0 1
 

2eme façon : La matrice P −1 represente la matrice de passage de B 0 à B, donc les colonnes de


P −1 representent les coordonnées des vecteurs de B dans la base B 0 . On a

u1 = e1 + e2 − e3
u2 = e2
u3 = −e1 + e2
Il suffit donc d’exprimer e1 , e2 et e3 en fonction de u1 , u2 et u3 . On a

e2 = u2 = 0 · u1 + 1 · u2 + 0 · u3
e1 = e2 − u3 = u2 − u3 = 0 · u1 + 1 · u2 + (−1) · u3
e3 = e1 + e2 − u1 = (u2 − u3 ) + u2 − u1 = (−1) · u1 + 2 · u2 + (−1) · u3
D’où
 
 0 0 0 
P −1 =  1 1 2 
 
−1 0 1
 

Finalement, on a

35
       
 0 0 0   −1 0 0   1 0 −1   0 0 0 
M (f , B 0 , B 0 ) =  1 1 2  ×  0 3 2  ×  1 1 1  =  −2 3 2
       


−1 0 1 1 0 2 −1 0 0 0 0 −2
      

3.6.3 Rang d’une matrice


Soit A ∈ Mm,n (R) une matrice à m lignes et n colonnes. Comme nous avons montré, A represente
la matrice d’une application linéaire f de Rn dans Rm , ç.a.d. que les n colonnes de o A sont formées
0 0
des coordonnées de des vecteurs f (e1 ) , f (e2 ) , · · · , f (en ) dans la base e1 , e2 , · · · , em de Rm .
0

Définition 3.9. On appelle rang de la matrice A, le rang de l’application linéaire qu’elle represente

rang(A) = dim(Im(f )) = rang(f )

Remarque 3.9. Le rang d’une matrice, rang(A), represente tout simplement le nombre maximum
de vecteurs colonne de A qui sont linéairement indépendants

.
!
1 −1 0
Exemple 3.15. Considérons la matrice A = . Elle represente donc la matrice d’une
1 1 2
n o
application linéaire f de R3 vers R2 . Si l’on note par B = {e1 , e2 , e3 } une base de R3 et par B 0 = e10 , e20
une base de R2 , alors A = M (f , B, B 0 ). Si l’on note par u1 , u2 et u3 les vecteurs colonnes de A, alors
on a

u1 = f (e1 ) = (1, 1) = e10 + e20 ,


u2 = f (e2 ) = (−1, 1) = −e10 + e20 ,
u3 = f (e3 ) = (0, 2) = 2e20 .
On a Im(f ) = vect ({u1 , u2 , u3 }) et rang(A) = dim(Im(f )). Comme la famille {u1 , u2 , u3 } est géné-
ratrice de Im(f ), alors pour connaitre la dimension de cet espace il suffit de voir si elle est libre :
— A-t-on que {u1 , u2 , u3 } est une famille libre ?
Pour cela soient α, β, γ ∈ R tels que αu1 + βu2 + γu3 = 0, a-t-on que α = β = γ = 0 ?

( (
α−β = 0 α=β
αu1 + βu2 + γu3 = 0 ⇔ (α − β, α + β + 2γ) = (0, 0) ⇔ ⇔
α + β + 2γ = 0 γ = −β

Donc en particulier α = β = 1 et γ = −1 vérifient bien le système précédent et donc αu1 +


βu2 + γu3 = 0 mais sans que α = β = γ = 0. D’où la famille {u1 , u2 , u3 } est lièe. Par suite rang(A) =
dim(Im(f )) < 3.
On doit donc vérifier si {u1 , u2 } est libre ou {u1 , u3 } est libre ou {u2 , u3 } est libre. Une seule des
trois assertions est suffisante pour affirmer que rang(A) = 2, car rappelons que le rang de A c’est le
nombre maximum de vecteurs colonnes de A qui sont linéairement indépendant.
— Vérifions si {u1 , u2 } est libre :
( (
α=β α=0
αu1 + βu2 = 0 ⇔ (α − β, α + β) = (0, 0) ⇔ ⇔
2α = 0 β=0
D’où la famille {u1 , u2 } est libre, et par conséquent rang(A) = 2.

36
A present on donne une caractérisation d’une matrice carrée invesible moyennant la notion de
rang. En effet, soit A ∈ Mn,n (R) une matrice carrée, alors A represente la matrice d’une application
f : Rn → Rn relativement à une base B de Rn , i.e. A = M(f , B, B).
Supposons que la matrice A est inversible, alors A × A−1 = I. La matrice A−1 est une matrice
carrée et elle represente une application linéaire g : Rn → Rn , i.e. A−1 = M(g, B, B). Par suite

A × A−1 = I ⇔ M(f , B, B) × M(g, B, B) = M (idRn , B, B) ⇔ M(f ◦ g, B, B) = M (idRn , B, B) .


Par suite f ◦ g = idRn , ainsi f est bijective et on a f −1 = g. D’où
 
A−1 = M f −1 , B, B .
Comme f est bijective, alors elle est surjective et donc f (Rn ) = Rn . Ainsi Im(f ) = Rn , d’où
rang(A) = rang(f ) = dim(Im(f )) = dim (Rn ) = n.
On a donc le thèorème suivant :
Théorème 3.7. Soit A une matrice carrée d’ordre n. Alors

A inversible ⇐⇒ rang(A) = n.

Exercice
Considérons les matrices suivantes
! !
1 −2 5 0
A= et B=
3 −4 −6 7
1. Trouver 5A − 2B et 2A + 3B ;
2. Trouver t A, t B, t A × t B et t (A × B) ;
Conclusion ?

Solution
1.
! ! ! ! !
1 −2 5 0 5 −10 −10 0 −5 −10
5A − 2B = 5 −2 = + = ;
3 −4 −6 7 15 −20 12 −14 27 −34
! ! ! ! !
1 −2 5 0 2 −4 15 0 17 −4
2A + 3B = 2 +3 = + = .
3 −4 −6 7 6 −8 −18 21 −12 13
2. ! !
t 1 3 5 −6
t
A= , B=
−2 −4 0 7
! ! !
t t 1 3 5 −6 5 15
A× B = × =
−2 −4 0 7 −10 −16
! !
17 −14 t 17 39
A×B = , donc (A × B) =
39 −28 −14 −28
On remarque que t A × t B ,t (A × B).
On conclut donc qu’en général pour deux matrices A et B, on a t A × t B est different de
t (A × B).

37
Chapitre 4
Déterminant d’une matrice

4.1 Définitions
Le déterminant d’une matrice est définit par récurrence, ç.a.d. on définit le déterminant d’une
matrice à une ligne et une colonne puis on en déduit selui d’une matrice à deux lignes et deux
colonnes, puis selui d’une matrice à 3 lignes et 3 colonnes et ainsi de suite pour selui d’une matrice
à n lignes et n colonnes. En effet :
— Soit A ∈ M1,1 (R), i.e. A = (a), alors
! on défini le déterminant de A par det(A) = a.
a11 a12
— Soit A ∈ M2,2 (R), A = , alors on défini le déterminant de A par :
a21 a22
det(A) = a11 a22 − a21 a12 = a11 det (a22 ) − a21 det a12
 
 a11 a12 a13 
— Soit A ∈ M3,3 (R), A =  a21 a22 a23 , on défini le déterminant de A par
 
a31 a32 a33
 
! ! !
a22 a23 a12 a13 a12 a13
det(A) = a11 det − a21 det + a31 det
a32 a33 a32 a33 a22 a23
— Soit A ∈ Mn,n (R) d’ordre n (i.e. ayant n lignes et n colonnes). On désigne par Aij la matrice
carrée d’ordre n − 1 obtenue en supprimant la i-eme ligne et la j-ieme colonne de A. Alors,
on définit le déterminant de A comme suite .

det(A) = a11 det (A11 ) − a21 det (A21 ) + · · · + (−1)i+1 ai1 det (Ai1 ) + · · · + (−1)n+1 an1 det (An1 )

4.2 Notation
Le déterminant d’une matrice carrée d’ordre n s’ecrit parfois :

a11 a12 · · · a1n


a21 a22 · · · a21
.. .. .. .. pour det(A)
. . . .
an1 an2 · · · ann
Exemple 4.1.

38
0 1 1 2
2 0 1 1 1 2 1 1 2 1 1 2
3 2 0 1
= 0× 1 2 4 −3× 1 2 4 +0× 2 0 1 −2× 2 0 1
0 1 2 4
3 2 0 3 2 0 3 2 0 1 2 4
2 3 2 0
1 1 2 1 1 2
1. = −3 × 1 2 4 −2× 2 0 1
3 2 0 1 2 4
" # " #
2 4 1 2 1 2 0 1 1 2 1 2
= (−3) 1 × −1× +3× + (−2) 1 × −2× +1×
2 0 2 0 2 4 2 4 2 4 0 1
= 14.
2. Calculons le déterminant d’une matrice diagonale :
 
 a11 0 0 · · · 0 
 0 a22 0 · · · 0
 

A =  . .. .. ..

 .. .

 . . 

0 0 · · · ann
On a

Donc de proche en proche, on déduit que

det(A) = a11 · a22 · a33 · · · ann .


Comme conséquence, on déduit que det (In ) = 1 où In est la matrice identité d’ordre n, et
que det (a · In ) = an .
3. Calculons le déterminant d’une matrice triangulaire supérieure.
     
 a11 a12 · · · a1n   a22 a23 · · · a2n   a33 a32 · · · a3n 
 0 a22 a23 a2n   0 a33 a32 a3n   0 a44 a42 a4n
     

det  .
. . .
 = a11 ·det 
. . . .
 = a11 ·a22 det  ..

.. .. ..

 .. .. .. ..   .. .. .. .. 
   
.
   
  . . . 
    
0 ··· 0 ann 0 ··· 0 ann 0 ··· 0 ann
    
Donc de proche en proche, on déduit que
 
 a11 a12 · · · a1n 
 0 a22 a23 a2n
 

det  . .. .. ..
 = a · a · a · · · a
11 22 33 nn
 .. . . . 


0 ··· 0 ann

Définition 4.1. Soit A une matrice carrée d’ordre n et soit Aij la matrice carrée d’ordre n−1 obtenue
en supprimant la i ieme ligne et la j ieme colonne dans A.
 
(i) On appelle (i, j)ieme mineur de A, le scalaire Mij = det Aij .

39
 
(ii) On appelle (i, j)ieme cofacteur de A, le scalaire Cij = (−1)i+j det Aij = (−1)i+j Mij .
 
 a11 a12 a13 
Exemple 4.2. Considérons la matrice A =  a21 a22 a23 , alors on a
 
a31 a32 a33
 
! ! !
a22 a23 a12 a13 a11 a12
A11 = , A31 = , A23 =
a32 a33 a22 a23 a31 a32
a22 a23 a11 a12
M11 = det (A11 ) = , C23 = (−1)2+3
a32 a33 a31 a32
Ainsi
! ! !
a a a a a a
det(A) = a11 det 22 23 − a21 det 12 13 + a31 det 12 13
a32 a33 a32 a33 a22 a23
= a11 · C11 + a21 · C21 + a31 · C31
= a11 · M11 − a21 · M21 + a31 · M31
On peut donc donner la définition suivante du déterminant d’une matrice en terme de mineur
et cofacteur :
Définition 4.2. Le déterminant d’une matrice carrée A d’ordre n est donné par :

det(A) = a11 · C11 + a21 · C21 + · · · + an1 · Cn1


= a11 · M11 − a21 · M21 + a31 · M31 + · · · + (−1)n+1 Mn1 .

4.3 Propriétés fondamentales du déterminant d’une matrice d’ordre n


Considérons la matrice carrée d’ordre n suivante :
 
 a11 a12 · · · a1n 
 a
 21 a22 · · · a2n


A =  . .. .. ..

 .. .

 . . 

an1 an2 · · · ann
Notons par uj le vecteur de Rn dont les coordonnées sont la j ieme colonne de A. On ecrit aussi
det(A) = det (u1 , u2 , · · · , un ). On a alors les propriétés suivantes.
   
Proposition 4.1. (i) det u1 , u2 , · · · , uj , · · · , uk , · · · , un = − det u1 , u2 , · · · , uk , · · · , uj , · · · , un ,
   
(ii) det u1 , u2 , · · · , α · uj , · · · , un = α det u1 , u2 , · · · , uj , · · · , un ,
   
(iii) det u1 , u2 , · · · , uj + v, · · · , un = det u1 , u2 , · · · , uj , · · · , un + det (u1 , u2 , · · · , v, · · · , un ),
 
(iv) det u1 , λ · u1 , · · · , uj , · · · , un = 0 ( ici u2 = λ · u1 ).
Remarque 4.1.

1. La propriété (i) signifie que si A0 est la matrice obtenue à partir de A en changeant l’ordre
de deux colonnes alors det (A0 ) = − det(A).
2. La propriété (ii) signifie que si B est la matrice obtenue à partir de A en multipliant l’une
des colonnes de A par une constante α ∈ R alors det(B) = α det(A).

40
3. La propriété (iii) signifie que si C est la matrice obtenue, à partir de A, en ajoutant un
vecteur v à la i ieme colonne de A alors det(C) = det(A) + det(D) où D est la matrice obtenue
à partir de A en remplaçant la i ieme colonne de A par le vecteur v.
4. La propriété (iv) signifie que le déterminant d’une matrice dont deux colonnes sont iden-
tiques ou colinéaires (ç.a.d. l’une s’obtient à partir de l’autre en la multipliant par un sca-
laire) est nul.

Proposition 4.2. Si A et B sont deux matrices carrées d’ordre n, alors


(i) det(A × B) = det(A) × det(B),
 
(ii) det(A) = det t A .

Exemple 4.3. Soit A une matrice triangulaire inférieure


 
 a11 0 · · · 0 
 a21 a22 · · · 0 
 
A =  .
.. .. .. 

 .. . . . 

an1 an2 · · · ann

 
 a11 a21 · · · an1 
 0 a22 · · · an2 
 
t
alors A =  . .. .. .. . Il s’en suit que
 
 .. . . . 

0 0 · · · ann

 
det(A) = det t A = a11 · a22 · · · an1

Proposition 4.3. Soit A une matrice carrée inversible, alors


  1
det A−1 =
det(A)
   
Preuve 4.1. On a A × A−1 = I, donc det A × A−1 = det(I) = 1. Il s’en suit que det(A) × det A−1 = 1.
 
1
D’où det A−1 = det(A) .

Remarque 4.2. En général det(A + B) , det(A) + det(B).


!
1 0
Exemple 4.4. Considérons la matrice C = . Alors C peut s’ecrire comme suite
0 1
! !
1 0 0 0
C= + = A+B
0 0 0 1
On a det(C) = 1, det(A) = 0 et det(B) = 0. Donc det(C) = det(A + B) , det(A) + det(B).

4.4 Inverse d’une matrice et déterminant


Théorème 4.1. Soit A une matrice carrée d’ordre n. Alors

A inversible ⇐⇒ det(A) , 0.

41
 
Preuve 4.2. ⇒ Supposons que A est inversible, alors A×A−1 = I. Par suite det A × A−1 = det(I) = 1.
 
Donc det(A) × det A−1 = 1. D’où det(A) , 0.
⇐ Supposons par contradiction que A n’est pas inversible, alors rang(A) < n. Par suite si l’on
note par u1 , u2 , · · · , un les vecteurs colonnes de A, alors la famille {u1 , u2 , · · · , un } est liée. Donc il
existe des nombres réels α2 , α3 , · · · , αn non tous nuls tels que u1 = α2 u2 + α3 u3 + · · · + αn un . Par suite
d’aprés Proposition 26 propriétés (ii), (iii) et (iv), on déduit que

det(A) = det (u1 , u2 , · · · , un )


= det (α2 u2 + α3 u3 + · · · + αn un , u2 , · · · , un )
= α2 det (u2 , u2 , · · · , un ) + α3 det (u3 , u2 , u3 , · · · , un ) + · · · + αn det (un , u2 , · · · , un )
= 0.
Exemple 4.5.
!
1 −1
1. A = , on a det(A) = 0. Donc A n’est pas inversible.
−1 1
 
 3 −1 1 
2. A =  0 −2 1  , det(A) = 1 , 0. Donc A est inversible.
 
4 3 −1
 

Corollaire 4.1. Si {u1 , u2 , · · · , un } est une famille de vecteurs de Rn et si l’on note par A la matrice
dont les colonnes sont formées par les coordonnées des vecteurs ui dans la base de Rn alors

{u1 , u2 , · · · , un } est libre ⇐⇒ det(A) , 0.


Exemple 4.6.

1. Dans R3 , on considère la famille de vecteurs {u1 , u2 , u3 } avec u1 = (2, 0, 1), u2 = (4, 3, 0) et


u3 = (5, 0, 1). A-t-on que la famille {u1 , u2 , u3 } est libre ?. Pour cela, considérons la matrice A
dont les colonnes sont formées par les coordonnées des vecteurs u1 , u2 et u3 , soit
 
 2 4 5 
A =  0 3 0 
 
1 0 1
 

On a det(A) = −9 , 0, donc la famille {u1 , u2 , u3 } est libre dans R3 .


2. Dans R2 , on considère la famille de vecteurs {u1 , u2 } avec u1 = (1, −1), u2 = (−2, 2). A-t-on
que cette famille est libre dans R2 ?. Pour cela on considère la matrice A définie par
!
1 −2
A=
−1 2
On a det(A) = 0, donc la famille {u1 , u2 } est liée dans R2 .

4.5 Utilisation du déterminant pour le calcul de l’inverse d’une ma-


trice
Soit A une matrice carrée inversible d’ordre n, on note par Aij la matrice obtenue à partir de A
en supprimant la i ieme ligne et la j ieme colonne dans A. Notons par Cij le (i, j)ieme cofacteur de A,
   
ç.a.d. Cij = (−1)i+j det Aij et notons par M la matrice des cofacteurs, ç.a.d. M = Cij . Alors
n,n

42
1  
A−1 = · tM
det(A)

43
Chapitre 5
Diagonalisation

5.1 Valeurs et vecteurs propre d’un endomorphisme


Soit E un espace vectoriel de dimension n et f un endomorphisme de E.

Définition 5.1. On appelle vecteur propre de f , un vecteur u ∈ E tel que :


(i) u , 0 ;
(ii) ∃λ ∈ R tel que f (u) = λ · u.

Remarque 5.1. Le nombre λ intervenant dans la définition est unique.


En effet, supposons que f (u) = λu et f (u) = µu, alors λu − µu = 0. Ainsi (λ − µ)u = 0, comme
u , 0 alors λ − µ = 0. D’où λ = µ.

Définition 5.2. On appelle valeur propre de f tout nombre réel λ tel qu’il existe u ∈ E avec u , 0
et vérifiant f (u) = λ · u.

Définition 5.3. Si λ est une valeur propre de f alors l’ensemble Eλ = {u ∈ E : f (u) = λu} est appelé
sous-espace propre de f associé à λ.

Remarque 5.2. L’ensemble Eλ est un sous espace vectoriel de E.


En effet,

Eλ = {u ∈ E : f (u) = λu} = {u ∈ E : f (u) − λu = 0} = {u ∈ E : (f − λidE ) (u) = 0}


ainsi Eλ = Ker (f − λidE ) et par suite c’est est un sous espace vectoriel de E.

Exemple 5.1. Considérons l’application linéaire f définie par :

f : R2 −→ R2
(x, y) 7−→ (x − 3y, −y)
Déterminons les valeurs et vecteurs propres de f .
1. Valeurs propres : Soit u = (x, y) , (0, 0), ç.a.d. x , 0 ou y , 0, cherchons λ ∈ R tel que f (u) =
λu. Pour cela, on a
f (u) = λu ⇐⇒ (x − 3y, −y) = (λx, λy)
(
x − 3y = λx
⇐⇒
−y = λy

(1 − λ)x = 3y (1)


⇐⇒ 
(1 + λ)y = 0
 (2)

44
(a) Si y , 0, alors l’équation (2) implique λ = −1.
(b) Si y = 0, alors x = 0 (car u = (x, y) , (0, 0) et par suite d’aprés l’équation (1) on déduit que
λ = 1.
Donc les valeurs propres de f sont 1 et -1 .
2. Vecteurs propres : On déterminera lesnsous espaces propre o de f associés à λ = 1 et λ = −1,
2
i.e. E1 et E−1 . On a par définition E1 = u ∈ R : f (u) = u .

f (u) = u ⇐⇒ (x − 3y, −y) = (x, y)


⇐⇒ x − 3y = x et − y = y
⇐⇒ y = 0 et x arbitraire (c.a.d x libre).
D’où

u = (x, y) ∈ E1 ⇐⇒ u = (x, 0) = x(1, 0) = x · e1

Ainsi, E1 = vect ({e1 }) avec e1 = (1, 0).


n o
D’autres part, E−1 = u ∈ R2 : f (u) = −u .

f (u) = −u ⇐⇒ (x − 3y, −y) = (−x, −y)


⇐⇒ x − 3y = −x et − y = −y
3
⇐⇒ y = x.
2
     
D’où u = (x, y) = x, 32 x = x 1, 23 = x · v avec v = 1, 23 . Par suite

3
 
E−1 = vect({v}) avec v = 1, .
2

Exercice
Considérons l’application linéaire f définie par :

f :R2
−→ R2
(x, y) 7−→ (x + y, x − y)
Déterminer les valeurs et vecteurs propres de f ainsi que les sous-espaces propres associés.

Proposition 5.1. Si λ et λ0 sont deux valeurs propres de f avec λ , λ0 , alors Eλ ∩ Eλ0 = {0}.

Preuve 5.1. On a

u ∈ Eλ ∩ Eλ0 ⇐⇒ f (u) = λu et f (u) = −λu


⇐⇒ λu = −λ0 u
⇐⇒ (λ − λ0 ) u = 0
⇐⇒ u = 0.
Donc Eλ ∩ Eλ0 ⊂ {0} et comme {0} ⊂ Eλ ∩ Eλ0 , alors Eλ ∩ Eλ0 = {0}.

45
Proposition 5.2. Si λ1 , λ2 , · · · , λm sont des valeurs propres de f distinctes deux à deux et soient
v1 , v2 , · · · , vm les vecteurs propres respectivement associés à ses valeurs propres. Alors la famille
{v1 , v2 , · · · , vm } est libre.
Preuve 5.2. Par l’absurde supposons que la famille {v1 , v2 , · · · , vm } est liée. Soit r le nombre maxi-
mum de vecteurs dans la famille {v1 , v2 , · · · , vm } qui sont libres : r < m. Pour simplifier, on suppose
que la famille {v1 , v2 , · · · , vr } est libre. Donc la famille {v1 , v2 , · · · , vr+1 } est liée. Il s’en suit qu’il existe
α1 , α2 , · · · , αr ∈ R tels que

vr+1 = α1 v1 + α2 v2 + · · · + αr vr
Donc f (vr+1 ) = f (α1 v1 + α2 v2 + · · · + αr vr ) = α1 f (v1 )+α2 f (v2 )+· · ·+αr f (vr ). Par suite λr+1 vr+1 =
α1 λ1 v1 + α2 λ2 v2 + · · · + αr λr vr . Il s’en suit que

λr+1 (α1 v1 + α2 v2 + · · · + αr vr ) = α1 λ1 v1 + α2 λ2 v2 + · · · + αr λr vr
Ainsi

α1 (λr+1 − λ1 ) v1 + α2 (λr+1 − λ2 ) v2 + · · · + αr (λr+1 − λr ) vr = 0


Comme la famille {v1 , v2 , · · · , vr } est libre et les valeurs propres sont distinctes, alors α1 = α2 =
· · · = αr = 0. D’où vr+1 = 0 ce qui est impossible car un vecteur propre est toujours non nul. Ainsi
la famille {v1 , v2 , · · · , vm } est libre.

5.2 Diagonalisation d’un endomorphisme


Définition 5.4. Soit E un espace vectoriel et f un endomorphisme de E. On dit que f est diagona-
lisable s’il existe une base de E dans laquelle la matrice de f est diagonale.
Autrement dit, il existe une base B = {u1 , u2 , · · · , un } telle que
 
 α1 0 · · · 0 
 0 α · · · 0 
2
M(f , B, B) =  . .
 
. . . . .. 
 .
 . . . 
0 · · · 0 αn

donc f (u1 ) = α1 u1 , f (u2 ) = α2 u2 , . . . , f (un ) = αn un . Ainsi la base B est formée de vecteurs


propres de f . On déduit donc le théorème suivant
Théorème 5.1. f est diagonalisable si et seulement si il existe une base B de E formée de vecteurs
propres.
Théorème 5.2. Soit f un endomorphisme de l’espace vectoriel E, avec dim(E) = n. Supposons que
f possède n valeurs propres distinctes λ1 , λ2 , · · · , λn . Alors f est diagonalisable.
Preuve 5.3. On a λ1 , λ2 , · · · , λn sont distinctes, donc la famille de vecteurs propres {v1 , v2 , · · · , vn }
associée est libre. Comme Card ({v1 , v2 , · · · , vn }) = n = dim(E), alors la famille {v1 , v2 , · · · , vn } est une
base de E, par suite f est diagonalisable.
Exemple 5.2. Considérons l’application linéaire f définie par :

f : R3 −→ R3
(x, y, z) 7−→ (−x + 2y, y, −z)

46
Déterminons les valeurs propres de f . Pour cela considérons u = (x, y, z) , (0, 0, 0) et cherchons
λ ∈ R tel que f (u) = λu.

f (u) = λu ⇐⇒ (−x + 2y, y, −z) = (λx, λy, λz)





 −x + 2y = λx
⇐⇒  y = λy


 −z = λz




 (1 + λ)x − 2y = 0
⇐⇒  (1 − λ)y = 0


 (1 + λ)z = 0

si on suppose que λ , 1 et λ , −1, alors à partir des équations on déduit que y = 0 et z = 0 et à


partir de et que x = 0. Par suite u = (x, y, z) = (0, 0, 0) ce qui contredit le fait que u , 0. D’où λ = 1 ou
λ = −1. Ainsi les valeurs propres de f sont λ = 1 ou λ = −1. Déterminons les sous-espaces propres
E1 et E−1 . n o
On a par définition E−1 = u ∈ R3 : f (u) = −u , donc

u = (x, y, z) ∈ E−1 ⇐⇒ (−x + 2y, y, −z) = (−x, −y, −z)





 −x + 2y = −x
⇐⇒  y = −y


 −z = −z

⇐⇒ y = 0 et x, y sont libres.
Par suite u = (x, y, z) = (x, 0, z) = x(1, 0, 0) + z(0, 0, 1). D’où

E−1 = vect ({u1 , u2 }) avec u1 = (1, 0, 0) et u2 = (0, 0, 1).


n o
D’autres part, E1 = u ∈ R3 : f (u) = u , donc

u = (x, y, z) ∈ E1 ⇐⇒ (−x + 2y, y, −z) = (x, y, z)





 −x + 2y = x
⇐⇒  y=y


 −z = z

⇐⇒ z = 0 et x = y.
D’où

u = (x, y, z) ∈ E1 ⇐⇒ u = (x, x, 0) = x(1, 1, 0)


Ainsi, E1 = vect ({u3 }) avec u3 = (1, 1, 0). On peut vérifier facilement que B = {u1 , u2 , u3 } est
une base de R3 (à faire ! ! !). Donc c’est une base de R3 formée de vecteurs propre de f . D’où f est
diagonalisable et la matrice de f dans la base B est comme suite :
 
 −1 0 0 
M(f , B, B) =  0 −1 0 
 
0 0 1
 

Théorème 5.3. Soient E un espace vectoriel de dimension n et f un endomorphisme de E. Dési-


gnons par λ1 , λ2 , · · · , λr toutes les valeurs propres distinctes de f et par Eλ1 , Eλ2 , · · · , Eλr les sous-
espaces propres associés. Alors

47
 r

 X  
(f diagonalisable ) ⇐⇒ dim(E) = n = dim Eλi 
i=0

Exemple 5.3.

1. Considérons l’application linéaire f définie par :

f : R3 −→ R3
(x, y, z) 7−→ (−x + 2y, y, −z)
On a déja montrer que les valeurs propres de f sont λ = 1 et λ = −1. D’autres part, on a

E−1 = vect ({u1 , u2 }) avec u1 = (1, 0, 0) et u2 = (0, 0, 1)


E1 = vect ({u3 }) avec u3 = (1, 1, 0)
La famille {u1 , u2 } est libre et génératrice de E−1 , donc c’est une base de E−1 . Ainsi dim (E−1 ) =
2. D’autres part, la famille {u3 } est génératrice de E1 et u3 , 0, donc c’est une base de E1 .
Ainsi dim (E1 ) = 1. D’où
 
dim R3 = dim (E−1 ) + dim (E1 )

Par suite f est diagonalisable.


2. Considérons l’application linéaire f définie par :

f : R3 −→ R3
(x, y, z) 7−→ (x − y + 2z, y + 2z, z)
Vérifions si f est diagonalisable. Pour cela, cherchons les valeurs propres de f ainsi que les
sous-espaces propres associés. Commençons d’abord par chercher les valeurs propres de f .
Considérons u = (x, y, z) , (0, 0, 0) et cherchons λ ∈ R tel que f (u) = λu.

f (u) = λu ⇐⇒ f (x, y, z) = λ(x, y, z)





 x − y + 2z = λx
⇐⇒  y + 2z = λy


 z = λz




 (1 − λ)x − y + 2z = 0
⇐⇒  (1 − λ)y + 2z = 0


 (1 − λ)z = 0

(a) Si z , 0, alors à partir de l’équation (3), on déduit que λ = 1.


(b) Si z = 0 et y , 0, alors à partir de l’équation (2) on déduit que λ = 1.
(c) Si z = 0 et y = 0, alors on a x , 0(car u , 0) et à partir de (1) on déduit que λ = 1.
On déduit donc qu’il y a une seule valeur propre λ = 1. Déterminons le sous-espace propre
E1 associé à la valeur propre λ = 1.

48
u = (x, y, z) ∈ E1 ⇐⇒ f (x, y, z) = (x, y, z)



 x − y + 2z = x
⇐⇒  y + 2z = y


 z=z




 −y + 2z = 0
⇐⇒  2z = 0


 z=z

⇐⇒ y = z = 0 et x libre.
Ainsi u = (x, y, z) = (x, 0, 0) = x(1, 0, 0). Par suite

E1 = vect ({e1 }) où e1 = (1, 0, 0).


 
On a dim (E1 ) = 1 < 3 = dim R3 , d’où f n’est pas diagonalisable.

5.3 Diagonalisation d’une matrice carrée


Soit A une matrice carrée d’ordre n, A ∈ Mn,n (R). La matrice A represente donc une application
linéaire f de Rn dans Rn , A = M(f ).
Définition 5.5. On appelle valeur propre de A tout nombre réel λ tel qu’il existe au moins une
matrice colonne X à n éléments différents de zéro tel que A · X = λX
Remarque 5.3. Si on note par X la matrice colonne dont les éléments sont formés par les coordon-
nées de u ∈ Rn dans la base canonique B = {e1 , e2 , · · · , en } de Rn . Alors

A · X = λX ⇐⇒ f (u) = λu.
Donc λ est une valeur propre de A est équivalent à λ est une valeur propre de f , et on a le
sous-espace propre

Eλ = {u ∈ Rn : A · u = λu} = {u ∈ Rn : f (u) = λu}


Définition 5.6. On appelle vecteur propre de A toute matrice à une colonne X , 0 tel qu’il existe
λ ∈ R vérifiant A · X = λX
Remarque 5.4. Comme dans la remerque précédente, un vecteur propre de A est un vecteur
propre de f et réciproquement.
Définition 5.7. On appelle polynôme caractéristique de A, le déterminant de A − λI, on le note
par PA (λ) :

PA (λ) = det(A − λI).


Remarque 5.5. Si λ est une valeur propre de A, alors il existe X , 0 tel que AX = λX.

AX = λX ⇐⇒ AX − λX = 0 ⇐⇒ (A − λI)X = 0,
comme X , 0, donc (A−λI) n’est pas inversible (car sinon on a (A−λI)−1 (A−λI)X = (A−λI)−1 0 =
0 et donc X = 0 ce qui est absurde). Puisque (A − λI) n’est pas inversible alors det(A − λI) = 0. On
déduit donc

λ valeur propre de A ⇐⇒ PA (λ) = det(A − λI) = 0.

49
Donc les valeurs propres de A sont les racines du polynôme caractéristique de A.

Définition 5.8. La matrice A est dite diagonalisable si l’application linéaire qu’elle represente est
diagonalisable.

Remarque 5.6. Si A est diagonalisable, alors l’application linéaire f qu’elle represente est diago-
nalisable. Autrement dit, il existe une base B 0 = {u1 , u2 , · · · , un } de Rn formée de vecteurs propres
de f et la matrice M (f , B 0 , B 0 ) de f dans la base B0 est une matrice diagonale. Si on note par
B = {e1 , e2 , · · · , en } la base canonique de Rn , comme A represente f alors M(f , B, B) = A. Si on note
par P la matrice de passage de B 0 à B, alors

M (f , B 0 , B 0 ) = P −1 · M(f , B, B) · P

On peut donc donner la définition suivante équivalente pour un matrice diagonalisable :

Définition 5.9. Une matrice carrée A d’ordre n est dite diagonalisable s’il existe une matrice P
inversible telle que

D = P −1 · A · P où D est un matrice diagonale.

On donne à present un caractérisation des matrices diagonalisables.

Théorème 5.4. Soient A une matrice carrée d’ordre n et λ1 , λ2 , · · · , λr toutes les valeurs propres
distinctes. Désignons par Eλ1 , Eλ2 , · · · , Eλr les sous-espaces propres correspondants, alors
 r

 X  
( A diagonalisable ) ⇐⇒ n = dim Eλi 
i=0

Exemple 5.4.
!
1 −3
1. Considérons la matrice A = . Vérifions si A est diagonalisable.
0 −1
Pour cela, commençons d’abord par déterminer les valeurs propres de A. On cherchera donc
les racines du polynôme caractéristique de A.

1−λ −3
PA (λ) = det(A − λI) = = (1 − λ)(−1 − λ)
0 −1 − λ
Ainsi, PA (λ) = 0 ⇐⇒ λ = 1 ou λ = −1.
Déterminons les sous-espaces propres B1 et B−1 .
n o
(a) E1 = u ∈ R2 : Au = u , u = (x, y).
! ! ! (
1 −3 x x x − 3y = x
Au = u ⇐⇒ = ⇐⇒
0 −1 y y −y = y

D’après l’équation (2), on déduit que y = 0 et à partir de l’équation (1), en tenant compte
de y = 0, on déduit que x = x, c’est à dire que x est libre. Ainsi

u = (x, y) ∈ E1 ⇐⇒ u = (x, 0) = x(1, 0) = xu1 avec u1 = (1, 0)


D’où E1 = vect ({u1 }) avec u1 = (1, 0).

50
n o
(b) E−1 = u = (x, y) ∈ R2 : Au = −u ,

! ! ! (
1 −3 x −x x − 3y = −x 2
Au = −u ⇐⇒ = ⇐⇒ ⇐⇒ y = x
0 −1 y −y −y = −y 3
   
Ainsi, u = (x, y) ∈ E−1 ⇐⇒ u = x, 32 x = x 1, 23 = x · u2 .
 
D’où E−1 = vect ({u2 }) avec u2 = 1, 32 .
 
On a dim (E1 ) = dim (E−1 ) = 1, par suite 2 = dim R2 = dim (E1 ) + dim (E−1 ). Il s’en suit
d’après le théorème précédent que A est diagonalisable.
Ainsi B 0 = {u1 , u2 } est une nouvelle base de R2 formée de vecteurs propres de A. Si l’on note
par B = {e1 , e2 } la base canonique de R2 et par P la matrice de passage de B 0 à B, alors on
a
! ! !
−1 1 0 1 1 −1 3 2/3 0
A=P DP avec D = et P = , P =
0 −1 0 2/3 2 1 1
2. Considérons la matrice
 
 4 −2 2 
A =  −1 3 1 
 
1 −1 5
 

étudions si cette matrice est diagonalisable. Pour cela, déterminons les valeurs propres de
A. On procèdera en cherchant les racines du polynôme caractéristique.
4 − λ −2 2  
PA (λ) = det(A − λI) = −1 3 − λ 1 = (4 − λ) 12 − 8λ + λ2 = (4 − λ)(2 − λ)(6 − λ).
1 −1 5 − λ
Donc les valeurs propres de A sont λ1 = 4, λ2 = 2 et λ3 = 6. On vérifie facilement que les
sous-espaces propres associés aux valeurs propres λ1 , λ2 et λ3 sont comme suite :

E4 = vect ({u1 }) avec u1 = (0, 1, 1)


E2 = vect ({u2 }) avec u2 = (1, 1, 0)
E6 = vect ({u3 }) avec u3 = (1, 0, 1).
On voit bien que  
dim R3 = dim (E4 ) + dim (E2 ) + dim (E6 )
. Il s’en suit que la matrice A est diagonalisable. Ainsi on a
 
 4 0 0 
D = P −1 AP avec D =  0 2 0 
 
0 0 6
 

P est la matrice de passage de la base B 0 = {u1 , u2 , u3 } à la base canonique B = {e1 , e2 , e3 } de


R3 .

51
Chapitre 6
Système d’equations linéaires

6.1 Définitions
Définition 6.1. On appelle système d’equations linéaires de m équations et n inconnues tout sys-
tème de la forme




a11 x1 + a12 x2 + · · · + a1n xn = b1




 a21 x1 + a22 x2 + · · · + a2n xn = b2


 .
. ..
. .


 (6.1)



 ai1 x1 + ai2 x2 + · · · + ain xn = bi

 .. ..
. .






am1 x1 + am2 x2 + · · · + amn xn = bm

où les aij et bi sont des nombres donnés. Les variables x1 , x2 , · · · , xn sont les inconnues du sys-
tème et les aij pour i ∈ {1, · · · , n} et j ∈ {1, · · · , m} sont les coefficients du système.
Exemple 6.1. Le système : 
x1 + x2 − x3 =1



x1 + 3x3
 =0
est un système à 3 inconnues et 2 équations.
Définition 6.2. On appelle solution du système (6.1) tout vecteur x = (x1 , x2 , · · ·n ) ∈ Rn dont les
composantes vérifient simultanément les m équations.
Définition 6.3. Si bi = 0∀i = 1, · · · , m, alors on dit que le système est homogène.
Remarquons que le système (6.1) peut s’écrire sous la forme matricielle suivante :
     
 a11 a12 · · · a1n   x1   b1 
 a21 a22 · · · a2n   x2   b2 
     
 ×   = 
 .. .. .. ..   ..   .. 
 
 . . . .   .   . 
   

am1 am2 · · · amn xm bm
    

Notons par
     
 a11 a12 · · · a1n   x1   b1 
 a21 a22 · · · a2n x2 b2
     
    
A =  . .. .. ..
 , X =  ..
 et B =  ..

 ..
  
 . . . 


 . 


 . 

am1 am2 · · · amn xm bm

52
Donc le système (6.1) devient : A × X = B.
Ainsi résoudre (6.1) est équivalent à résoudre l’équation matricielle A × X = B.
La matrice A s’appelle matrice du système. Comme A ∈ Mm,n (R) donc elle represente une appli-
cation linéaire f : Rn → Rm , et donc léquation A × X = B devient f (x) = b où x = (x1 , x2 , · · · , xn ) ∈ Rn
et b = (b1 , b2 , · · · , bn ) ∈ Rm . Par suite résoudre le système (6.1) est équivalent à résoudre l’équation
f (x) = b.

Définition 6.4. On appelle rang du système (6.1), le rang de la matrice A, autrement dit le rang
de l’application linéaire qu’elle represente.

6.2 Existence de la solution.


Le système (6.1) est équivalent à l’équation matricielle A × X = B et aussi à l’équation f (x) = b
où f est l’application linéaire de matrice A.

Théorème 6.1.

(i) Si rang(A) = m, alors il existe au moins une solution.


(ii) Si rang(A) = n, alors il existe au plus une solution, ç.a.d. une solution ou bien aucune solu-
tion.

(iii) Si rang(A) = n = m, alors une unique solution x = f −1 ( b) (ou X = A−1 B .

Preuve 6.1. On a vérifié que résoudre l’équation A × X = B est équivalent à résoudre l’équation
f (x) = b.
(i) Si l’application linéaire f est surjective, donc f (Rn ) = Rm . Comme b ∈ Rm , alors il existe au
moins x ∈ Rn tel que f (x) = b. Or

f surjective ⇐⇒ f (Rn ) = Rm
⇐⇒ rang(f ) = m
⇐⇒ rang(A) = m
(ii) On a d’après le théorème de la dimension dim (Rn ) = dim(ker f ) + dim(Im(f )) = n. Donc si
rang(A) = rang(f ) = dim(Im(f )) = n, alors dim(ker(f )) = 0 et donc f est injective. Donc si
b ∈ Rm alors il existe au plus x ∈ Rn tel que f (x) = b. Ainsi
— si b ∈ f (Rn ) alors l’équation f (x) = b admet une solution,
— si b < f (Rn ) alors l’équation f (x) = b n’admet pas de solution.
(iii) Si rang(A) = n = m alors dim(Im(f )) = n et dim(ker(f )) = 0. Il s’en suit que f est bijective et
par suite il existe une unique solution x = f −1 (b).

6.3 Système de Cramer


Définition 6.5. On appelle système de Cramer tout système de n équations linéaires à n inconnues
(c.a.d. n = m ) dont la matrice A est inversible.

Le système (6.1) est équivalent à A × X = B, donc si A est inversible alors X = A−1 × B.

Théorème 6.2. Tout système de Cramer admet une solution unique X = A−1 × B.

Remarque 6.1. Si B = 0, alors la solution est X = 0.

53
6.4 Résolution d’un système d’équation linéaire
6.4.1 Résolution d’un système de Cramer

     
 a11 a12 · · · a1n   x1   b1 
 a21 a22 · · · a2n x2 b2
     
    
avec A =  . .. .. ..
 , X =  ..
 et B =  ..
 .
 ..
  
. . .   .   . 
     
an1 an2 · · · ann xn bn
Le système (6.1) est un système de Cramer, donc A est inversible ce qui est équivalent à det(A) ,
0. Alors les composantes xi du vecteur solution sont données par

a11 · · · a1i−1 b1 a1i+1 · · · a1n


a21 · · · a2i−1 b2 a2i+1 · · · a21
.. .. .. .. .. ..
. ··· . . . . .
an1 · · · ani−1 bn ani+1 · · · ann
xi = pour i = 1, · · · , n.
det(A)
Exemple 6.2. 


 2x1 − x2 − x3 = 1

x1 + x2 − 2x3 = 3




3x + 2x − 3x = 2

1 2 3
     
 2 −1 −1   x1   1 
On a A =  1 1 −2  , X =  x2  , B =  3  , det(A) = 2.
     
3 2 −3 x3 2
     
Les composantes du vecteur solution X sont données par

1 −1 −1 2 1 −1 2 −1 1
3 1 −2 1 3 −2 1 1 3
2 2 −3 3 2 −3 3 2 2
x1 = , x2 = , x3 = .
2 2 2
−4 −8
On obtient x1 = 3 , x2 = −1 et x3 = 3 .

6.4.2 Résolution d’un système linéaire par la méthode de Gauss


Considérons le système

54




a11 x1 + a12 x2 + · · · + a1n xn = b1




 a21 x1 + a22 x2 + · · · + a2n xn = b2


 .. ..
. .


 (6.2)
ai1 x1 + ai2 x2 + · · · + ain xn = bi




 .. ..
. .






am1 x1 + am2 x2 + · · · + amn xn
 = bm
La matrice des coefficients du système (6.2) est donnée par :
 
 a11 a12 · · · a1n 
 a21 a22 · · · a2n 
 
A =  .
.. .. .. 

 .. . . . 

am1 am2 · · · amn

On considère la matrice suivante appelée matrice augmentée du système (6.2) :


 
 a11 a12 · · · a1n b1 
 a21 a22 · · · a2n b2 
 
 .. .. .. .. .. 
 
 . . . . . 
 
am1 am2 · · · amn bm
Dans le but de simplifier l’exposé, nous allons introduire la méthode de Gauss en procédant à
la résolution du système suivant :

 
 2 −1 −1 
La matrice du système (S) est A =  1 1 −2 .
 
3 2 −3
 
La matrice augmentée du système (S) est
 
 2 −1 −1 1 
 1 1 −2 3 
 
 
3 2 −3 2
Le principe de la méthode du pivot de Gauss consiste à :
1. éliminer les variables y et z de l’équation (I)
2. éliminer les variables x et z de l’équation (II)
3. éliminer les variables x et y de l’équation (III).

55

Vous aimerez peut-être aussi