Académique Documents
Professionnel Documents
Culture Documents
Algèbre Mathématiques
Kokou Essiomle, Ph.D
23 octobre 2023
Table des matières
1 Espaces Vectoriels 3
1.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Sous-espace vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Familles génératrices, familles libres, familles liées, Bases . . . . . . . . . . . . . . . 6
1.3.1 Familles génératices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Familles libres-Familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Bases et dimensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Applications linéaires 11
2.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Application linéaire et indépendance linéaire . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Noyau, Image et Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . 14
3 Matrices 18
3.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.1 Addition de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.2 Multiplication d’une matrice par un scalaire . . . . . . . . . . . . . . . . . . . 19
3.3.3 Multiplication des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.4 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.4 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4.1 Cas particuliers de matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4.2 Opérations sur les matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . 23
3.4.3 Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.5 Représentation d’une application linéaire par une matrice . . . . . . . . . . . . . . . 25
3.5.1 Caractérisation d’une application linéaire . . . . . . . . . . . . . . . . . . . . 25
3.5.2 Regles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6 Changement de base et matrice d’un endomorphisme . . . . . . . . . . . . . . . . . 31
3.6.1 Matrice de changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6.2 Changement de base et son influence sur la matrice d’un endomorphisme. . 34
3.6.3 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1
5 Diagonalisation 44
5.1 Valeurs et vecteurs propre d’un endomorphisme . . . . . . . . . . . . . . . . . . . . 44
5.2 Diagonalisation d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3 Diagonalisation d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2
Chapitre 1
Espaces Vectoriels
1. On appelle par vecteur tout élément d’un espace vectoriel E et par scalaire tout nombre
réel.
2. Lorsque E muni de la loi de composition interne satisfait les propriétés A1 − A4 , on dit dit
que E est un groupe commutatif
Exemple 1.1.
1. (Rn , +, ·) est un espace vectoriel. L’addition et la multiplication par un scalaire sont définies
par :
(x1 , x2 , · · · , xn ) + (y1 , y2 , · · · , yn ) = (x1 + y1 , x2 + y2 , · · · , xn + yn )
λ · (x1 , x2 , · · · , xn ) = (λx1 , λx2 , · · · , λxn ) .
2. On désigne par F(R, R) l’ensemble des fonctions de R à valeur dans R muni des lois + et ·
avec ∀f , g ∈ F(R, R), f + g ∈ F(R, R) est définie par
(f + g)(x) = f (x) + g(x),
3
Proposition 1.1. Soit E un espace vectoriel. Alors,
(i) ∀λ ∈ R, λ · 0 = 0 ;
(ii) ∀x ∈ E, 0 · x = 0 ;
(iii) ∀λ ∈ R et ∀u ∈ E : λ · u = 0 =⇒ λ = 0 ou u = 0 ;
(iv) ∀λ ∈ R∗ et ∀u, v ∈ E : λ · u = λ · v =⇒ u = v ;
(v) ∀λ, µ ∈ R et ∀u ∈ E et u , 0 : λ · u = µ · u =⇒ λ = µ ;
(vi) ∀λ ∈ R et ∀u ∈ E : λ · (−u) = (−λ) · u = −(λ · u).
Preuve 1.1.
(i) Soit λ ∈ R, alors d’aprés l’axiome (A6 ), on déduit que λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0. Il s’en suit
que λ · 0 = 0.
(ii) Soit u ∈ E, alors d’aprés l’axiome (A7 ), on a 0 · u = (0 + 0) · u = 0 · u + 0 · u. Il s’en suit que
0 · u = 0.
(iii) Soit λ ∈ R et u ∈ E tel que λ · u = 0.
— Supposons que λ , 0 et montrons que −1 −1
u = 0. En effet, on a λ ·(λ·u) = λ ·0 = 0. D’aprés
l’axiome (A8 ) on déduit que λ−1 λ · u = 0, donc 1 · u = 0. Par suite à partir de l’axiome
(A5 ) on déduit que u = 0.
— Supposons que u , 0 et montrons que λ = 0. Supposons le contraire, ç.a.d λ , 0, alors
−1 −1
λ · (λ · u) = 0 et donc λ λ · u = 0, par suite 1 · u = u = 0 ce qui est en contradiction
avec l’hypothèse u , 0. Donc si u , 0 alors λ = 0.
(iv) Soit ∗ −1 −1
λ ∈R et u,
v ∈ E tel que λ · u = λ · v. Donc λ · (λ · u) = λ · (λ · v) ce qui est equivalent
−1 −1
a λ λ · u = λ λ · v, donc 1 · u = 1 · v. D’où u = v.
(v) Soient λ, µ ∈ R et u ∈ E\{0} tel que λu = µu, montrons que λ = µ. On a
Par suite λ · u + λ · (−u) = 0, il s’en suit que λ · (−u) = −(λ · u). D’autres part, (−λ) · u + λ · u =
(−λ + λ) · u = 0, donc (−λ) · u = −(λ · u). Finalement on a donc établit
Exercise
On désigne par E l’ensemble des nombres réels strictement positifs : E = {x ∈ R : x > 0}. On
définit sur E deux lois ∗ et · par : ∀x, y ∈ E et λ ∈ R
x ∗ y = xy et λ · x = xλ
Montrer que (E, ∗, ·) est un espace vectoriel.
4
1.2 Sous-espace vectoriels.
Définition 1.2. Soient E un espace vectoriel et F un sous-ensemble de E. Alors, F est un sousespace
vectoriel de E si et seulement si :
(i) 0 ∈ F ;
(ii) F est stable pour l’addition vectorielle, ç.a.d. ∀u, v ∈ F, on a u + v ∈ F ;
(iii) F est stable pour la multiplication par un scalaire, c.a.d. ∀u ∈ F, ∀λ ∈ R, λ · u ∈ F.
Théorème 1.1. F est un sous-espace vectoriel (s.e.v.) de E si et seulement si
1. 0 ∈ F.
2. ∀α, β ∈ R, ∀u, v ∈ F, on aαu + βv ∈ F.
Preuve 1.2. Supposons que F est un s.e.v. de E, alors par (i) on a 0 ∈ F. Soient α, β ∈ R et u, v ∈ F,
montrons que αu + βv ∈ F. Pour cela, posons z = αu et w = βv, alors par (iii) on déduit que z ∈ F et
w ∈ F et par (ii) on déduit que z + w ∈ F. Il s’en suit que αu + βv ∈ F et par suite (2) est vérifiées.
Réciproquement, supposons que (1) et (2) sont vérifiées et montrons que F est un s.e.v. de E.
En effet,
— (i) découle directement de (1).
— Pour (ii) et (iii) : on a par hypothèses que ∀α, β ∈ R, αu + βv ∈ F. Si l’on prend α = β = 1
alors on déduit que u + v ∈ F et donc (ii) est vérifiée. Si l’on prend β = 0 alors on déduit que
αu ∈ F∀u ∈ F et ∀α ∈ R et donc (iii) est vérifiée.
Exemple 1.2.
1. {0} est un s.e.v. de E et E est un s.e.v. de lui même. Si F est un s.e.v. de E avec F , {0} et E , E
alors est appelé sous-espace vectoriel propre de E.
2. Considérons le sous-ensemble F de R3 définit par F = {(x, y, 0) : x, y ∈ R}. Alors F est un s.e.v.
de R3 . En effet,
— (0, 0, 0) ∈ F.
— Soient α, β ∈ R et u, v ∈ F, u = (x, y, 0) et v = (x0 , y 0 , 0). Alors
Exercice
n o
On considère les ensembles E = (x, y) ∈ R2 : y = 2x et F = {(x, x) : x ∈ R. Montrer que E et F sont
des s.e.v. de R2 et déterminer E ∩ F.
5
1.3 Familles génératrices, familles libres, familles liées, Bases
1.3.1 Familles génératices
Définition 1.3. Soient E un espace vectoriel et u1 , u2 , · · · , un des vecteurs de E.
On appelle combinaison linéaire des vecteurs u1 , u2 , · · · , un , tout vecteur de la forme
α1 u1 + α2 u2 + · · · + αn un ,
où α1 , α2 , · · · , αn ∈ R.
L’ensemble de toutes les combinaisons linéaires de ces vecteurs, qu’on désigne par vect ({u1 , u2 , · · · , un }),
est appelé sous-espace engendré par les vecteurs u1 , u2 , · · · , un .
En d’autres termes, vect ({u1 , u2 , · · · , un }) = {α1 u1 + α2 u2 + · · · + αn un : α1 , α2 , · · · , αn ∈ R}.
Exemple 1.3. Prenons E = R2 , u1 = (1, 2), u2 = (2, 3), u3 = (−1, 1). Alors
αu + βv = α (α1 u1 + α2 u2 + · · · + αn un ) + β (β1 u1 + β2 u2 + · · · + βn un )
= (αα1 + ββ1 ) u1 + (αα2 + ββ2 ) u2 + · · · + (ααn + ββn ) un
= γ1 u1 + γ2 u2 + · · · + γn un ∈ vect ({u1 , u2 , · · · , un }) .
Pour (ii), Soit F un s.e.v. de E tel que la famille de vecteurs {u1 , u2 , · · · , un } est contenue dans F,
montrons que vect ({u1 , u2 , · · · , un }) ⊂ F. Pour cela soit u ∈ vect ({u1 , u2 , · · · , un }) alors ∃α1 , α2 , · · · , αn ∈
R tels que u = α1 u1 +α2 u2 +· · ·+αn un . Comme F est un s.e.v. de E alors α1 u1 ∈ F, α2 u2 ∈ F, · · · , αn un ∈
F et donc α1 u1 + α2 u2 + · · · + αn un ∈ F. D’où u ∈ F. Ainsi vect ({u1 , u2 , · · · , un }) ⊂ F. Donc vect
({u1 , u2 , · · · , un }) est le plus petit sous espace vectoriel de F contenant la famille {u1 , u2 , · · · , un }.
Définition 1.4. Soit E un espace vectoriel, on dit que la famille de vecteurs {u1 , u2 , · · · , un } est une
famille génératrice de E si E = vect ({u1 , u2 , · · · , un }).
En d’autres termes, {u1 , u2 , · · · , un } est une famille génératrice de E si et seulement si pour tout
u ∈ E, il existe α1 , α2 , · · · , αn ∈ R tels que u = α1 u1 + α2 u2 + · · · + αn un .
Exemple 1.4.
6
2. Considérons E = R3 et soit u = (x, y, z) ∈ E. Alors
u = (x, y, z) = (x, 0, 0) + (0, y, 0) + (0, 0, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) = xe1 + ye2 + ze3 .
α1 u1 + α2 u2 + · · · + αn un = 0
Dans ce cas on dits que les vecteurs u1 , u2 , · · · , un sont linéairement dépendants.
Exemple 1.5. Considérons dans l’espace vectoriel E = R2 les vecteurs u1 , u2 , u3 avec u1 = (1, 1), u2 =
(0, 1) et u3 = (1, 0). Remarquons que u1 = (1, 0) + 2(0, 1) = u2 + 2u3 . Par suite
Définition 1.6. Soit E un espace vectoriel et {u1 , u2 , · · · , un } une famille finie de vecteurs de E. On
dit que cette famille est une famille libre si
α1 u1 + α2 u2 + · · · + αn un = 0 =⇒ α1 = α2 = · · · = αn = 0
Dans ce cas on dits que les vecteurs u1 , u2 , · · · , un sont linéairement indépendants.
Exemple 1.6.
7
3. Dans E = R3 on considère les vecteurs u1 = (6, 0, −1) et u2 = (1, 1, 4).
⇔ α = β = 0.
Remarque 1.2.
u1 − λu2 + 0 · u3 + 0 · u4 + · · · + 0 · un = 0
Théorème 1.3. Soit E un espace vectoriel et B = {e1 , e2 , · · · , en } une famille de vecteurs de E. Alors
Preuve 1.5. ⇒ Supposons que B = {e1 , e2 , · · · , en } est une base de E et montrons que B est libre et
génératrice.
— B est libre : soient α1 , α2 , · · · αn ∈ R tels que α1 e1 + α2 e2 + · · · + αn en = 0 et vérifions que
α1 = α2 = · · · = αn = 0. En effet, on a
α1 · e1 + α2 · e2 + · · · + αn · en = 0 et
0 · e1 + 0 · e2 + · · · + 0 · en = 0
comme B est une base de E alors necessairement par unicité de l’ecriture on a α1 = α2 = · · · =
αn = 0.
— B est géneratrice de E : soit u ∈ E, comme B est une base de E alors u s’ecrit de manière
unique sous la forme u = nk=1 αk ek et donc E = vect ({e1 , e2 , · · · , en }).
P
8
⇐ Supposons que B = {e1 , e2 , · · · , en } est une famille libre et génératrice de E, montrons que
B est une base de E. Soit u ∈ E, comme B est génératrice de E alors ∃α1 , α2 , · · · , αn ∈ R tels que
u = α1 e1 + α2 e2 + · · · + αn en , montrons que u s’ecrit de manière unique sous cette forme. Pour cela
supposons que u = β1 e1 + β2 e2 + · · · + βn en et vérifions que α1 = β1 , α2 = β2 , · · · , αn = βn . En effet,
u = α1 e1 + α2 e2 + · · · + αn en = β1 e1 + β2 e2 + · · · + βn en
Donc
Exemple 1.7.
Théorème 1.4. Si E est un espace vectoriel et B est une base de E ayant n élément alors toute base
de E admetn éléments. On dit que n est la dimension de E, et on note dim(E) = n.
Exemple 1.8. dim({0}) = 0, dim(R) = 1, dim R2 = 2, dim R3 = 3 et dim (Rn ) = n.
Exemple 1.9. Considérons E = R3 et B = {e1 , e2 , e3 } sa base canonique. Soit la famille {u1 , u2 } avec
u1 = (1, 1, 1) et u2 = (1, −1, 1). Il est facile de verifier que la famille {u1 , u2 } est une famille libre (à
faire !). D’autres part, on peut remarquer que u1 − u2 = 2e2 et donc (1)u1 + (−1)u2 + (−2)e2 = 0. Il
s’en suit que la famille {u1 , u2 , e2 } est une famille liée, donc on ne peut pas choisir e2 dans B pour
completer la famille {u1 , u2 } de manière à avoir une base de E. Mais il est facile de vérifier que
{e1 , u1 , u2 } est une famille libre (à faire ! !), et donc c’est une nouvelle base de E.
9
n o
Exemple 1.10. Soit F = (x, y, z) ∈ R3 : x − y = 0 , F est un sous-espace vectorriel de R3 (à vérifier ! !).
(x, y, z) ∈ F ⇐⇒ x − y = 0 ⇐⇒ x = y
et donc
10
Chapitre 2
Applications linéaires
Exemple 2.1.
Remarque 2.1.
Proposition 2.1. Soient E et F deux espaces vectoriels et f une application de E dans F. Alors
11
Preuve 2.1. ⇒ Soient λ, µ ∈ R, x, y ∈ E, posons z = λx + µy = z1 + z2 avec z1 = λx et z2 = µy. Comme
f est linéaire, alors par (i) et (ii) on a
Remarque 2.2. De manière générale, on peut montrer par recurrence sur n que f est une applica-
tion linéaire de E dans F si et seulement si ∀x1 , x2 , · · · , xn ∈ E et ∀λ1 , λ2 , · · · , λn ∈ R on a
n n
X X
f λi xi = λi f (xi )
k=1 k=1
Exemple 2.2.
hα : E −→ E
x 7−→ hα (x) = α · x
L’application hα est un endomorphisme de E, appelé homothétie vectoriel de rapport α.
Remarquons que h1 = idE .
2. Soient les deux applications suivantes
P1 : R × R −→ R
et P2 : R × R −→ R
(x, y) 7−→ P1 (x, y) = x
P1 et P2 sont deux applications linéaires appelées respectivement première et seconde pro-
jection de R × R sur R.
De manière générale l’application
P i : Rn
(x1 , x2 , · · · , xi , · · · , xn ) 7−→ R
xi
Exercice
Soient a, b, c, d ∈ R et soit f l’application de R2 dans R2 définie par f (x, y) = (ax + by, cx + dy).
1. Montrer que f est une application linéaire de R2 dans R2 .
2. Montrer que :
f est un automorphisme de R2 ⇐⇒ (ad − bc , 0)
Proposition 2.2. Soient E, F, G trois espace vectoriels et f une application linéaire de E dans F et g
une application linéaire de F dans G. Alors, l’application h = g ◦ f est une application linéaire de
E dans G.
12
Preuve 2.2. Soient α, β ∈ R et x, y ∈ E, a-t-on que h(αx + βy) = αh(x) + βh(y) ? Comme g et f sont
linéaires alors
Une question naturelle que l’on peut se poser : quel est le lien entre l’indépendance linéaire des
vecteurs f (u1 ) , · · · , f up et celle des vecteurs u1 , · · · , up ? La reponse est dans les deux propositions
suivantes :
n o n o
Proposition 2.5. Si f (u1 ) , · · · , f up est une famille libre de F, alors u1 , · · · , up est une famille
libre de E.
13
n o
Remarque 2.4. La réciproque de ce résultat est géneralement fausse, ç.a.d. si u1 , · · · , up est une
n o
famille libre dans E alors on n’a pas nécessairement que f (u1 ) , · · · , f up est une famille libre
dans F. Pour que ceci soit vrai, il faut ajouter une hypothèse sur l’application linéaire f comme le
montre la proposition suivante :
n o
Proposition 2.6. Si f est une application linéaire injective de E dans F et si u1 , · · · , up est une
n o
famille libre dans E, alors la famille f (u1 ) , · · · , f up est libre dans F.
Preuve 2.5. Si α1 f (u1 ) + α2 f (u2 ) + · · · + αp f up = 0F , a-t-on que α1 = α2 = · · · = αp = 0 ?. On a par
linéarité de f ,
α1 f (u1 ) + α2 f (u2 ) + · · · + αp f up = 0F = f (0E ) ⇐⇒ f α1 u1 + α2 u2 + · · · + αp up = f (0E ) .
Preuve 2.6. On a que f est un isomorphisme de E sur F, donc f est une application linéaire bijective
de E sur F. Ainsi f est injective et surjective. On a que {e1 , e2 , · · · , en } est une famille libre et que f est
injective, alors d’aprés la proposition précédente on déduit que la famille {f (e1 ) , f (e2 ) , · · · , f (en )}
est une famille libre de F. Il reste à montrer que {f (e1 ) , f (e2 ) , · · · , f (en )} est une famille génératrice
de F. En effet, comme f est surjective donc f (E) = F et par suite ∀y ∈ F, ∃x ∈ E tel que f (x) = y.
Comme B est une base de E, alors ∃α1 , α2 , · · · , αp ∈ R tel que x = α1 e1 + α2 e2 + · · · + αn en . Par suite
Corollaire 2.1. Si E et F sont deux espaces vectoriels isomorphes alors dim(E) = dim(F).
Ker(f ) = {x ∈ E : f (x) = 0F }
Exemple 2.3. Soit f l’application linéaire définie de R vers R × R par f (x) = (x, 2x) (à vérifier ! ! !).
Déterminons Ker(f ). Par définition Ker(f ) = {x ∈ E : f (x) = 0R2 = (0, 0)}. Donc
14
Proposition 2.7. Soient E et F deux espaces vectoriels et f une application linéaire de E dans F.
Alors Ker(f ) est un sous espace vectoriel de E.
Preuve 2.7. On a 0E ∈ Ker(f ). Soient α, β ∈ R et x, y ∈ Ker(f ). Vérifions que αx+βy ∈ Ker(f ). Comme
x, y ∈ Ker(f ), alors f (x) = f (y) = 0. Et par linéarité de f , on déduit que f (αx+βy) = αf (x)+βf (y) = 0.
D’où αx + βy ∈ Ker(f ).
Exemple 2.4.
(x, y, z) ∈ Ker(f ) ⇔ (x, y, z) = (x, −x, z) = (x, −x, 0) + (0, 0, z) = x(1, −1, 0) + z(0, 0, 1)
Ainsi Ker(f ) = vect({u, v}) avec u = (1, −1, 0) et v = (0, 0, 1). On peut vérifier facilement que
la famille {u, v} est libre (à faire ! ! !), donc dim(Ker(f )) = 2.
Théorème 2.2. Soit f une application linéaire de E dans E. Alors
15
D’où f est injective.
Exemple 2.5. Considérons l’application
f : R3 −→ R3
(x, y, z) 7−→ (2x, x − y, z)
L’application f est linéaire (à montrer ! !), a-t-on qu’elle est injective ?. Pour cela déterminons
Ker(f ).
⇐⇒ x = y = z = 0.
D’où Ker(f ) = {(0, 0, 0)}, ainsi f est injective.
Définition 2.4. Soit f une application linéaire de E dans F. L’image de f , noté Im (f ), est l’en-
semble des images par f des vecteurs de E.
f : R3 −→ R3
(x, y, z)
7−→ (x − y, y − z, z − x)
Déterminons Im(f ). Pour cela
16
Preuve 2.10. Soient y, z ∈ F et α, β ∈ R avec y = f (x) et z = f (x0 ) ; donc x = f −1 (y) et x0 = f −1 (z).
Vérifions que f −1 (αy + βz) = αf −1 (y) + βf −1 (z). Pour cela
f −1 (αy + βz) = f −1 (αf (x) + βf (x0 )) = f −1 (f (αx + βx0 )) = αx + βx0 = αf −1 (y) + βf −1 (z).
Définition 2.5. Soit f une application linéaire de E dans F. On appelle rang de f , et on note
rang(f ), la dimension de Im(f ) :
f : R3 −→ R3
(x, y, z) 7−→ (x − y, y − z, z − x)
Remarque 2.6. Dans le cas où f est une application linéaire de E dans F avec dim(E) = dim(F),
alors pour montrer que f est bijective il suffit de montrer que f est injective ou bien surjective.
Généralement, il suffit de montrer que Ker(f ) = {0E }.
17
Chapitre 3
Matrices
3.2 Notations
— Le nombre réel aij represente le terme dans la matrice M situé à la i ieme ligne et la j ieme
colonne.
— L’ensemble des matrices à n lignes et m colonnes est noté par : Mn,m (R).
— Une matrice à n lignes et m colonnes est notée par :
M = aij 1≤i≤n ou tout simplement M = aij
1≤j≤m n,m
— Une matrice colonne est une matrice M = (ai1 )1≤i≤n ayant une seule colonne :
a11
a21
M = .
..
an1
— Une matrice ligne est une matrice M = a1j ayant une seule ligne :
1≤j≤m
M= a11 a12 · · · a1m
— Une matrice carée est une matrice M ayant le même nombre de lignes et de colonnes, ç.a.d.
M ∈ Mn,n (R) (i.e. m = n ). On dira alors que M est une matrice carrée d’ordre n.
— La matrice nulle de Mn,m (R) est la matrice à n lignes et m colonnes dont tous les termes sont
nuls. On la note par : O.
18
Exemple 3.1.
1 3 5 −2
1. La matrice M = 8 −4 3 2 est une matrice à 3 lignes et 4 colonnes, M ∈ M3,4 (R).
−1 −2 3 5
2. La matrice M = 1 0 3 0 est une matrice ligne, M ∈ M1,4 (R).
−1
3. La matrice M = 12 est une matrice colonne, M ∈ M3,1 (R).
0
3 −2 4
4. La matrice M = 0 −1 6 est une matrice carrée d’ordre 3, M ∈ M3,3 (R).
1 7 9
!
0 0 0
5. La matrice O = est la matrice nulle dans M ∈ M2,3 (R).
0 0 0
19
2 1 −4 −2
Exemple 3.3. Soit la matrice M = 0 −1 ∈ M3,2 (R) et λ = −2, alors λ · M = 0 2 .
5 8 −10 −16
Remarque 3.2. La multiplication d’une matrice par un scalaire permet de définir une loi de com-
position externe sur Mn,m (R) par :
20
Si on note par C = A × B = cij
n,m
Pour obtenir le terme de la i-ième ligne et la j-ième colonne dans C à savoir cij , alors on mul-
tiplie terme à terme les termes de la i-ème ligne dans A par les termes de la j-ème colonne dans
B.
Exemple 3.5.
Remarque 3.3. Pour que le produit A×B de deux matrices A et B soit définit, il faut que le nombre
de colonnes dans la matrice à gauche soit égale au nombre de lignes dans la matrice à droite.
Proposition 3.3. Soient A ∈ Mn,p (R), B ∈ Mp,q (R) et C ∈ Mq,m (R) et λ ∈ R. Alors,
(i) (λ · A) × B = A × (λ · B) = λ · (A × B) ;
(ii) (A × B) × C = A × (B × C) (associativité).
21
3.4 Matrices carrées
Rappelons qu’une matrice A est dite carrée si le nombre delignes est égale au nombre de co-
lonnes, ç.a.d. A ∈ Mn,n (R),
a11 a12 · · · a1n
a a22 · · · a2n
21
A = . .. .. ..
∈ M (R)
n,n
..
. . .
an1 an2 · · · ann
On appelle diagonale de A, le sous-ensemble {a11 , a22 , · · · , ann }
22
5. Matrice symétrique : Une matrice carrée A ∈ Mn,n (R) est dite symétrique si tous les éléments
de A sont symétriques par rapport à la diagonale :
Exercice
Déterminer toutes les matrices diagonales X d’ordre 3 vérifiant l’équation : X 2 − X − 2I = 0.
Formule du binôme
Si A, B ∈ Mn,n (R) avec A × B = B × A, alors
p
X
(A + B)p = Cpk Ak Bp−k avec A0 = In et B0 = In
k=0
Exercices
1 1 0
Soit la matrice A = 0 1 1 .
0 0 1
1. Calculer A2 et A3 .
23
2. Montrer que pour tout entier naturel n, An s’ecrit sous la forme
1 an bn
An = 0 1 an
0 0 1
Ecrire les relations de récurrence vérifiées par (an ) et (bn ) ; en déduire An pour tout n.
3. Soit la matrice B = A − I3 . Calculer Bn pour tout n ∈ N. En déduire un autre mode de calcul
de An .
1
En faisant (I) + (II), on obtient a = 2 et d’aprés (II) on obtient b = a = 21 . De la même manière,
on obtient c = 12 et d = − 12 . Par suite
!
−1 1/2 1/2
A =B= (vérifier que l’on a bien B × A = I2 !! )
1/2 −1/2
Proposition 3.6. Soient A, B ∈ Mn,n (R) deux matrices carrées inversibles. Alors,
−1
(i) A−1 = A;
(ii) (A × B)−1 = B−1 × A−1 .
Preuve 3.1.
−1
(i) Notons par B = A−1 , donc B × A = A × B = In , par suite B−1 = A. Ainsi A−1 = A.
(ii) Notons par C l’inverse de A×B, alors C ×(A×B) = (A×B)×C = In . Il s’en suit par associativité
que (C × A) × B = In . Par suite (C × A) × B × B−1 = In × B−1 = B−1 . Ainsi C × A = B−1 . De même
on compose par A−1 , on obtient alors C = B−1 × A−1 .
24
Preuve 3.2. Supposons par l’absurde que A ou B sont inversibles, par exemple supposons A inver-
sible. Alors
A × B = O =⇒ A−1 × (A × B) = A−1 × O = O
=⇒ A−1 × A × B = O
=⇒ B = O ce qui est absurde.
Donc A et B ne sont pas inversibles.
Proposition 3.8. Si A est inversible alors l’équation matricielle A × X = B admet une solution
unique X = A−1 × B.
Preuve 3.3.
A × X = B =⇒ A−1 × (A × X) = A−1 × B
=⇒ A−1 × A × X = A−1 × B
=⇒ X = A−1 × B.
une base de F, et soit f une application linéaire de E dans F. Considérons un vecteur u ∈ E, alors
u = α1 e1 + α2 e2 + · · · + αn en . Les scalaires α1 , α2 , · · · , αn representent les coordonnées de u dans la
base B. Notons par v = f (u), on a alors
Si l’on note par α10 , α20 , · · · , αn0 les coordonnées de v = f (u) dans la base B 0 , ç.a.d. v = α10 e10 +
α20 e20 + · · · + αm
0 e0 .
On a alors
m
25
α10 = α1 a11 + α2 a12 + · · · + αn a1n
α20 = α1 a21 + α2 a22 + · · · + αn a2n
.. ..
. .
αi0 = α1 ai1 + α2 ai2 + · · · + αn ain
.. ..
. .
0
αm = α1 am1 + α2 am2 + · · · + αn amn
Par suite
α10
a11 a12 · · · a1n α1
α20
a21 a22 · · · a2n α2
= ×
..
.. .. .. .. ..
.
. . . . .
αm 0 a
m1 am2 · · · amn αm
a11 a12 · · · a1n
a21 a22 · · · a2n
Posons M = .
.. .. .. , alors on remarque que les colonnes de la matrice M sont
..
. . .
am1 am2 · · · amn
formées par les composantes des vecteurs f (ei ) dans la base B0
α1
α2
Donc si α1 , α2 , · · · , αn sont les coordonnées de u dans la base B, on note aussi u = . , et
..
αn
0
α1
0
α2
0 0 0 0
α1 , α2 , · · · , αn sont les coordonnées de v = f (u) dans la base B , on note aussi v = . , alors
..
αn0
26
α10
α1
α20 α2
f (u) = v ⇐⇒ ..
= M ×
..
⇐⇒ v = M · u
.
.
αn0 αn
Définition 3.7. La matrice n M est o appelée matrice de l’application linéaire f dans les bases B =
{e1 , e2 , · · · , en } et B 0 = e10 , e20 , · · · , em
0 . On la note par : M (f , B, B 0 ).
Remarque 3.5. Une application linéaire f de E dans F est parfaitement déterminée par la
donnée de sa matrice relativement à la base de E et celle de F.
1. Soit f l’application linéaire définie par :
f : R3 −→ R2
(x, y, z) 7−→
(2x − y, 3y − 2z)
Soit B 3
n = {eo1 , e2 , e3 } la base canonique de R avec e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1). Soit
B0 = e1 , e2 la base canonique de R2 avec e10 = (1, 0) et e20 = (0, 1). On a alors
0 0
D’où
Par suite
27
0
x = x+y
0
y = −x + y
z0 = x − y
La matrice M d’une application linéaire f de E dans F dépend des bases que l’on a choisies
dans E et F. Ceci est bien illustré dans l’exemple suivant.
f : R3 −→ R2
(x, y, z) 7−→ (2x − y, 3y − 2z)
n o
Notons par B1 = {e1 , e2 , e3 } et B10 = e10 , e20 les bases canoniques respectivement de R3 et R2 (i.e.
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), e10 = (1, 0) et e20 = (0, 1) .
Soit B2 = {u1 , u2 , u3 } une nouvelle base de R3 avecn u1 = o(1, 1, −1), u2 = (0, 1, 0), u3 = (−1, 1, 0)
(vérifier que B2 est bien une base de R3 !! ) et soit B20 = u10 , u20 une nouvelle base de R2 avec u10 =
(1, 0) et u20 = (1, 1) (vérifier aussi que B02 est bien une base de R2 !! ).
— Matrice de f dans B1 et B10 :
!
0 2 −1 0
M (f , B1 , B1 ) =
0 3 −2
0
— Matrice de f dans
B2 et B 1 :
Les colonnes de M f , B2 , B10 sont formées des coordonnés de f (u1 ) , f (u2 ) et f (u3 ) dans la base
B10 . On a
f (u1 ) = f (1, 1, −1) = (1, 5) = (1, 0) + (0, 5) = (1) · e10 + (5) · e20
f (u2 ) = f (0, 1, 0) = (−1, 3) = (−1, 0) + (0, 3) = (−1) · e10 + (3) · e20
f (u3 ) = f (−1, 1, 0) = (−3, 3) = (−3, 0) + (0, 3) = (−3) · e10 + (3) · e20 ,
par suite
!
1 −1 −3
M (f , B2 , B10 ) =
5 3 3
0
— Matrice de f dans B2 et B2 :
Les colonnes de M f , B2 , B20 sont formées par les coordonnées de f (u1 ) , f (u2 ) et f (u3 ) dans
la base B02 . Il nous faut donc exprimer f (u1 ) , f (u2 ) et f (u3 ) dans B02 . On a e10 = (1, 0) = u10 et u20 =
(1, 1) = (1, 0) + (0, 1) = e10 + e20 = u10 + e20 . Il s’en suit que
e10 = u10
e20 = −u10 + u20
Par suite
28
f (u1 ) = (1) · e10 + (5) · e20 = (1) · u10 + (5) · (−u10 + u20 ) = (−4) · u10 + (5) · u20
f (u2 ) = (−1) · u10 + (3) · (−u10 + u20 ) = (−4) · u10 + (3) · u20
f (u3 ) = (−3) · u10 + (3) · (−u10 + u20 ) = (−6) · u10 + (3) · u20
Ainsi
!
−4 −4 −6
M (f , B2 , B20 ) =
5 3 3
— Matrice de f dans B1 et B20 :
On a
Exercice
Considérons l’application identité
idR2 : R2 −→ R2
(x, y) 7−→ (x, y)
1. Déterminer sa matrice lorsque l’espace de départ et d’arrivée R2 est muni de sa base cano-
nique.
2. Déterminer la matrice de idR2 lorsquen l’espace
o de départ est muni de sa base canonique et
l’espace d’arrivée est muni de la base e1 , e2 avec e10 = (1, 0) et e20 = (1, 1).
0 0
3. nDéterminer
o la matrice de idR2 lorsque l’espace de départ et d’arrivée R2 est muni de la base
0 0
e1 , e2 .
Conclusion ?
Proposition 3.9. Toute matrice à m lignes et n colonnes represente une application linéaire de Rn
vers Rm .
29
!
1 −1 0
Exemple 3.10. Soit la matrice de A ∈ M2,3 (R) donnée par A = . Si l’on note par B =
1 0 1
{u1 , u2 , u3 } une base de R3 et par B0 = {v1 , v2 } une base de R2 , alors la matrice A permet de définir
une application linéaire de R3 dans R2 donnée par :
f (u1 ) = v1 + v2
f (u2 ) = −v1
f (u3 ) = v2 .
Si u ∈ R3 et v ∈ R2 avec u = x · u1 + y · u2 + z · u3 et v = x0 · v1 + y 0 · v2 . Alors
! x
x0
! ( 0
1 −1 0 x = x−y
f (u) = v ⇐⇒ A · u = v ⇐⇒ × y =
0 ⇐⇒
1 0 1 y y0 = x + z
z
Donc la matrice A permet de féfinir une application linéaire f de R3 dans R2 définie par :
f : R3 −→ R2
(x, y, z) 7−→ (x − y, x + z)
Remarque 3.6. De manière générale, toute matrice à m lignes et n colonnes permet de définir une
application linéaire d’un espace vectoriel E de dimension n vers un espace vectoriel F de dimension
m.
Proposition 3.10. Soit E un espace vectoriel de base B et idE : E → E est l’application identité de E
définie par : ∀x ∈ E, idE (x) = x. Alors M (idE , B, B) = I, où I est la matrice identité.
M (g ◦ f , B, B 00 ) = M (g, B 0 , B 00 ) × M (f , B, B 0 )
f : R3 −→ R2 f : R2 −→ R3
(x, y, z) 7−→ (2x − y, 3y − 2z) (x, y) 7−→ (x + y, y − x, x − y)
30
On muni R3 de sa base canonique B = {e1 , e2 , e3 } et R2 de la base B 0 = {u1 , u2 } avec u1 = (1, 0) et
u2 = (1, 1). On a
! 1 2
2 −4 2
M (f , B, B 0 ) = et M (g, B 0 , B) = −1 0
0 3 −2
1 0
Corollaire 3.1. Soient E et F deux espaces vectoriels et f un isomorphisme de E dans F avec B une
base de E et B 0 une base de F. Alors
M f −1 , B 0 , B = M (f , B, B 0 ) −1
31
α1 = α10 a11 + α20 a12 + · · · + αn0 a1n
α2 = α10 a21 + α20 a22 + · · · + αn0 a2n
.. ..
. .
αi = α10 ai1 + α20 ai2 + · · · + αn0 ain
.. ..
. .
αn = α10 an1 + α20 an2 + · · · + αn0 ann
Donc
Définition 3.8. La matrice P dont les colonnes sont formées par les coordonnées des vecteurs de
la nouvelle base B 0 dans l’ancienne base B de E est appelée matrice de passage de B à B 0 .
Exemple 3.12.
u1 = e1 = 1 · e1 + 0 · e2
u2 = (1, 1) = (1, 0) + (0, 1) = e1 + e2 = 1 · e1 + 1 · e2
!
0 1 1
donc la matrice de passage de B à B est : P = .
0 1
2. Considérons E = R3 et B = {e1 , e2 , e3 } la base canonique de R3 . Soit B 0 = {u1 , u2 , u3 } une
nouvelle base de E = R3 , avec u1 = (1, 1, −1), u2 = (0, 1, 0) et u3 = (−1, 1, 0). On a
u1 = e1 + e2 − e3
u2 = e3 = 0 · e1 + 0 · e2 + 1 · e3
u3 = (−1) · e1 + 1 · e2 + 0 · e3 ,
1 0 −1
donc la matrice de passage de B à B 0 est : P = 1 1 1 .
−1 0 0
32
Donc les colonnes de P −1 sont formées des coordonnés des vecteurs de la base B dans la nou-
velle base B 0 .
D’aprés ce qui précède on a montré que si α10 , α20 , · · · , αn0 sont les coordonnées de u dans la
nouvelle base B 0 de E et α1 , α2 , · · · , αn sont les coordonnées de u dans l’ancienne base B de E, alors
0
α1 α1
0
α2 α
= P × 2
.. ..
. .
αn αn0
Théorème 3.5. Soit u un vecteur de E. Si l’on note par X 0 la matrice à une colonne formée des
coordonnées de u dans la nouvelle base B 0 de E et par X la matrice colonne formée des coordonnées
de u dans l’ancienne base B de E. Alors,
X = P × X0
Corollaire 3.2. Soit u ∈ E, B une base de E et B 0 une nouvelle base de E. Si on note par X la
matrice colonne formée des coordonnées de u dans la base B et X 0 la matrice colonne formée des
coordonnées de u dans la nouvelle base de E. Alors X 0 = P −1 × X.
En d’autres termes, les coordonnées de u dans la nouvelle base B 0 de E sont données par la
matrice à une colonne X 0 avec X 0 = P −1 × X.
Exemple 3.13. Considérons E = R2 , B = {e1 , e2 } la base canonique de R2 , i.e. e1 = (1, 0), e2 = (0, 1).
Considérons B 0 = {u1 , u2 } une nouvelle base de R2 avec u1 = (1, !0) et u2 = (1, 1).
1 1
La matrice de passage de B à B 0 est donnée par P = .
0 1
Soit 2
! v = (2, 3) ∈ R , donc les coordonnées de v dans la base B sont données par la matrice X =
2
. Cherchons les coordonnées de v dans la nouvelle base B 0 . Notons par α et β les coordonnées
3
!
0 0 α
de v dans la base B , X = , alors d’aprés la conséquence précédente on a
β
! !
α −1 2
=P ×
β 3
Pour connaitre X 0 , il suffit donc de déterminer P −1 . Or d’aprés Proposition 3.11, P −1 repre-
sente la matrice de passage de B 0 à B, donc les colonnes de P −1 sont formées des coordonnées des
vecteurs de B dans la nouvelle base B 0 . Ainsi
e1 = u1 = (1) · u1 + 0 · u2
e2 = (0, 1) = (−1 + 1, 1) = (−1, 0) + (1, 1) = −u1 + u2
! ! ! ! !
1 −1 α 1 −1 2 −1
d’où P −1 = . Par suite X =0 = × = . Ainsi
0 1 β 0 1 3 3
v = (−1) · u1 + (3) · u2 .
33
3.6.2 Changement de base et son influence sur la matrice d’un endomorphisme.
Soient E un espace vectoriel, f un endomorphisme de E, B une base de E et B 0 une nouvelle
base de E. Notons par M(f , B, B) la matrice de f dans B et par M (f , B 0 , B 0 ) la matrice de f dans B 0 ,
et notons par P la matrice de passage de B à B 0 .
Une question naturelle que l’on peut se poser est : quelle est l’influence d’un changement de
base sur la matrice d’un endomorphisme ?. Pour repondre a cette question, on procède comme
suite :
Soient u ∈ E et v = f (u) ∈ A. Notons par
v = f (u) ⇐⇒ M(f , B, B) × X = Y ⇐⇒ M (f , B0 , B0 ) × X 0 = Y 0
Or X = P · X 0 et Y = P · Y 0 , donc M(f , B, B) × P · X 0 = P · Y 0 . En composant par P −1 , on obtient
P −1 × M(f
, B, B) × P · X 0 = Y 0 = M (f , B 0 , B 0 ) × X 0 . D’où
M (f , B 0 , B 0 ) = P −1 × M(f , B, B) × P .
M (f , B 0 , B 0 ) = P −1 × M(f , B, B) × P
f : R3 −→ R3
(x, y, z) 7−→ (−x, 3y + 2z, 2z + x)
Vérifier que f est une application linéaire. n o
Soit B = {e1 , e2 , e3 } la base canonique de R3 et B0 = u10 , u20 , u30 une nouvelle base de R3 avec
u1 = (1, 1, −1), u2 = (0, 1, 0) et u3 = (−1, 1, 0) (vérifier qu’il s’agit bien d’une base de R3 !!! .
La matrice de f dans B est donnée par
−1 0 0
M(f , B, B) = 0 3 2
1 0 2
34
On a M (f , B 0 , B 0 ) = P −1 × M(f , B, B) × P où P est la matrice de passage de B à B 0
1 0 −1
P = 1 1 1
−1 0 0
α α 0 α”
P −1 = β β 0 β 00 .
γ γ 0 γ 00
α α 0 α” 1 0 −1 1 0 0
α + α 0 − α” α 0 −α + α 0 1 0 0
α + α 0 − α” = 1
0
−α + α 0 = 0
α =0
β + β 0 − β 00 = 0
0
−β + β 0 = 0
, β =1 ,
γ + γ 0 − γ 00 = 0
γ0 = 0
−γ + γ 0 = 1
u1 = e1 + e2 − e3
u2 = e2
u3 = −e1 + e2
Il suffit donc d’exprimer e1 , e2 et e3 en fonction de u1 , u2 et u3 . On a
e2 = u2 = 0 · u1 + 1 · u2 + 0 · u3
e1 = e2 − u3 = u2 − u3 = 0 · u1 + 1 · u2 + (−1) · u3
e3 = e1 + e2 − u1 = (u2 − u3 ) + u2 − u1 = (−1) · u1 + 2 · u2 + (−1) · u3
D’où
0 0 0
P −1 = 1 1 2
−1 0 1
Finalement, on a
35
0 0 0 −1 0 0 1 0 −1 0 0 0
M (f , B 0 , B 0 ) = 1 1 2 × 0 3 2 × 1 1 1 = −2 3 2
−1 0 1 1 0 2 −1 0 0 0 0 −2
Définition 3.9. On appelle rang de la matrice A, le rang de l’application linéaire qu’elle represente
Remarque 3.9. Le rang d’une matrice, rang(A), represente tout simplement le nombre maximum
de vecteurs colonne de A qui sont linéairement indépendants
.
!
1 −1 0
Exemple 3.15. Considérons la matrice A = . Elle represente donc la matrice d’une
1 1 2
n o
application linéaire f de R3 vers R2 . Si l’on note par B = {e1 , e2 , e3 } une base de R3 et par B 0 = e10 , e20
une base de R2 , alors A = M (f , B, B 0 ). Si l’on note par u1 , u2 et u3 les vecteurs colonnes de A, alors
on a
( (
α−β = 0 α=β
αu1 + βu2 + γu3 = 0 ⇔ (α − β, α + β + 2γ) = (0, 0) ⇔ ⇔
α + β + 2γ = 0 γ = −β
36
A present on donne une caractérisation d’une matrice carrée invesible moyennant la notion de
rang. En effet, soit A ∈ Mn,n (R) une matrice carrée, alors A represente la matrice d’une application
f : Rn → Rn relativement à une base B de Rn , i.e. A = M(f , B, B).
Supposons que la matrice A est inversible, alors A × A−1 = I. La matrice A−1 est une matrice
carrée et elle represente une application linéaire g : Rn → Rn , i.e. A−1 = M(g, B, B). Par suite
A inversible ⇐⇒ rang(A) = n.
Exercice
Considérons les matrices suivantes
! !
1 −2 5 0
A= et B=
3 −4 −6 7
1. Trouver 5A − 2B et 2A + 3B ;
2. Trouver t A, t B, t A × t B et t (A × B) ;
Conclusion ?
Solution
1.
! ! ! ! !
1 −2 5 0 5 −10 −10 0 −5 −10
5A − 2B = 5 −2 = + = ;
3 −4 −6 7 15 −20 12 −14 27 −34
! ! ! ! !
1 −2 5 0 2 −4 15 0 17 −4
2A + 3B = 2 +3 = + = .
3 −4 −6 7 6 −8 −18 21 −12 13
2. ! !
t 1 3 5 −6
t
A= , B=
−2 −4 0 7
! ! !
t t 1 3 5 −6 5 15
A× B = × =
−2 −4 0 7 −10 −16
! !
17 −14 t 17 39
A×B = , donc (A × B) =
39 −28 −14 −28
On remarque que t A × t B ,t (A × B).
On conclut donc qu’en général pour deux matrices A et B, on a t A × t B est different de
t (A × B).
37
Chapitre 4
Déterminant d’une matrice
4.1 Définitions
Le déterminant d’une matrice est définit par récurrence, ç.a.d. on définit le déterminant d’une
matrice à une ligne et une colonne puis on en déduit selui d’une matrice à deux lignes et deux
colonnes, puis selui d’une matrice à 3 lignes et 3 colonnes et ainsi de suite pour selui d’une matrice
à n lignes et n colonnes. En effet :
— Soit A ∈ M1,1 (R), i.e. A = (a), alors
! on défini le déterminant de A par det(A) = a.
a11 a12
— Soit A ∈ M2,2 (R), A = , alors on défini le déterminant de A par :
a21 a22
det(A) = a11 a22 − a21 a12 = a11 det (a22 ) − a21 det a12
a11 a12 a13
— Soit A ∈ M3,3 (R), A = a21 a22 a23 , on défini le déterminant de A par
a31 a32 a33
! ! !
a22 a23 a12 a13 a12 a13
det(A) = a11 det − a21 det + a31 det
a32 a33 a32 a33 a22 a23
— Soit A ∈ Mn,n (R) d’ordre n (i.e. ayant n lignes et n colonnes). On désigne par Aij la matrice
carrée d’ordre n − 1 obtenue en supprimant la i-eme ligne et la j-ieme colonne de A. Alors,
on définit le déterminant de A comme suite .
det(A) = a11 det (A11 ) − a21 det (A21 ) + · · · + (−1)i+1 ai1 det (Ai1 ) + · · · + (−1)n+1 an1 det (An1 )
4.2 Notation
Le déterminant d’une matrice carrée d’ordre n s’ecrit parfois :
38
0 1 1 2
2 0 1 1 1 2 1 1 2 1 1 2
3 2 0 1
= 0× 1 2 4 −3× 1 2 4 +0× 2 0 1 −2× 2 0 1
0 1 2 4
3 2 0 3 2 0 3 2 0 1 2 4
2 3 2 0
1 1 2 1 1 2
1. = −3 × 1 2 4 −2× 2 0 1
3 2 0 1 2 4
" # " #
2 4 1 2 1 2 0 1 1 2 1 2
= (−3) 1 × −1× +3× + (−2) 1 × −2× +1×
2 0 2 0 2 4 2 4 2 4 0 1
= 14.
2. Calculons le déterminant d’une matrice diagonale :
a11 0 0 · · · 0
0 a22 0 · · · 0
A = . .. .. ..
.. .
. .
0 0 · · · ann
On a
Définition 4.1. Soit A une matrice carrée d’ordre n et soit Aij la matrice carrée d’ordre n−1 obtenue
en supprimant la i ieme ligne et la j ieme colonne dans A.
(i) On appelle (i, j)ieme mineur de A, le scalaire Mij = det Aij .
39
(ii) On appelle (i, j)ieme cofacteur de A, le scalaire Cij = (−1)i+j det Aij = (−1)i+j Mij .
a11 a12 a13
Exemple 4.2. Considérons la matrice A = a21 a22 a23 , alors on a
a31 a32 a33
! ! !
a22 a23 a12 a13 a11 a12
A11 = , A31 = , A23 =
a32 a33 a22 a23 a31 a32
a22 a23 a11 a12
M11 = det (A11 ) = , C23 = (−1)2+3
a32 a33 a31 a32
Ainsi
! ! !
a a a a a a
det(A) = a11 det 22 23 − a21 det 12 13 + a31 det 12 13
a32 a33 a32 a33 a22 a23
= a11 · C11 + a21 · C21 + a31 · C31
= a11 · M11 − a21 · M21 + a31 · M31
On peut donc donner la définition suivante du déterminant d’une matrice en terme de mineur
et cofacteur :
Définition 4.2. Le déterminant d’une matrice carrée A d’ordre n est donné par :
1. La propriété (i) signifie que si A0 est la matrice obtenue à partir de A en changeant l’ordre
de deux colonnes alors det (A0 ) = − det(A).
2. La propriété (ii) signifie que si B est la matrice obtenue à partir de A en multipliant l’une
des colonnes de A par une constante α ∈ R alors det(B) = α det(A).
40
3. La propriété (iii) signifie que si C est la matrice obtenue, à partir de A, en ajoutant un
vecteur v à la i ieme colonne de A alors det(C) = det(A) + det(D) où D est la matrice obtenue
à partir de A en remplaçant la i ieme colonne de A par le vecteur v.
4. La propriété (iv) signifie que le déterminant d’une matrice dont deux colonnes sont iden-
tiques ou colinéaires (ç.a.d. l’une s’obtient à partir de l’autre en la multipliant par un sca-
laire) est nul.
A inversible ⇐⇒ det(A) , 0.
41
Preuve 4.2. ⇒ Supposons que A est inversible, alors A×A−1 = I. Par suite det A × A−1 = det(I) = 1.
Donc det(A) × det A−1 = 1. D’où det(A) , 0.
⇐ Supposons par contradiction que A n’est pas inversible, alors rang(A) < n. Par suite si l’on
note par u1 , u2 , · · · , un les vecteurs colonnes de A, alors la famille {u1 , u2 , · · · , un } est liée. Donc il
existe des nombres réels α2 , α3 , · · · , αn non tous nuls tels que u1 = α2 u2 + α3 u3 + · · · + αn un . Par suite
d’aprés Proposition 26 propriétés (ii), (iii) et (iv), on déduit que
Corollaire 4.1. Si {u1 , u2 , · · · , un } est une famille de vecteurs de Rn et si l’on note par A la matrice
dont les colonnes sont formées par les coordonnées des vecteurs ui dans la base de Rn alors
42
1
A−1 = · tM
det(A)
43
Chapitre 5
Diagonalisation
Définition 5.2. On appelle valeur propre de f tout nombre réel λ tel qu’il existe u ∈ E avec u , 0
et vérifiant f (u) = λ · u.
Définition 5.3. Si λ est une valeur propre de f alors l’ensemble Eλ = {u ∈ E : f (u) = λu} est appelé
sous-espace propre de f associé à λ.
f : R2 −→ R2
(x, y) 7−→ (x − 3y, −y)
Déterminons les valeurs et vecteurs propres de f .
1. Valeurs propres : Soit u = (x, y) , (0, 0), ç.a.d. x , 0 ou y , 0, cherchons λ ∈ R tel que f (u) =
λu. Pour cela, on a
f (u) = λu ⇐⇒ (x − 3y, −y) = (λx, λy)
(
x − 3y = λx
⇐⇒
−y = λy
(1 − λ)x = 3y (1)
⇐⇒
(1 + λ)y = 0
(2)
44
(a) Si y , 0, alors l’équation (2) implique λ = −1.
(b) Si y = 0, alors x = 0 (car u = (x, y) , (0, 0) et par suite d’aprés l’équation (1) on déduit que
λ = 1.
Donc les valeurs propres de f sont 1 et -1 .
2. Vecteurs propres : On déterminera lesnsous espaces propre o de f associés à λ = 1 et λ = −1,
2
i.e. E1 et E−1 . On a par définition E1 = u ∈ R : f (u) = u .
3
E−1 = vect({v}) avec v = 1, .
2
Exercice
Considérons l’application linéaire f définie par :
f :R2
−→ R2
(x, y) 7−→ (x + y, x − y)
Déterminer les valeurs et vecteurs propres de f ainsi que les sous-espaces propres associés.
Proposition 5.1. Si λ et λ0 sont deux valeurs propres de f avec λ , λ0 , alors Eλ ∩ Eλ0 = {0}.
Preuve 5.1. On a
45
Proposition 5.2. Si λ1 , λ2 , · · · , λm sont des valeurs propres de f distinctes deux à deux et soient
v1 , v2 , · · · , vm les vecteurs propres respectivement associés à ses valeurs propres. Alors la famille
{v1 , v2 , · · · , vm } est libre.
Preuve 5.2. Par l’absurde supposons que la famille {v1 , v2 , · · · , vm } est liée. Soit r le nombre maxi-
mum de vecteurs dans la famille {v1 , v2 , · · · , vm } qui sont libres : r < m. Pour simplifier, on suppose
que la famille {v1 , v2 , · · · , vr } est libre. Donc la famille {v1 , v2 , · · · , vr+1 } est liée. Il s’en suit qu’il existe
α1 , α2 , · · · , αr ∈ R tels que
vr+1 = α1 v1 + α2 v2 + · · · + αr vr
Donc f (vr+1 ) = f (α1 v1 + α2 v2 + · · · + αr vr ) = α1 f (v1 )+α2 f (v2 )+· · ·+αr f (vr ). Par suite λr+1 vr+1 =
α1 λ1 v1 + α2 λ2 v2 + · · · + αr λr vr . Il s’en suit que
λr+1 (α1 v1 + α2 v2 + · · · + αr vr ) = α1 λ1 v1 + α2 λ2 v2 + · · · + αr λr vr
Ainsi
f : R3 −→ R3
(x, y, z) 7−→ (−x + 2y, y, −z)
46
Déterminons les valeurs propres de f . Pour cela considérons u = (x, y, z) , (0, 0, 0) et cherchons
λ ∈ R tel que f (u) = λu.
⇐⇒ y = 0 et x, y sont libres.
Par suite u = (x, y, z) = (x, 0, z) = x(1, 0, 0) + z(0, 0, 1). D’où
⇐⇒ z = 0 et x = y.
D’où
47
r
X
(f diagonalisable ) ⇐⇒ dim(E) = n = dim Eλi
i=0
Exemple 5.3.
f : R3 −→ R3
(x, y, z) 7−→ (−x + 2y, y, −z)
On a déja montrer que les valeurs propres de f sont λ = 1 et λ = −1. D’autres part, on a
f : R3 −→ R3
(x, y, z) 7−→ (x − y + 2z, y + 2z, z)
Vérifions si f est diagonalisable. Pour cela, cherchons les valeurs propres de f ainsi que les
sous-espaces propres associés. Commençons d’abord par chercher les valeurs propres de f .
Considérons u = (x, y, z) , (0, 0, 0) et cherchons λ ∈ R tel que f (u) = λu.
48
u = (x, y, z) ∈ E1 ⇐⇒ f (x, y, z) = (x, y, z)
x − y + 2z = x
⇐⇒ y + 2z = y
z=z
−y + 2z = 0
⇐⇒ 2z = 0
z=z
⇐⇒ y = z = 0 et x libre.
Ainsi u = (x, y, z) = (x, 0, 0) = x(1, 0, 0). Par suite
A · X = λX ⇐⇒ f (u) = λu.
Donc λ est une valeur propre de A est équivalent à λ est une valeur propre de f , et on a le
sous-espace propre
AX = λX ⇐⇒ AX − λX = 0 ⇐⇒ (A − λI)X = 0,
comme X , 0, donc (A−λI) n’est pas inversible (car sinon on a (A−λI)−1 (A−λI)X = (A−λI)−1 0 =
0 et donc X = 0 ce qui est absurde). Puisque (A − λI) n’est pas inversible alors det(A − λI) = 0. On
déduit donc
49
Donc les valeurs propres de A sont les racines du polynôme caractéristique de A.
Définition 5.8. La matrice A est dite diagonalisable si l’application linéaire qu’elle represente est
diagonalisable.
Remarque 5.6. Si A est diagonalisable, alors l’application linéaire f qu’elle represente est diago-
nalisable. Autrement dit, il existe une base B 0 = {u1 , u2 , · · · , un } de Rn formée de vecteurs propres
de f et la matrice M (f , B 0 , B 0 ) de f dans la base B0 est une matrice diagonale. Si on note par
B = {e1 , e2 , · · · , en } la base canonique de Rn , comme A represente f alors M(f , B, B) = A. Si on note
par P la matrice de passage de B 0 à B, alors
M (f , B 0 , B 0 ) = P −1 · M(f , B, B) · P
Définition 5.9. Une matrice carrée A d’ordre n est dite diagonalisable s’il existe une matrice P
inversible telle que
Théorème 5.4. Soient A une matrice carrée d’ordre n et λ1 , λ2 , · · · , λr toutes les valeurs propres
distinctes. Désignons par Eλ1 , Eλ2 , · · · , Eλr les sous-espaces propres correspondants, alors
r
X
( A diagonalisable ) ⇐⇒ n = dim Eλi
i=0
Exemple 5.4.
!
1 −3
1. Considérons la matrice A = . Vérifions si A est diagonalisable.
0 −1
Pour cela, commençons d’abord par déterminer les valeurs propres de A. On cherchera donc
les racines du polynôme caractéristique de A.
1−λ −3
PA (λ) = det(A − λI) = = (1 − λ)(−1 − λ)
0 −1 − λ
Ainsi, PA (λ) = 0 ⇐⇒ λ = 1 ou λ = −1.
Déterminons les sous-espaces propres B1 et B−1 .
n o
(a) E1 = u ∈ R2 : Au = u , u = (x, y).
! ! ! (
1 −3 x x x − 3y = x
Au = u ⇐⇒ = ⇐⇒
0 −1 y y −y = y
D’après l’équation (2), on déduit que y = 0 et à partir de l’équation (1), en tenant compte
de y = 0, on déduit que x = x, c’est à dire que x est libre. Ainsi
50
n o
(b) E−1 = u = (x, y) ∈ R2 : Au = −u ,
! ! ! (
1 −3 x −x x − 3y = −x 2
Au = −u ⇐⇒ = ⇐⇒ ⇐⇒ y = x
0 −1 y −y −y = −y 3
Ainsi, u = (x, y) ∈ E−1 ⇐⇒ u = x, 32 x = x 1, 23 = x · u2 .
D’où E−1 = vect ({u2 }) avec u2 = 1, 32 .
On a dim (E1 ) = dim (E−1 ) = 1, par suite 2 = dim R2 = dim (E1 ) + dim (E−1 ). Il s’en suit
d’après le théorème précédent que A est diagonalisable.
Ainsi B 0 = {u1 , u2 } est une nouvelle base de R2 formée de vecteurs propres de A. Si l’on note
par B = {e1 , e2 } la base canonique de R2 et par P la matrice de passage de B 0 à B, alors on
a
! ! !
−1 1 0 1 1 −1 3 2/3 0
A=P DP avec D = et P = , P =
0 −1 0 2/3 2 1 1
2. Considérons la matrice
4 −2 2
A = −1 3 1
1 −1 5
étudions si cette matrice est diagonalisable. Pour cela, déterminons les valeurs propres de
A. On procèdera en cherchant les racines du polynôme caractéristique.
4 − λ −2 2
PA (λ) = det(A − λI) = −1 3 − λ 1 = (4 − λ) 12 − 8λ + λ2 = (4 − λ)(2 − λ)(6 − λ).
1 −1 5 − λ
Donc les valeurs propres de A sont λ1 = 4, λ2 = 2 et λ3 = 6. On vérifie facilement que les
sous-espaces propres associés aux valeurs propres λ1 , λ2 et λ3 sont comme suite :
51
Chapitre 6
Système d’equations linéaires
6.1 Définitions
Définition 6.1. On appelle système d’equations linéaires de m équations et n inconnues tout sys-
tème de la forme
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
.
. ..
. .
(6.1)
ai1 x1 + ai2 x2 + · · · + ain xn = bi
.. ..
. .
am1 x1 + am2 x2 + · · · + amn xn = bm
où les aij et bi sont des nombres donnés. Les variables x1 , x2 , · · · , xn sont les inconnues du sys-
tème et les aij pour i ∈ {1, · · · , n} et j ∈ {1, · · · , m} sont les coefficients du système.
Exemple 6.1. Le système :
x1 + x2 − x3 =1
x1 + 3x3
=0
est un système à 3 inconnues et 2 équations.
Définition 6.2. On appelle solution du système (6.1) tout vecteur x = (x1 , x2 , · · ·n ) ∈ Rn dont les
composantes vérifient simultanément les m équations.
Définition 6.3. Si bi = 0∀i = 1, · · · , m, alors on dit que le système est homogène.
Remarquons que le système (6.1) peut s’écrire sous la forme matricielle suivante :
a11 a12 · · · a1n x1 b1
a21 a22 · · · a2n x2 b2
× =
.. .. .. .. .. ..
. . . . . .
am1 am2 · · · amn xm bm
Notons par
a11 a12 · · · a1n x1 b1
a21 a22 · · · a2n x2 b2
A = . .. .. ..
, X = ..
et B = ..
..
. . .
.
.
am1 am2 · · · amn xm bm
52
Donc le système (6.1) devient : A × X = B.
Ainsi résoudre (6.1) est équivalent à résoudre l’équation matricielle A × X = B.
La matrice A s’appelle matrice du système. Comme A ∈ Mm,n (R) donc elle represente une appli-
cation linéaire f : Rn → Rm , et donc léquation A × X = B devient f (x) = b où x = (x1 , x2 , · · · , xn ) ∈ Rn
et b = (b1 , b2 , · · · , bn ) ∈ Rm . Par suite résoudre le système (6.1) est équivalent à résoudre l’équation
f (x) = b.
Définition 6.4. On appelle rang du système (6.1), le rang de la matrice A, autrement dit le rang
de l’application linéaire qu’elle represente.
Théorème 6.1.
Preuve 6.1. On a vérifié que résoudre l’équation A × X = B est équivalent à résoudre l’équation
f (x) = b.
(i) Si l’application linéaire f est surjective, donc f (Rn ) = Rm . Comme b ∈ Rm , alors il existe au
moins x ∈ Rn tel que f (x) = b. Or
f surjective ⇐⇒ f (Rn ) = Rm
⇐⇒ rang(f ) = m
⇐⇒ rang(A) = m
(ii) On a d’après le théorème de la dimension dim (Rn ) = dim(ker f ) + dim(Im(f )) = n. Donc si
rang(A) = rang(f ) = dim(Im(f )) = n, alors dim(ker(f )) = 0 et donc f est injective. Donc si
b ∈ Rm alors il existe au plus x ∈ Rn tel que f (x) = b. Ainsi
— si b ∈ f (Rn ) alors l’équation f (x) = b admet une solution,
— si b < f (Rn ) alors l’équation f (x) = b n’admet pas de solution.
(iii) Si rang(A) = n = m alors dim(Im(f )) = n et dim(ker(f )) = 0. Il s’en suit que f est bijective et
par suite il existe une unique solution x = f −1 (b).
Théorème 6.2. Tout système de Cramer admet une solution unique X = A−1 × B.
53
6.4 Résolution d’un système d’équation linéaire
6.4.1 Résolution d’un système de Cramer
a11 a12 · · · a1n x1 b1
a21 a22 · · · a2n x2 b2
avec A = . .. .. ..
, X = ..
et B = ..
.
..
. . . . .
an1 an2 · · · ann xn bn
Le système (6.1) est un système de Cramer, donc A est inversible ce qui est équivalent à det(A) ,
0. Alors les composantes xi du vecteur solution sont données par
1 −1 −1 2 1 −1 2 −1 1
3 1 −2 1 3 −2 1 1 3
2 2 −3 3 2 −3 3 2 2
x1 = , x2 = , x3 = .
2 2 2
−4 −8
On obtient x1 = 3 , x2 = −1 et x3 = 3 .
54
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
.. ..
. .
(6.2)
ai1 x1 + ai2 x2 + · · · + ain xn = bi
.. ..
. .
am1 x1 + am2 x2 + · · · + amn xn
= bm
La matrice des coefficients du système (6.2) est donnée par :
a11 a12 · · · a1n
a21 a22 · · · a2n
A = .
.. .. ..
.. . . .
am1 am2 · · · amn
2 −1 −1
La matrice du système (S) est A = 1 1 −2 .
3 2 −3
La matrice augmentée du système (S) est
2 −1 −1 1
1 1 −2 3
3 2 −3 2
Le principe de la méthode du pivot de Gauss consiste à :
1. éliminer les variables y et z de l’équation (I)
2. éliminer les variables x et z de l’équation (II)
3. éliminer les variables x et y de l’équation (III).
55