Vous êtes sur la page 1sur 55

Université Mohammed V de Rabat

Faculté des Sciences Juridiques


Economiques et Sociales
Souissi
*********

Filière : Economie et Gestion


Module : Mathématiques appliquées II

Algèbre

H. EL BOUZID

Semestre 2

————————————————————————————————————————
N.B. : ce polycopié n’est pas complet en ce sens qu’il ne comprend pas les démonstrations
des résultats présentés ainsi que les solutions des exercices et exemples proposés, ces points
seront traités en détail pendant les séances du cours.
Chapitre 1

Eléménts de la théorie des ensembles

La notion d’ensemble est une notion qui évoque l’idée d’un groupement ou d’une collection
d’objets, appelés éléments de l’ensemble. En général, un ensemble est constitué d’éléments
susceptibles de posséder certaines propriétés.

Exemples

– L’ensemble N des entiers naturels 0, 1, 2 . . .


– L’ensemble Z des entiers relatifs . . . -2, -1, 0, 1, 2. . .
– L’ensemble Q des nombres rationnels.

– L’ensemble de tous les nombres : entiers, rationnels, 2, π. . . que l’on appelle ensemble
des nombres réels, noté R.

1.1 Opérations sur les ensembles

Inclusion

Soient E et F deux ensembles. On dit que F est inclus dans E, ou que F est une partie
de E, lorsque tout élément de F appartient à E et on écrit F ⊂ E. Ainsi,

F ⊂ E ⇔ (∀x, x ∈ F ⇒ x ∈ E).

Remarquons qu’on a
(F ⊂ E et E ⊂ G) ⇒ F ⊂ G,

1
Algèbre – S2, H. EL BOUZID 2

(F ⊂ E et E ⊂ F ) ⇔ E = F.
Complémentaire

Etant donné une partie A d’un ensemble E, on appelle complémentaire de A dans E


l’ensemble des éléments de E n’appartenant pas à A, on le notera A (ou encore E \ A) :

A = {x/ x ∈ E et x ∈
/ A}.

Il est clair que si B = A, B = A.

Ensemble des parties d’un ensemble

Considérons toutes les parties d’un ensemble E, elles constituent un nouvel ensemble
appelé ensemble des parties de E et noté P(E), on a donc

A ⊂ E ⇔ A ∈ P(E).

Par exemple si E = {1, 2, 3}, alors

P(E) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, E}.

Comme ∅ ∈ P(E), on voit que P(E) est toujours non vide.

Intersection et réunion des ensembles

Soient A et B deux parties d’un ensemble E (deux éléments de P(E)).

L’ensemble des éléments de E qui appartiennent à la fois à A et à B est appelé intersection


de A et B, on le note A ∩ B (on lit A inter B) :

x ∈ A ∩ B ⇔ (x ∈ A et x ∈ B).

Lorsque l’intersection de A et B est vide, on dit que A et B sont disjoints ; dans le cas
contraire, on dit que A et B se rencontrent.

On appelle réunion de A et B, que l’on note A ∪ B (on lit A union B), l’ensemble des
éléments appartenant à A ou à B :

x ∈ A ∪ B ⇔ (x ∈ A ou x ∈ B).

Nous allons à présent donner les principales propriétés de l’inclusion, de l’intersection et


de la réunion.

Soient A, B et C des parties quelconques d’un même ensemble E, on a


Algèbre – S2, H. EL BOUZID 3

— A ∩ B = B ∩ A et A ∪ B = B ∪ A (commutativité de ∩ et ∪).
— (A ∩ B) ∩ C = A ∩ (B ∩ C) et (A ∪ B) ∪ C = A ∪ (B ∪ C) (associativité de ∩ et ∪).
— L’intersection est distributive par rapport à la réunion et la réunion est distributive
par rapport à l’intersection, c’est-à-dire

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C),

A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
— A ∩ A = A et A ∪ A = A.
— A ⊂ B ⇔ B ⊂ A.
— A ∪ B = A ⇔ B ⊂ A.
— A ∩ B = A ⇔ A ⊂ B.
— A ∩ B = A ∪ B.
— A ∪ B = A ∩ B.

Généralisation de l’intersection et de la réunion

Considérons un ensemble E et une famille (Fi )i∈I de parties de E (indexée par l’ensemble
\
I), on appelle intersection de la famille (Fi )i∈I que l’on note : Fi , la partie de E telle
i∈I
que chacun de ses éléments appartienne à tous les ensembles Fi , i ∈ I. On peut donc
écrire
\
Fi = {x ∈ E/ ∀i ∈ I, x ∈ Fi }.
i∈I
[
La réunion de la famille (Fi )i∈I que l’on notera Fi est définie comme étant la partie de
i∈I
E telle que chacun de ses éléments appartienne à au moins un des ensembles Fi , i ∈ I.
On écrit alors
[
Fi = {x ∈ E/ ∃i ∈ I, x ∈ Fi }.
i∈I

Par exemple si I = {1, 2, 3}, on a


3
\ 3
[
Fi = F1 ∩ F2 ∩ F3 et Fi = F1 ∪ F2 ∪ F3 .
i=1 i=1

Terminons ce paragraphe par la définition suivante.

On appelle partition d’un ensemble E toute famille de parties de E, qui sont non vides,
deux à deux disjointes et dont la réunion est l’ensemble E.
Algèbre – S2, H. EL BOUZID 4

Produit cartésien

Etant donné deux ensembles E et F , on définit un nouvel ensemble appelé produit cartésien
de E par F que l’on note E × F , formés de couples (x, y) dont le premier élément x est
un élément quelconque de E, et le second y un élément quelconque de F :

E × F = {(x, y)/ x ∈ E, y ∈ F },

x et y sont appelés coordonnées du couple (x, y).

Deux couples (x, y) et (x0 , y 0 ) sont égaux si et seulement si on a x = x0 et y = y 0 . Ainsi,


il ne faut pas confondre entre le couple (x, y) qui est un élément de E × F et le couple
(y, x) élément de F × E, ils sont en général distincts même dans le cas où E = F (ils ne
sont égaux que lorsque x = y). Cette question concernant l’ordre des éléments x et y ne
se pose pas s’il s’agit d’un ensemble à deux éléments {x, y}, on a toujours {x, y} = {y, x}
pour tous x et y.

D’une manière générale, on définit la produit cartésien de n ensembles Ei , i = 1, . . . , n


comme l’ensemble des n-uplets (x1 , x2 , . . . , xn ) où chaque xi est un élément quelconque de
Ei , on le note E1 × E2 × . . . × En et on a

E1 × E2 × . . . × En = {(x1 , x2 , . . . , xn )/ ∀i ∈ {1, 2, . . . , n}, xi ∈ Ei }.

Deux n-uplets sont égaux si et seulement si leurs coordonnées de même rang sont égales.

En particulier, si E1 = E2 = . . . = En = E, on peut noter E1 × E2 × . . . × En tout


simplement par E n .

Exemple

L’ensemble Rn formés des n-uplets (x1 , x2 , . . . , xn ) où xi est un élément quelconque de R


pour tout i allant de 1 à n.

1.2 Relations entre ensembles

Soient E et F deux ensembles. On appelle relation (ou correspondance) de E vers F


la donnée de trois termes (E, F, Γ), où Γ est une partie du produit cartésien E × F
appelée graphe de la relation ; E est l’ensemble de départ et F est l’ensemble d’arrivée
de la relation. On dit qu’un élément x ∈ E est en relation avec un élément y ∈ F si et
Algèbre – S2, H. EL BOUZID 5

seulement si (x, y) ∈ Γ, ce que l’on note x R y. Enfin, si E = F , cette relation sera dite
relation binaire sur E.

Exemples

1. La relation x = x dans un ensemble E est une relation binaire, dont le graphe est donné
par :
Γ = {(x, x)/ x ∈ E}.
Cet ensemble Γ est appelé diagonale de E × E.

2. L’inclusion entre parties d’un même ensemble E est une relation binaire sur P(E), son
graphe est défini par la propriété : (A, B) ∈ Γ si A ⊂ B.

3. La relation sur R définie par : x R y si x2 + y 2 = 1. Γ correspond au cercle de R2 centré


à l’origine et de rayon 1.

Donnons maintenant les propriétés principales d’une relation binaire sur un ensemble E.

Une relation R sur un ensemble E est dite :


— reflexive si ∀x ∈ E, x R x ;
— symétrique si ∀(x, y) ∈ E 2 , x R y ⇒ y R x ;
— antisymétrique si ∀(x, y) ∈ E 2 , (x R y) et (y R x) ⇒ x = y ;
— transitive si ∀(x, y, z) ∈ E 3 , (x R y) et (y R z) ⇒ x R z.

A titre d’exemple, on peut vérifier aisément que l’inclusion (exemple 2 ci-dessus) est une
relation reflexive, antisymétrique et transitive.

Une relation binaire R sur un ensemble E est une relation d’équivalence si elle est à la fois
reflexive, symétrique et transitive. Si on a x R y, on dit que x est équivalent à y (modulo
la relation R) et on écrit
x ≡ y (modulo R).
L’ensemble des éléments de E équivalents (modulo R) à un élément x de E est appelé
classe d’équivalence (modulo R) de x, on la note ẋ :

ẋ = {y ∈ E/ y ≡ x (modulo R)}

et on dira que x est un représentant de la classe ẋ.

L’ensemble des classes d’équivalence de E (modulo R) porte le nom d’ensemble quotient


de E par la relation R et est noté E/R.
Algèbre – S2, H. EL BOUZID 6

Une relation binaire R sur E est une relation d’ordre si elle est à la fois reflexive, antisy-
métrique et transitive.

On dit qu’une relation d’ordre R définit sur E un ordre total si quels que soient x et y
dans E, on a
x R y ou y R x,
c’est-à-dire que les éléments de E sont comparables deux à deux pour l’ordre défini par la
relation R. Ainsi, E est dit totalement ordonné par R ou que E possède une structure
d’ordre total.

S’il existe deux éléments de E non comparables, on dit que la relation d’ordre est partielle.

Enfin, une relation d’ordre se note en général par le symbole “≤” (qui n’est pas forcément
l’ordre usuel sur les nombres réels) au lieu de R.

Exemples

1. Sur R, Q, Z et N, la relation x ≤ y (ordre usuel) est une relation d’ordre total.

2. E étant un ensemble contenant plus d’un élément, sur P(E), la relation A ⊂ B (inclu-
sion des parties) est une relation d’ordre partielle.

Après avoir introduit cette notion de relation d’ordre sur les ensembles, on va maintenant
donner la définition de quelques éléments remarquables d’un ensemble ordonné.

Soient E un ensemble ordonné et A une partie de E.

– Un élément M ∈ E est un majorant de A si, pour tout x ∈ A, on a x ≤ M . Si A admet


un majorant, la partie A est dite majorée.
– m est un minorant de A si ∀x ∈ A, m ≤ x. Si A admet un minorant, on dit que la
partie A est minorée.
– Si A est majorée et minorée, elle est dite bornée.

Si a est un majorant de A qui appartient à A, on l’appelle plus grand élément de A (ou


encore élément maximum de A). De même, si b est un minorant de A qui appartient à A,
on dira que b est le plus petit élément de A (ou encore élément minimum de A).

Pour terminer cette section, on définit la borne supérieure d’une partie A comme étant
le plus petit élément de l’ensemble des majorants de A, on la note sup(A) ; et la borne
Algèbre – S2, H. EL BOUZID 7

inférieure de A comme le plus grand élément de l’ensemble des minorants de A, on la


note inf(A).

Exemples

1. R, Q et Z ordonnés par la relation d’ordre usuel ≤ n’ont ni majorants ni minorants. N


n’est pas majoré, mais a un plus petit élément qui est 0.

2. Un intervalle fermé [a, b] de R a un plus petit élément a et un plus grand élément b.

3. Un intervalle ouvert ]a, b[ de R n’a ni un plus petit élément ni un plus grand élément,
mais il possède une borne supérieure qui est b et une borne inférieure qui est a.

1.3 Applications de E dans F

Etant donné deux ensembles E et F , une application (ou fonction) f de E dans F est une
correspondance qui associe à tout élément x de E un et un seul élément y de F appelé
image de x par f que l’on note f (x). On écrit

f :E → F
x 7→ f (x).

Le graphe de l’application f est la partie de E × F définie par :

G = {(x, y) ∈ E × F/ y = f (x)}.

Toute application d’un ensemble E dans l’ensemble des nombres réels R est dite fonction
numérique (ou réelle) et si en particulier E est une partie de R, f porte le nom de fonction
numérique d’une variable réelle.

Si l’ensemble de départ est le produit cartésien A × B et l’ensemble d’arrivée est C,


l’application

f :A×B → C
(x, y) 7→ f (x, y)

porte le nom de fonction de deux variables.

Deux applications f et g d’un ensemble E dans un ensemble F sont égales si

∀x ∈ E, f (x) = g(x).
Algèbre – S2, H. EL BOUZID 8

f g

E G
gof

Figure 1.1 – Composée de deux applications

On écrit alors f = g.

Exemples

1. L’application définie sur E et qui fait correspondre à tout élément de E une même
valeur c est dite application constante.

2. L’application de E dans E qui associe à tout élément x de E cet élément lui même est
appelée application identique (ou identité) de E, on la note idE (∀x ∈ E, idE (x) = x).

3. Prenons maintenant E = F = R. Les fonctions

x 7→ f (x) = ax2 + bx + c et x 7→ g(x) = cos x

sont des fonctions réelles d’une variable réelle.

Soient E, F et G trois ensembles, f une application de E dans F et g une application de


F dans G. L’application de E dans G qui fait correspondre à un élément quelconque x de
E l’élément g(f (x)) est dite application composée de g et f , on la note g ◦ f (voir figure
1.1).

Exemple

On considère les deux fonctions définies sur R par



f : x 7→ 1 + x2 et g : x 7→ ex .

L’application composée de g et f est donnée par :

g◦f :R → R

1+x2
x 7→ e .
Algèbre – S2, H. EL BOUZID 9

Remarque

En général, les applications g ◦ f et f ◦ g sont différentes (la composition des applications


n’est pas une loi commutative). L’exemple précédent permet de confirmer cela :

1+x2

g ◦ f (x) = e 6= f ◦ g(x) = 1 + e2x .

Quelques propriétés des applications

Soient E et F deux ensembles ordonnés par une relation notée avec le même symbole ≤
(l’ordre strict sera noté < 1 ) et f une application de E dans F . On dit que
— f est croissante si ∀x, y ∈ E, x ≤ y ⇒ f (x) ≤ f (y) ;
— f est strictement croissante si ∀x, y ∈ E, x < y ⇒ f (x) < f (y) ;
— f est décroissante si ∀x, y ∈ E, x ≤ y ⇒ f (x) ≥ f (y) ;
— f est strictement décroissante si ∀x, y ∈ E, x < y ⇒ f (x) > f (y) ;
— f est monotone si f est croissante ou décroissante ;
— f est strictement monotone si f est strictement croissante ou strictement décrois-
sante.

Soit f une application de E dans F .


– f est injective si chaque élément y de l’ensemble d’arrivée F admet au plus un antécédent
x dans l’ensemble de départ E. Autrement dit, deux éléments distincts de E ont des images
distinctes :
(x et x0 ∈ E tels que x 6= x0 ) ⇒ f (x) 6= f (x0 ) ;
ou encore
∀x, x0 ∈ E, f (x) = f (x0 ) ⇒ x = x0 .
– f est surjective si tout élément de F a au moins un antécédent dans E :

∀y ∈ F, ∃x ∈ E, y = f (x).

– f est bijective si elle est à la fois injective et surjective.

Remarque

Une manière équivalente pour affirmer qu’une application f est bijective est

∀y ∈ F, ∃!x ∈ E, y = f (x),
1. x < y signifie que x ≤ y et x 6= y. Notons qu’ici, on donne une définition générale et ces symboles
ne désignent pas uniquement l’ordre usuel des nombres réels.
Algèbre – S2, H. EL BOUZID 10

ce qui signifie que tout élément de F admet un et un seul antécédent dans E par l’appli-
cation f .

Si f : E → F est bijective, on peut définir l’application inverse (ou réciproque) de f notée


f −1 . C’est une application bijective de F dans E, définie par l’équivalence suivante :

y = f (x) ⇔ x = f −1 (y).

Elle a les propriétés caractéristiques suivantes :

f −1 (f (x)) = x pour tout x ∈ E,

f (f −1 (y)) = y pour tout y ∈ F.


Ces propriétés de la fonction réciproque s’écrivent en utilisant la composition des appli-
cations :
f −1 ◦ f = idE et f ◦ f −1 = idF ,
où idE et idF sont les applications identité sur E et sur F .

Exemples

1. L’application f : R → R définie par f (x) = x2 n’est pas injective car par exemple, on
a f (−1) = f (1).

2. L’application f : N → N définie par f (x) = x2 est injective. En effet, soient x et x0


deux éléments quelconques de N, on a

f (x) = f (x0 ) ⇒ x2 − x02 = (x + x0 )(x − x0 ) = 0.

De cette dernière écriture, on peut déduire que x = x0 .

Cette application n’est pas surjective car ∀x ∈ N, f (x) = x2 6= 2. Ce qui signifie que
l’élément 2 de N n’admet pas d’antécédent dans N.

3. L’application f : Z → Z définie par f (x) = x + 1 est bijective. En effet, pour tout


y ∈ Z, il existe un élément unique x (= y − 1) ∈ Z tel que f (x) = y.

Pour cet exemple, l’application réciproque f −1 est définie par :

f −1 : Z → Z
x 7→ x − 1.
Algèbre – S2, H. EL BOUZID 11

Proposition 1.3.1 Si f : E → F et g : F → G sont deux applications injectives, alors


g ◦ f est aussi injective.

Proposition 1.3.2 Si f : E → F et g : F → G sont deux applications surjectives, alors


g ◦ f est surjective.

Comme conséquence de ces deux propositions, on peut énoncer la propriété suivante.

Proposition 1.3.3 Si f : E → F et g : F → G sont deux applications bijectives, alors


g ◦ f est bijective et on a (g ◦ f )−1 = f −1 ◦ g −1 .

Terminons ce chapitre par les deux définitions suivantes.

Soient f une application de E dans F , A une partie de E et B une partie de F .


– On appelle image directe (ou tout simplement image) de A par l’application f , le sous-
ensemble de F noté f (A) défini par :

f (A) = {y ∈ F/ ∃x ∈ A, y = f (x)}.

Si A = E, f (E) porte le nom d’image de f .


– On appelle image réciproque de B par f , le sous-ensemble de E noté f −1 (B) défini par :

f −1 (B) = {x ∈ E/ f (x) ∈ B}.

Remarques

– Dans cette définition, f −1 (B) est sous-ensemble de E qui peut être défini même si
l’application f n’est pas supposée bijective.
– f est surjective si et seulement si f (E) = F .
Chapitre 2

Espaces vectoriels

2.1 Structure d’espace vectoriel

L’ensemble Rn , comme nous l’avons déjà défini dans le premier chapitre, est formé de
n-uplets (couples si n = 2, triplets si n = 3...), appelés vecteurs, de la forme x =
(x1 , x2 , . . . , xn ) avec xi ∈ R pour i ∈ {1, . . . , n} 1 .

Deux vecteurs x = (x1 , x2 , . . . , xn ) et y = (y1 , y2 , . . . , yn ) de Rn sont considérés comme


égaux si leurs composantes de même rang sont égales :

(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) ⇔ xi = yi , i = 1, . . . , n.

On munit l’ensemble Rn

– d’une loi de composition interne notée “+”, application de Rn × Rn dans Rn , appelée


somme vectorielle, définie par :

∀x = (x1 , x2 , . . . , xn ) ∈ Rn , ∀y = (y1 , y2 , . . . , yn ) ∈ Rn ,

x + y = (x1 + y1 , x2 + y2 , . . . , xn + yn ) ;
– d’une loi de composition externe notée “.”, application de R × Rn dans Rn , appelée
multiplication par un scalaire, définie par :

∀λ ∈ R, ∀x = (x1 , x2 , . . . , xn ) ∈ Rn ,
1. Faire attention à ne pas confondre x qui est un vecteur et xi qui est un nombre réel.

12
Algèbre – S2, H. EL BOUZID 13

λx = (λx1 , λx2 , . . . , λxn ).


Les deux lois qu’on vient de définir sur Rn vérifient les propriétés suivantes : quels que
soient x, y, z dans Rn et α, β dans R, on a :
1. (x + y) + z = x + (y + z) (associativité).
2. x + 0Rn = 0Rn + x = x (existence d’un élément neutre pour la loi +).
3. x + (−x) = (−x) + x = 0Rn (tout élément admet un symétrique).
4. x + y = y + x (commutativité).
5. α(x + y) = αx + αy.
6. (α + β)x = αx + βx.
7. α(βx) = (αβ)x.
8. 1x = x (existence d’un élément neutre 1).
Rn muni des ces deux lois est un espace vectoriel sur R, ou encore espace vectoriel réel.

De façon générale, on a :

Définition 2.1.1 On appelle espace vectoriel sur R tout ensemble muni d’une loi de
composition interne vérifiant les propriétés 1 à 4 et d’une loi de composition externe
vérifiant les propriétés 5 à 8.

Exemples

1. L’espace vectoriel des polynômes de degré inférieur ou égal à m :


m
ai xi / x, ai ∈ R},
X
Pm = {
i=0

muni des deux opérations :


m m m
i i
(ai + bi )xi ∈ Pm ,
X X X
P (x) + Q(x) = ai x + bi x =
i=0 i=0 i=0

m
(λai )xi ∈ Pm , λ ∈ R.
X
λP (x) =
i=0

2. L’espace vectoriel des applications de Rm dans Rn noté F(Rm , Rn ), muni des deux
opérations :
s = f + g ⇔ ∀x ∈ Rm , s(x) = f (x) + g(x),
h = λf ⇔ ∀x ∈ Rm , h(x) = λf (x), λ ∈ R.
Algèbre – S2, H. EL BOUZID 14

2.2 Sous-espaces vectoriels

Définition 2.2.1 Soit F une partie non vide d’un espace vectoriel réel 2 E. On dit que
F est un sous-espace vectoriel de E si
1. ∀x, y ∈ F, x + y ∈ F (F est stable pour la loi “ +”) ;
2. ∀x ∈ F et ∀λ ∈ R, λx ∈ F (F est stable pour la loi “.”).

Remarques

– De manière équivalente, on peut aussi définir un sous-espace vectoriel F de E comme


étant une partie non vide vérifiant

∀x, y ∈ F, ∀α, β ∈ R, αx + βy ∈ F.

– Un sous-espace vectoriel F de E n’est jamais vide : il contient toujours 0E . Pour vérifier


que F 6= ∅, il est recommandé de s’assurer que 0E ∈ F ; si 0E ∈ / F , F n’est pas un
sous-espace vectoriel.

– Un sous-espace vectoriel est lui-même un espace vectoriel.

Exemples

Les sous-ensembles suivants de R3 sont-ils des sous-espaces vectoriels ?


1. F1 = {(x1 , x2 , x3 ) ∈ R3 / x1 + x2 = 1}.
2. F2 = {(x1 , x2 , x3 ) ∈ R3 / 2x1 − x2 + x3 = 0}.
3. F3 = {(x1 , x2 , x3 ) ∈ R3 / x1 < 1}.
4. F4 = {(x1 , x2 , x3 ) ∈ R3 / x21 + x2 = 0}.
5. F5 = {X ∈ R3 / X = (a − b, 3a + 2b, 0); a, b ∈ R}.

Proposition 2.2.1 L’intersection de deux sous-espaces vectoriels d’un même espace vec-
toriel est un sous-espace vectoriel.

Remarque

La réunion de deux sous-espaces vectoriels peut ne pas être un sous-espace vectoriel.


2. Pour simplifier, on prend un espace vectoriel sur R, mais ces définitions restent valables pour tout
autre espace vectoriel sur un corps commutatif K qui n’est pas forcément R.
Algèbre – S2, H. EL BOUZID 15

Exemple

Sur R2 , on considère les deux sous-espaces vectoriels suivants :

E1 = {(x1 , 0)/ x1 ∈ R},

E2 = {(0, x2 )/ x2 ∈ R}.
Soient (x1 , 0) ∈ E1 et (0, x2 ) ∈ E2 . On a

(x1 , 0) ∈ E1 ∪ E2 et (0, x2 ) ∈ E1 ∪ E2 ,

mais (x1 , 0) + (0, x2 ) = (x1 , x2 ) ∈


/ E1 ∪ E2 si x1 =
6 0 et x2 6= 0. Donc, E1 ∪ E2 n’est pas
stable pour la loi “+” et par suite E1 ∪ E2 n’est pas un sous-espace vectoriel de R2 .

2.3 Combinaisons linéaires

Soit {v1 , v2 , . . . , vp } une famille d’un espace vectoriel E sur R. On dit qu’un vecteur v de E
est combinaison linéaire des vecteurs vi s’il existe une famille de scalaires {λ1 , λ2 , . . . , λp }
telle que
p
X
v= λi vi = λ1 v1 + λ2 v2 + . . . + λp vp .
i=1
Exemple

On considère les vecteurs de R3 suivants :

v1 = (1, −1, 0), v2 = (2, 0, 1) et v3 = (3, −1, 0).

Le vecteur

v = 2v1 + 3v2 − v3 = (2, −2, 0) + (6, 0, 3) − (3, −1, 0) = (5, −1, 3)

est combinaison linéaire des vecteurs v1 , v2 et v3 .

Proposition 2.3.1 L’ensemble F de toutes les combinaisons linéaires de p vecteurs don-


nés v1 , v2 , . . . , vp d’un même espace vectoriel E sur R est un sous-espace vectoriel de E.

Définition 2.3.1 L’ensemble F de toutes les combinaisons linéaires de la famille {v1 , v2 , . . . , vp }


est appelé sous-espace engendré par les vecteurs v1 , v2 , . . . , vp et la famille {v1 , v2 , . . . , vp }
est dite famille génératrice de F . On dit aussi que {v1 , v2 , . . . , vp } est un système géné-
rateur de F , ou qu’il engendre F .
Algèbre – S2, H. EL BOUZID 16

Exemples

1. Montrer que les vecteurs u = (2, 1), v = (−1, 2) et w = (1, 3) constituent une famille
génératrice de R2 .

2. Dans l’espace vectoriel R3 , on considère les deux vecteurs v1 = (2, 3, 4) et v2 = (0, 1, 2).
Déterminer le sous-espace F1 engendré par les vecteurs v1 et v2 .

3. Donner une famille génératrice pour chacun de ces deux sous-espaces vectoriels de R3
suivants :
F2 = {(x, y, z) ∈ R3 / x + 3y − 2z = 0},
F3 = {X ∈ R3 / X = (a − b, 2a + 3b, b); a, b ∈ R}.
4. Déterminer l’intersection des sous-espaces vectoriels F1 et F2 des exemples précédents.

2.4 Somme de deux sous-espaces vectoriels

Théorème 2.4.1 Soient E1 et E2 deux sous-espaces vectoriels d’un espace vectoriel (E, +, .)
sur R. La somme
E1 + E2 = {x1 + x2 / x1 ∈ E1 et x2 ∈ E2 }
des deux sous-espaces vectoriels E1 et E2 est un sous-espace vectoriel de E.

Définition 2.4.1 Soient E1 et E2 deux sous-espaces vectoriels d’un espace vectoriel (E, +, .)
sur R. On dit que E1 et E2 sont deux sous-espaces vectoriels supplémentaires de E si
on a
E = E1 + E2 avec E1 ∩ E2 = {0E }.
On dit aussi que E est somme directe des sous-espaces vectoriels E1 et E2 et on note
E = E1 ⊕ E2 .

Théorème 2.4.2 E1 et E2 sont deux sous-espaces vectoriels supplémentaires de E si et


seulement si tout vecteur x de E s’écrit de façon unique sous la forme

x = x1 + x2 avec x1 ∈ E1 et x2 ∈ E2 . (2.1)

Exemples
Algèbre – S2, H. EL BOUZID 17

1. On considère les deux sous-espaces vectoriels réels de R2 définis par :


E1 = {(x1 , 0)/ x1 ∈ R} et E2 = {(0, x2 )/ x2 ∈ R}.
Montrer que E1 et E2 sont des sous-espaces vectoriels supplémentaires de R2 .

2. Les sous-espaces vectoriels de R3


E1 = {(x, y, z) ∈ R3 / x − 2y + z = 0},
E2 = {(x, y, z) ∈ R3 / y + z = 0}
sont-ils supplémentaires ?

2.5 Indépendance linéaire. Bases

Soit E un espace vectoriel sur R.

Définition 2.5.1 On dit que la famille {v1 , v2 , . . . , vp } de vecteurs de E est une famille
libre (ou que les vecteurs vi pour i = 1, . . . , p sont linéairement indépendants) si la
relation
λ1 v1 + λ2 v2 + . . . + λp vp = 0E (2.2)
entraîne λ1 = λ2 = . . . = λp = 0.

Si la famille {v1 , v2 , . . . , vp } n’est pas libre, on dit qu’elle est liée (ou que les vecteurs vi
pour i = 1, . . . , p sont linéairement dépendants), il existe alors des scalaires λi non tous
nuls tels que la relation (2.2) soit vérifiée.

Définition 2.5.2 (rang d’un système de vecteurs) On appelle rang d’un système
de vecteurs le nombre maximum de vecteurs linéairement indépendants que l’on peut ex-
traire de ce système de vecteurs.

Exemple

Les vecteurs v1 , v2 et v3 de l’espace vectoriel réel R3 sont-ils linéairement indépendants


pour chacun des deux cas suivants ?
1. v1 = (1, 0, 1), v2 = (−1, 1, 0), v3 = (2, 1, 1).
2. v1 = (1, 2, 3), v2 = (3, 2, 1), v3 = (1, 1, 1).
Donner le rang de ces systèmes de vecteurs pour chacun de ces deux cas.
Algèbre – S2, H. EL BOUZID 18

Définition 2.5.3 On dit que p vecteurs v1 , v2 , . . . , vp d’un espace vectoriel E forment une
base de E si la famille {v1 , v2 , . . . , vp } est une famille libre et génératrice.

Proposition 2.5.1 B = {v1 , v2 , . . . , vp } est une base de E si et seulement si tout vecteur


v de E s’écrit de façon unique comme combinaison linéaire des vecteurs de B, c’est-à-dire,
p
X
il existe une famille unique de scalaires {λ1 , λ2 , . . . , λp } telle que v = λi vi . Les λi sont
i=1
appelés les coordonnées de v par rapport à la base B.

Dans un espace vectoriel E, toutes les bases ont un même nombre de vecteurs. Ce nombre
est appelé dimension de E, on le note dim E et on a par convention dim{0E } = 0.

Remarque

Soit E un espace vectoriel de dimension n. Si F est un sous-espace vectoriel de E, alors


1. dim F ≤ dim E ;
2. dim F = dim E entraîne que F = E.

Exemples

1. On considère les vecteurs de l’espace vectoriel réel Rn

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), en = (0, . . . , 0, 1).

B = {e1 , e2 , . . . , en } est une base de Rn .

Chaque vecteur x = (x1 , x2 , . . . , xn ) s’écrit d’une façon unique comme combinaison linéaire
de cette famille de vecteurs :

x = x1 e1 + x2 e2 + . . . + xn en .

Elle est dite base canonique de Rn .

2. Montrer que la famille F = {(1, 1, 1), (1, −1, 1), (1, 1, −1)} est une base de R3 . Exprimer
le vecteur (0,2,2) dans cette base.

3. Donner une base du sous-espace vectoriel de R3 défini par :

F = {(x, y, z) ∈ R3 / x − 2y + z = 0}.

Quelle est sa dimension ?


Algèbre – S2, H. EL BOUZID 19

Proposition 2.5.2 Soit E un espace vectoriel de dimension n. Alors


— Toute famille libre de n vecteurs est une base de E.
— Toute famille génératrice de n vecteurs est une base de E.

Ainsi, si on reprend l’exemple 2 précédent, pour montrer que la famille {(1, 1, 1), (1, −1, 1),
(1, 1, −1)} est une base de R3 (dim R3 = 3 et la famille en question contient 3 vecteurs),
il suffit de montrer qu’elle est libre ou qu’elle est génératrice.

Remarques

– Toute famille libre d’un espace vectoriel de dimension n comporte au plus n vecteurs.
– Toute famille génératrice d’un espace vectoriel de dimension n comporte au moins n
vecteurs.
Chapitre 3

Applications linéaires

3.1 Notion d’application linéaire

Définition 3.1.1 Etant donné deux espaces vectoriels E et F sur R, on appelle appli-
cation linéaire de E dans F toute application f : E → F vérifiant
1. ∀x, y ∈ E, f (x + y) = f (x) + f (y) ;
2. ∀x ∈ E, ∀λ ∈ R, f (λx) = λf (x).

Définition équivalente : f est une application linéaire de E dans F si et seulement si


∀x, y ∈ E, ∀α, β ∈ R, f (αx + βy) = αf (x) + βf (y).
Une application linéaire porte aussi le nom d’homomorphisme et on appelle
— endomorphisme de E toute application linéaire de E dans lui-même ;
— isomorphisme de E dans F toute application linéaire bijective de E dans F ;
— automorphisme de E toute application linéaire bijective de E dans lui-même.

Remarques

– Si f est une application linéaire de E dans F , on a nécessairement f (0E ) = 0F (il suffit


de prendre λ = 0 dans la deuxième condition de la définition 3.1.1). Si f (0E ) 6= 0F , f
n’est pas une application linéaire.

– De manière générale, on a
∀Xi ∈ E, ∀λi ∈ R, i = 1, . . . , p (p quelconque),

20
Algèbre – S2, H. EL BOUZID 21

f (λ1 X1 + · · · + λp Xp ) = λ1 f (X1 ) + · · · + λp f (Xp ).


Exemple

Vérifier si les applications suivantes sont linéaires :

1. E = F = R3 , f (x, y, z) = (x − y, 2x + z, 3y + 1).
2. E = R3 , F = R2 , f (x, y, z) = (3x − z, xy + z).
3. E = R3 , F = R2 , f (x, y, z) = (x − 2z, 5y + z).

Avant de commencer l’étude de quelques propriétés des applications linéaires, nous don-
nons la définition de ce qu’on appelle une forme linéaire.

Définition 3.1.2 Etant donné un espace vectoriel E sur R, toute application linéaire de
E dans R est appelée forme linéaire définie sur E. L’ensemble des formes linéaires
définies sur E est appelé dual de E et est noté E ∗ .

3.2 Propriétés des applications linéaires

Proposition 3.2.1 Soient E, F et G trois espaces vectoriels sur R. Si f est une appli-
cation linéaire de E dans F et g une application linéaire de F dans G, alors l’application
composée g ◦ f est une application linéaire de E dans G.

Proposition 3.2.2 Si f est une application linéaire de E dans F , alors


1. si A est un sous-espace vectoriel de E, f (A) est sous-espace vectoriel 1 de F ;
2. si B est sous-espace vectoriel de F , f −1 (B) est un sous-espace vectoriel de E.

Définition 3.2.1 Soit f une application linéaire de E dans F . On appelle


— noyau de f , le sous-ensemble de E noté ker f défini par :

ker f = {x ∈ E/ f (x) = 0F } ;

— image de f , le sous-ensemble de F noté Im f défini par :

Im f = {y ∈ F/ y = f (x), x ∈ E}.
1. Rappelons que f (A) et f −1 (B) désignent respectivement l’image directe de A et l’image réciproque
de B définies dans le chapitre 1.
Algèbre – S2, H. EL BOUZID 22

Remarque

On peut aussi écrire que Im f = f (E) et ker f = f −1 ({0F }).

Proposition 3.2.3 Soit f une application linéaire de E dans F . Alors


1. ker f est un sous-espace vectoriel de E.
2. Im f est un sous-espace vectoriel de F .

Proposition 3.2.4 Soit f une application linéaire de E dans F . Alors


1. f est injective 2 si et seulement si ker f = {0E }.
2. f est surjective si et seulement si Im f = F .

Proposition 3.2.5 L’image par une application linéaire d’un système lié est un système
lié.

Remarque

L’image d’une famille libre de E par une application linéaire n’est pas en général une
famille libre de F .

Proposition 3.2.6 L’image d’une partie génératrice de E par une application linéaire
est une partie génératrice de f (E).

Théorème 3.2.1 Soit f une application linéaire d’un espace vectoriel E de dimension
finie dans un espace vectoriel F . Alors on a

dim E = dim ker f + dim Im f.

La dimension de Im f est appelée rang de l’application linéaire f , il est noté rg(f ) et on


a d’après le théorème précédent,

rg(f ) = dim E − dim ker f.

On remarquera que l’inégalité suivante est toujours vérifiée :

rg(f ) ≤ inf(dim E, dim F ).


2. Voir chapitre 1 pour les définitions des applications injectives, surjectives et bijectives.
Algèbre – S2, H. EL BOUZID 23

Proposition 3.2.7 Si f est une application linéaire d’un espace vectoriel réel E dans un
espace vectoriel réel F de dimensions finies. Alors
1. rg(f ) = dim E si et seulement si f est injective.
2. rg(f ) = dim F si et seulement si f est surjective.

Comme conséquence de ces deux propriétés, on peut énoncer le résultat suivant.

Proposition 3.2.8 Soit f une application linéaire de E dans F , E et F étant deux es-
paces vectoriels réels de même dimension finie. Les propriétés suivantes sont équivalentes :
1. f est injective ;
2. f est surjective ;
3. f est bijective.

Exemple

Considérons l’application linéaire définie par :

E = R3 , F = R2 , f (x, y, z) = (2x + 3y, y + 2z).

Déterminer le noyau et l’image de f ainsi qu’une base et la dimension de chacun de ces


deux sous-espaces vectoriels. f est-elle injective, surjective ?

Nous allons terminer cette étude des propriétés des applications linéaires par le théorème
suivant qui précise la structure de l’ensemble de toutes les applications linéaires d’un
espace vectoriel E dans un autre espace vectoriel F .

Théorème 3.2.2 E et F étant deux espaces vectoriels sur R, l’ensemble des applications
linéaires de E dans F , noté L(E; F ), a une structure d’espace vectoriel pour les deux lois
de composition définies de la façon suivante : pour tous f , g dans L(E; F ) et λ dans R,

∀x ∈ E, (f + g)(x) = f (x) + g(x)

et (λf )(x) = λf (x).


Chapitre 4

Matrices

4.1 Généralités

Définition 4.1.1 Etant donné deux entiers strictement positifs m et n, on appelle ma-
trice à m lignes et n colonnes, une famille {aij } d’éléments de R, où i ∈ {1, . . . , m} et
j ∈ {1, . . . , n}, notée A = (aij )1≤i≤m et est représentée par le tableau
1≤j≤n
 
a11 a12 . . . a1n
 

 a21 a22 . . . a2n 

A= 
.. .. 
. .
 
 
 
am1 am2 . . . amn

Les nombres réels aij sont appelés les coefficients (ou les termes) de la matrice A, l’indice
i s’appelle indice de ligne, j indice de colonne ; aij est ainsi le coefficient qui se trouve sur
la i-ème ligne et la j-ème colonne.

Une matrice à m lignes et n colonnes est dite matrice de type (m, n) et l’ensemble de
toutes les matrices de type (m, n) est noté M(m, n).

– Si m = n, on dit que A est une matrice carrée d’ordre n ; les éléments aii , i ∈ {1, . . . , n}
sont appelés éléments diagonaux de la matrice A et la famille {aii } est la diagonale
principale de A.
– Si m = 1, on dit que A est une matrice ligne (ou uniligne).
– Si n = 1, on dit que A est une matrice colonne (ou unicolonne).

24
Algèbre – S2, H. EL BOUZID 25

Exemples
 
1 0 2 −1
 
 5 3 0 −2  est une matrice de type (3,4).
 
−1 0 4 5

(1,0,3) est une matrice de type (1,3) (matrice ligne).


 
1
 
 2  est une matrice de type (3,1) (matrice colonne).
 
−5
 
−1 1 0
 
 2 3 −1  est une matrice de type (3,3) (matrice carrée d’ordre 3).
 
1 5 4

Une matrice dont tous les coefficients sont nuls (aij = 0, ∀i, j) est dite matrice nulle.

Considérons maintenant une matrice carrée A = (aij ) d’ordre n.


– On dit que A est triangulaire inférieure si

aij = 0 pour tous i et j tels que i < j,

c’est-à-dire que les termes qui sont situés strictement au-dessus de la diagonale sont tous
nuls ;

et triangulaire supérieure si

aij = 0 pour tous i et j tels que i > j,

c’est-à-dire que les termes qui sont situés strictement en-dessous de la diagonale sont tous
nuls.

– On dit que A est une matrice diagonale si aij = 0 pour tous i et j tels que i 6= j ;
autrement dit, seuls les termes qui se trouvent sur la diagonale de A sont non nuls. En
particulier, si tous les termes diagonaux sont égaux à 1 et tous les autres sont nuls, cette
matrice porte le nom de matrice unité (ou matrice identité) d’ordre n et est notée In .

Ces matrices, triangulaire inférieure, triangulaire supérieure, diagonale, unité s’écrivent


donc respectivement
Algèbre – S2, H. EL BOUZID 26

   
a11 a a12 . . . a1n
   11 

 a21 a22 


 a22 a2n 


.. ..
 
. .
. . .. 

. .
  
   
   
an1 an2 . . . ann ann
   
a11 1
   

 a22 


 1 


..
 In = 
..

. .
   
   
   
ann 1

Notons que dans cette écriture, par exemple pour la première matrice, la partie strictement
au-dessus de la diagonale – qu’on a laissée vide – ne contient que des zéros.

Rang d’une matrice

Soit A une matrice de type (m, n). On appelle rang de la matrice A et on note rg(A), le
rang du système de ses vecteurs colonnes (ou lignes).

Trace d’une matrice

La trace d’une matrice carrée A = (aij ) d’ordre n est égale à la somme des termes situés
sur la diagonale principale. Si on note tr(A) la trace de la matrice A, on a
n
X
tr(A) = aii .
i=1

4.2 Matrice et application linéaire

Soient E et F deux espaces vectoriels réels, E de dimension n et muni d’une base B =


{e1 , e2 , . . . , en }, F de dimension m et muni d’une base B 0 = {e01 , e02 , . . . , e0m }. Soit f une
application linéaire de E dans F . Tout vecteur X de E peut s’écrire de manière unique
sous la forme
X = x1 e1 + x2 e2 + . . . + xn en .
Comme f est une application linéaire,

f (X) = x1 f (e1 ) + x2 f (e2 ) + . . . + xn f (en ). (4.1)


Algèbre – S2, H. EL BOUZID 27

L’application f est donc déterminée de façon unique par la donnée des n vecteurs images
f (e1 ), f (e2 ), . . . , f (en ) (dans F ) ; autrement dit, il suffit de connaître ces derniers vecteurs
pour déterminer l’image par f de tout vexteur X de E.

Dans la base B 0 , ces vecteurs images s’écrivent

f (e1 ) = a11 e01 + a21 e02 + . . . + am1 e0m


f (e2 ) = a12 e01 + a22 e02 + . . . + am2 e0m
..
.
f (en ) = a1n e01 + a2n e02 + . . . + amn e0m .

Par conséquent, si on reporte ces expressions dans (4.1), on aura en utilisant une écriture
matricielle,   
a11 a12 . . . a1n x1
  
 a21 a22 . . . a2n   x2
  

f (X) =  .

..  
.. 
 .. .  .
 
 
  
am1 am2 . . . amn xn
C’est-à-dire qu’on obtient la relation

f (X) = M (f ; B, B 0 )X,

où M (f ; B, B 0 ) = (aij )1≤i≤m est une matrice de type (m, n) appelée matrice associée à f
1≤j≤n
relativement aux bases B et B 0 . Si E et F sont munis de leurs bases canoniques, on la
note tout simplement M (f ). Enfin, notons que la colonne j de la matrice M (f ; B, B 0 ) est
constituée des coordonnées du vecteur f (ej ) dans la base B 0 .

Exemples

1. Déterminer l’application linéaire f de R3 dans lui-même, dont la matrice associée par


rapport à la base canonique est  
1 0 2
 
 3 −1 1 
 
0 2 −1
2. Soit f l’application linéaire de R3 dans R2 définie par :

f (x, y, z) = (2x + y − z, x − 3y + z).

Donner la matrice associée à f relativement aux bases B de R3 et B 0 de R2 pour chacun


des cas suivants :
Algèbre – S2, H. EL BOUZID 28

a) B est la base canonique de R3 , B 0 est la base canonique de R2 .


b) B = {(1, 1, 1), (1, −1, 1), (1, 1, −1)}, B 0 est la base canonique de R2 .
c) B est la base canonique de R3 , B 0 = {(1, 1), (1, 2)}.
d) B = {(1, 1, 1), (1, −1, 1), (1, 1, −1)}, B 0 = {(1, 1), (1, 2)}.

4.3 Opérations sur les matrices

Soient E et F deux espaces vectoriels réels, E de dimension n et muni d’une base B, F de


dimension m et muni d’une base B 0 . Soient deux matrices A = (aij ) et B = (bij ) de type
(m, n), associées à deux applications linéaires respectives f et g de E dans F relativement
aux bases B et B 0 .

Egalité

A et B sont égales si et seulement si pour tout i ∈ {1, . . . , m} et tout j ∈ {1, . . . , n}, on a

aij = bij .

Somme de deux matrices

La somme de A = (aij ) et B = (bij ) est définie par :

A + B = (aij + bij )1≤i≤m ,


1≤j≤n

ce qui signifie que la matrice somme 1 A + B est obtenue en additionnant les coefficients
de même rang de A et de B. Cette matrice représente l’application linéaire f + g.

L’opération interne qu’on vient de définir sur M(m, n) est appelée somme des matrices.

Multiplication par un scalaire

Pour tout λ ∈ R, nous posons par définition

λA = (λaij )1≤i≤m ,
1≤j≤n

c’est-à-dire que le produit λA est obtenu en multipliant chacun des coefficients de A par
le scalaire λ. Cette matrice représente l’application linéaire λf .
1. La somme de deux matrices A et B n’est possible que si A et B sont de même type.
Algèbre – S2, H. EL BOUZID 29

L’opération externe ainsi définie sur M(m, n) est appelée multiplication des matrices par
un scalaire.

Exemple

Considérons les deux matrices


   
4 −1 0  0 2 −1 
A= et B =  .
5 3 −2 3 1 6
Leur somme est donnée par :
 
4 1 −1 
A+B = .
8 4 4
Si on multiplie la matrice A par le scalaire λ = 3, on aura
 
12 −3 0 
3A =  .
15 9 −6

Proposition 4.3.1 L’ensemble M(m, n) muni de ces deux lois est un espace vectoriel de
dimension mn.

Démonstration

On vérifie sans peine que les huit propriétés qui définissent un espace vectoriel sont toutes
satisfaites (voir définition 2.1.1 du chapitre 2).

Soit Eij la matrice de M(m, n) qui a tous ses coefficients nuls sauf celui situé à l’inter-
section de la ligne i et la colonne j qui vaut 1. Alors toute matrice A = (aij ) de M(m, n)
s’écrit de manière unique sous la forme
X
A = (aij ) = aij Eij .
i,j

{Eij } est la base canonique de M(m, n) et dim M(m, n) = mn.

Illustrons ce que nous venons de voir par le cas où n = m = 2 :

L’espace vectoriel M(2, 2) des matrices carrées d’ordre 2 est de dimension 4, sa base
canonique {E11 , E12 , E21 , E22 } est telle que
   
1 0  0 1 
E11 = , E12 =  ,
0 0 0 0
Algèbre – S2, H. EL BOUZID 30

   
0 0  0 0 
E21 = et E22 =  .
1 0 0 1
 
a11 a12 
Toute matrice A =  de M(2, 2) s’écrit dans cette base sous la forme
a21 a22

A = a11 E11 + a12 E12 + a21 E21 + a22 E22 .

Produit de matrices

Considérons deux matrices A = (akj ) ∈ M(m, n) et B = (bik ) ∈ M(p, m), associées à


deux applications linéaires f ∈ L(E; F ) et g ∈ L(F ; G), où E, F et G sont des espaces
vectoriels réels de dimensions respectives n, m et p. Le produit BA est une matrice
C = (cij ) ∈ M(p, n) qui est définie par :
m
X
cij = bik akj , pour 1 ≤ i ≤ p et 1 ≤ j ≤ n.
k=1

Ce terme cij résulte du produit de la i-ème ligne de B par la j-ème colonne de A, obtenu en
multipliant les termes de même rang de cette ligne et de cette colonne, et en additionnant
les résultats de ces m multiplications. Le produit BA n’est possible que si le nombre de
colonnes de B est égal au nombre de lignes de A.

Le produit BA est une matrice de type (p, n) qui représente l’application linéaire g ◦ f ∈
L(E; G).

Exemple

On considère les trois matrices


 
 1 −2
  
1 0 −1   1 2
A= , B =  0
 et C =
3   .
2 3 1 
3 −1
2 −1

Calculer, lorsque c’est possible, les produits AB, CA et CB.

La multiplication des matrices a les propriétés suivantes 2 :


— le produit matriciel est associatif :

(AB)C = A(BC) ;
2. Sous réserve que ces produits soient possibles.
Algèbre – S2, H. EL BOUZID 31

— le produit matriciel est distributif par rapport à l’addition :

B(A1 + A2 ) = BA1 + BA2

et (B1 + B2 )A = B1 A + B2 A ;
— si A est une matrice de type (m, n), alors

Im A = A et AIn = A,

où Im et In désignent les matrices unité d’ordre m et n respectivement ;


— si 0 est la matrice nulle, alors

0A1 = 0 et A2 0 = 0.

Remarque

Le produit matriciel n’est pas commutatif, en général AB 6= BA (bien entendu, lorsque


les produits AB et BA peuvent être définis simultanément, tel est le cas si A et B sont
des matrices carrées, ou si A ∈ M(m, n) et B ∈ M(n, m)).

Transposée d’une matrice

Soit A = (aij ) une matrice dans l’ensemble M(m, n). On appelle transposée de A, la
matrice B = (bij ) 1≤i≤n ∈ M(n, m) définie par :
1≤j≤m

bij = aji ,

on la note B = tA. Par exemple si


 
1 2 3 
A= ∈ M(2, 3)
0 −1 5

alors  
1 0
t
 
 2 −1  ∈ M(3, 2).
A= 

3 5
Une matrice A telle que tA = A est appelée matrice symétrique, ses coefficients vérifient
la relation aij = aji , ∀i, j. Par exemple
 
1 2 3
 
A =  2 −1 4 


3 4 0
Algèbre – S2, H. EL BOUZID 32

est une matrice symétrique.

Si une matrice A est telle que tA = −A, on dit qu’elle est antisymétrique.

On peut vérifier facilement qu’on a les propriétés suivantes 3 :

1. t (tA) = A.
2. t (A + B) = tA +tB.
3. t (λA) = λ(tA).
4. t (AB) = tB tA.

4.4 Matrices inversibles

Définition 4.4.1 Une matrice carrée A d’ordre n est dite inversible (ou régulière) s’il
existe une matrice carrée B d’ordre n telle que

AB = BA = In .

La matrice B est appelée la matrice inverse de A et on la note A−1 .

Les matrices inverses ont les propriétés suivantes :


1. (AB)−1 = B −1 A−1 .
2. Si λ ∈ R∗ , (λA)−1 = λ1 A−1 .
3. Si A est inversible, alors (tA)−1 = t(A−1 ).

Dans la suite, nous présenterons deux méthodes pour déterminer l’inverse d’une matrice
inversible, la première en faisant appel aux déterminants (cf. chapitre 5) et la deuxième
en utilisant une méthode dite du pivot de Gauss (cf. chapitre 6).

3. Sous réserve que tous les termes qui vont suivre soient bien définis.
Algèbre – S2, H. EL BOUZID 33

4.5 Changement de bases

Matrice de passage

Soit E un espace vectoriel réel de dimension n muni de deux bases

B = {e1 , e2 , . . . , en } et B 0 = {e01 , e02 , . . . , e0n },

appelées respectivement ancienne et nouvelle base. Pour j ∈ {1, . . . , n}, on a


n
e0j =
X
aij ei .
i=1

La matrice carrée P = (aij )1≤i,j≤n s’appelle matrice de passage de la base B à la base B 0 ;


ses colonnes sont constituées des coordonnées des vecteurs de la nouvelle base B 0 dans
l’ancienne base B, c’est-à-dire
 
a11 . . . a1j . . . a1n
 

 a21 . . . a2j . . . a2n 

P = 
.. .. .
.. 
. . . 


 
an1 . . . anj . . . ann

Remarques

– La matrice de passage est inversible.


– La matrice de passage de la base B 0 à la base B est la matrice inverse de P .

Exemple

La matrice de passage de la base canonique B = {e1 , e2 , e3 } à la base B 0 = {(1, 1, 1), (1, 2, 3),
(1, 3, 6)} de R3 est
 
1 1 1
 
P = 1

.
2 3 
1 3 6

Effet d’un changement de base sur les coordonnées d’un vecteur

Soit E un espace vectoriel réel de dimension n. L’écriture d’un vecteur quelconque X de


E dans la base B = {e1 , e2 , . . . , en } est donnée par :
n
X
X= xi ei
i=1
Algèbre – S2, H. EL BOUZID 34

et celle dans la base B 0 = {e01 , e02 , . . . , e0n } est


n
x0j e0j .
X
X=
j=1

Le problème auquel on s’intéresse ici est de trouver une relation qui lie les les anciennes
coordonnées xi dans la base B et les nouvelles coordonnées x0i dans la base B 0 du vecteur
X.

Soit P = (aij )1≤i,j≤n la matrice de passage de la base B à la base B 0 . Nous avons alors la
relation suivante :

      
x1 x01 a11 . . . a1j . . . a1n x0
      1 

 x2 


 x02 


   x2
a21 . . . a2j . . . a2n   0 


..  =P 
..  = 
.. .. ..   ..
 .
. . . .  .
. 
     
      
     
xn x0n an1 . . . anj . . . ann x0n

Ce qui signifie que les coordonnées de X dans la base B s’expriment en fonction de ses
coordonnées dans la base B 0 et inversement :

   
x01 x1
   

 x02 


−1 
 x2 


..  = P  .. .
. .
  
   
   
x0n xn
Exemple

Dans l’exemple précédent, le vecteur X = 3e01 − 2e02 + e03 a pour coordonnées dans la base
canonique B = {e1 , e2 , e3 }
        
x1 3 1 1 1 3 2
        
 x  = P  −2  =  1 2 3   −2  =  2  .
 2        
x3 1 1 3 6 1 3

L’expression de X dans la base B est donc

X = 2e1 + 2e2 + 3e3 .


Algèbre – S2, H. EL BOUZID 35

Effet d’un changement de base sur la matrice d’une application linéaire

Soit f une application linéaire d’un espace vectoriel E réel de dimension n dans lui-même.
B = {e1 , e2 , . . . , en } et B 0 = {e01 , e02 , . . . , e0n } étant deux bases de E. Notons par :
— P la matrice de passage de la base B à la base B 0 ;
— A la matrice associée à l’application linéaire f relativement à la base 4 B ;
— A0 la matrice associée à l’application linéaire f relativement à la base B 0 .

Nous avons alors la relation suivante qui lie les deux matrices A et A0 :

A0 = P −1 AP.

Enfin, on dit que deux matrices carrées A et B d’ordre n sont semblables s’il existe une
matrice carrée P , d’ordre n, inversible telle que

B = P −1 AP.

4. Notons que là, l’ensemble de départ et l’ensemble d’arrivée sont tous les deux munis de la base B.
Chapitre 5

Déterminants

5.1 Applications et formes multilinéaires

Définition 5.1.1 Etant donné n + 1 espaces vectoriels réels E1 , E2 , . . ., En , F , on appelle


application multilinéaire (ou n-linéaire) de E1 × E2 × . . . × En dans F une application
f : E1 × E2 × . . . × En → F qui associe à chaque n-uplet (x1 , x2 , . . . , xn ) 1 un vecteur
f (x1 , x2 , . . . , xn ) de F , telle que les n applications partielles

(∀i = 1, 2, . . . , n) fi : xi 7→ f (x1 , x2 , . . . , xi , . . . , xn )

soient linéaires.

La linéarité des applications partielles fi signifie que f est linéaire par rapport à chacun
de ces arguments, c’est-à-dire, quels que soient les vecteurs xi et yi de Ei , le scalaire λ,
on a

f (x1 , x2 , . . . , xi + yi , . . . , xn ) = f (x1 , x2 , . . . , xi , . . . , xn )
+f (x1 , x2 , . . . , yi , . . . , xn ),

f (x1 , x2 , . . . , λxi , . . . , xn ) = λf (x1 , x2 , . . . , xi , . . . , xn ).


Ainsi, si par exemple n = 2 et f est multilinéaire, en raison de la linéarité par rapport à
son premier argument, on a

f (x1 + y1 , x2 + y2 ) = f (x1 , x2 + y2 ) + f (y1 , x2 + y2 ).


1. Faire attention à la notation xi , là ce sont des vecteurs contrairement à la notation qu’on adoptait
dans les chapitres précédents pour désigner les coordonnées d’un vecteur.

36
Algèbre – S2, H. EL BOUZID 37

D’autre part, comme f est également linéaire par rapport à son deuxième argument,

f (x1 + y1 , x2 + y2 ) = f (x1 , x2 ) + f (x1 , y2 ) + f (y1 , x2 ) + f (y1 , y2 ).

Soit maintenant λ un réel quelconque, en prenant là encore n = 2, f est multilinéaire


entraîne
f (λ(x1 , x2 )) = f (λx1 , λx2 ) = λ2 f (x1 , x2 ).

Définition 5.1.2 On appelle forme multilinéaire sur E1 ×E2 ×. . .×En une application
multilinéaire f de E1 × E2 × . . . × En dans R (c’est-à-dire lorsque F = R). Si n = 2, f
est dite forme bilinéaire.

Notons que si f est une forme multilinéaire, on a nécessairement

f (x1 , . . . , xi−1 , 0, xi+1 , . . . , xn ) = 0.

Pour pouvoir définir ce qu’on appellera déterminant, il nous reste à introduire la notion
de forme multilinéaire alternée.

Définition 5.1.3 Etant donné un espace vectoriel E, une forme multilinéaire f sur E n
est dite alternée si l’on a
f (x1 , . . . , xi , . . . , xn ) = 0
pour tout (x1 , . . . , xi , . . . , xn ) tel qu’il existe des indices i et j distincts vérifiant xi = xj .

Proposition 5.1.1 Si f est une forme multilinéaire alternée, alors

f (x1 , . . . , xi , . . . , xj , . . . , xn ) = −f (x1 , . . . , xj , . . . , xi , . . . , xn ).

Autrement dit, f change de signe lorsqu’on permute deux de ses arguments.

Proposition 5.1.2 Une forme multilinéaire alternée n’est pas modifiée si on ajoute à l’un
de ses vecteurs une combinaison linéaire des autres :
X
f (x1 , . . . , xi + λj xj , . . . , xn ) = f (x1 , . . . , xi , . . . , xn ).
j6=i

Proposition 5.1.3 Etant donné une forme multilinéaire alternée f . Si {x1 , x2 , . . . , xn }


est un système de vecteurs liés, alors

f (x1 , x2 , . . . , xn ) = 0.
Algèbre – S2, H. EL BOUZID 38

5.2 Déterminant

Définition 5.2.1 Soit E un espace vectoriel de dimension n sur R. Il existe une et une
seule forme multilinéaire alternée définie sur E n , notée det(.) et telle que

det(e1 , e2 , . . . , en ) = 1

où B = {e1 , e2 , . . . , en } est la base canonique de E. Sa valeur pour (x1 , x2 , . . . , xn ) est


appelée déterminant de (x1 , x2 , . . . , xn ) relativement à la base B ; on la note

det(x1 , x2 , . . . , xn ).

Notation

a11 . . . a1j . . . a1n

.. ..
. .



det(x1 , x2 , . . . , xn ) = ai1 . . . aij . . . ain = |aij |.


.. ..



. .

an1 . . . anj . . . ann
L’ordre d’un déterminant est le nombre de ses lignes ou de ses colonnes.
Le déterminant d’une matrice A = (aij ) est noté det(A) ou |aij |.

Terminons cette section par un résultat d’une grande importance, qui permet d’associer le
fait qu’un système de n vecteurs d’un espace vectoriel E de dimension n est libre ou non
à une condition sur le déterminant de ces vecteurs, cela fera l’objet du théorème suivant.

Théorème 5.2.1 n vecteurs x1 , x2 , . . . , xn d’un espace vectoriel E de dimension n sont


linéairement indépendants si et seulement si

det(x1 , x2 , . . . , xn ) 6= 0.

5.3 Propriétés des déterminants

Les déterminants ont les propriétés suivantes :

1. Le déterminant de la transposée d’une matrice est égal au déterminant de cette matrice :


det(tA) = det(A).
Algèbre – S2, H. EL BOUZID 39

2. Le déterminant du produit de deux matrices est égal au produit de leurs déterminants :


det(AB) = det(A) det(B).

Par conséquent, si A est inversible,

det(A) det(A−1 ) = det(AA−1 ) = det(I) = 1,

c’est-à-dire que
1
det(A−1 ) = .
det(A)
3. Un déterminant est nul
— si une ligne (ou colonne) est nulle ;
— si deux lignes (ou colonnes) sont identiques ou proportionnelles ;
— si une de ses lignes (ou colonnes) est combinaison linéaire des autres.

4. Dans un déterminant, si tous les éléments d’une colonne j (ou ligne), sont de la forme
λaij , i = 1, . . . , n avec λ ∈ R, alors ce déterminant est égal λ multiplié par le déterminant
dont la j-ème colonne est formée des éléments aij , les autres colonnes sont identiques au
déterminant initial. Soit


. . . λa1j . . .
. . . a1j . . .


. . . λa2j . . .
. . . a2j . . .
= λ

.. .. .. ..
. . . .



. . . λanj . . . . . . anj . . .

5. La valeur d’un déterminant change de signe lorsqu’on échange deux lignes (ou colonnes).

6. Si dans un déterminant on ajoute à une ligne (ou colonne) une combinaison linéaire
des autres lignes, sa valeur reste inchangée.

7. Si tous les éléments de la colonne j (ou ligne) d’un déterminant sont de la forme
ai + bi , i = 1, . . . , n, alors ce déterminant est égal à la somme de deux déterminants dont
les colonnes j sont constituées respectivement des éléments ai et bi , les autres colonnes
restent inchangées. Soit


. . . a1 + b1 . . . . . . a1 . . . . . . b1 . . .


. . . a2 + b2 . . . . . . a2 . . . . . . b2 . . .

.. .. = .. .. + .. ..
. . . . . .



. . . an + bn . . . . . . an . . . . . . bn . . .

Notons que ces propriétés découlent immédiatement de la théorie des formes multilinéaires
alternées que nous avons étudiée dans la section 1.
Algèbre – S2, H. EL BOUZID 40

5.4 Calcul d’un déterminant

Définition 5.4.1 Dans un déterminant det(A) d’ordre n, où A = (aij ), on appelle


– mineur associé à l’élément aij , le déterminant d’ordre n − 1 obtenu en supprimant la
i-ème ligne et la j-ème colonne, on le notera Aij ;
– cofacteur associé à l’élément aij , le nombre réel qu’on note ∆ij donné par :

∆ij = (−1)i+j Aij .

Développement d’un déterminant

Soit A = (aij )1≤i,j≤n une matrice carrée d’ordre n, le déterminant de A peut être développé
selon la i-ème ligne :
n
X
det(A) = aij ∆ij
j=1

ou selon la j-ème colonne :


n
X
det(A) = aij ∆ij .
i=1

Exemples

Calculons les déterminants d’ordre 2 et 3 suivants en les développant selon la première


ligne.
a11 a12

= (−1)2 a11 a22 + (−1)3 a12 a21 = a11 a22 − a12 a21 ;
a21 a22


a11 a12 a13
a22 a23 a21 a23

(−1)2 a11 + (−1)3 a12

a21 a22 a23 =
a32 a33 a31 a33


a31 a32 a33

a21 a22

+(−1)4 a13


a31 a32

= a11 a22 a33 + a12 a23 a31 + a13 a21 a32


−a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

Remarque

D’après ce qui précède, on voit qu’un déterminant peut être développé selon n’importe
quelle ligne ou n’importe quelle colonne, à condition de faire attention au signe des termes
Algèbre – S2, H. EL BOUZID 41

(−1)i+j ; le tableau suivant donne la règle du signe à appliquer lors du développement d’un
déterminant :
+ − + − ...
− + − + ...
+ − + − ...
.. ..
. .

Proposition 5.4.1 Le déterminant d’une matrice triangulaire est égal au produit de ses
termes diagonaux.

Application des déterminants à l’inversion d’une matrice

Une matrice carrée A d’ordre n est inversible si et seulement si son déterminant est non
nul :
A inversible ⇔ det(A) 6= 0.
La matrice (∆ij )1≤i,j≤n qu’on a introduite dans la définition 5.4.1 est appelée comatrice
de la matrice A, on la notera A0 ; on va s’en servir pour déterminer la matrice inverse de
A.

Proposition 5.4.2 L’inverse A−1 d’une matrice inversible A s’obtient en divisant par
det(A) la transposée de la comatrice de A :
1
A−1 = t 0
A.
det(A)

Exemple

Déterminer l’inverse de la matrice


 
−1 −1 3
 
A=
 1 2 .
2 
1 1 −2
Chapitre 6

Systèmes d’équations linéaires

6.1 Définitions

On appelle système de m équations linéaires à n inconnues tout système d’équations qui


peut s’écrire sous la forme




 a11 x1 + a12 x2 + . . . + a1n xn = b1



 a21 x1 + a22 x2 + . . . + a2n xn = b2
.. .. (6.1)



 . .

am1 x1 + am2 x2 + . . . + amn xn = bm

où les aij (appelés coefficients) et les bi (seconds membres) sont des nombres réels donnés
et xi les inconnues du système.

On appelle solution du système (6.1) tout vecteur x = (x1 , x2 , . . . , xn ) de Rn dont les


coordonnées vérifient les m équations de ce système.

Sous une forme matricielle, le système (6.1) s’écrit


Ax = b, où
     
a11 a12 . . . a1n x1 b1
     

 a21 a22 . . . a2n 


 x2 


 b2 

A= 
.. .. , x= 
..  et b = 
.. .
. . . .
     
     
     
am1 am2 . . . amn xn bm

42
Algèbre – S2, H. EL BOUZID 43

Sachant que la matrice A et le second membre b sont donnés au départ, on cherche à ré-
soudre ce système d’équations linéaires, c’est-à-dire déterminer l’ensemble de ses solutions.
Trois cas sont possibles :
— le système n’a pas de solution ;
— le système a une solution unique ;
— le système a une infinité de solutions.

Remarquons que lorsque la matrice A est une matrice carrée inversible, le système (6.1)
admet une solution unique. En effet,

Ax = b entraîne que A−1 Ax = A−1 b,

d’où x = A−1 b.

6.2 Résolution au moyen des déterminants

Dans cette section, on se place dans le cas où A est une matrice carrée inversible d’ordre
n, le système correspondant admet alors une solution unique et on dit qu’on a un système
de Cramer.

Si on désigne par Ai la i-ème colonne de la matrice A, le système Ax = b peut se mettre


sous la forme
x1 A1 + x2 A2 + . . . + xn An = b. (6.2)
Notons ensuite B1 la matrice qui a les mêmes colonnes que la matrice A, sauf la première
qu’on remplace par le vecteur b :

B1 = (b A2 . . . An ).

D’après (6.2), on peut écrire

B1 = (x1 A1 + x2 A2 + . . . + xn An A2 . . . An ).

Il en résulte
det(B1 ) = det(x1 A1 + x2 A2 + . . . + xn An A2 . . . An ).
Puisque la fonction déterminant est une forme multilinéaire (cf. chapitre 5), on a

det(B1 ) = x1 det(A1 A2 . . . An ) + x2 det(A2 A2 . . . An ) + . . .


+ xn det(An A2 . . . An ).
Algèbre – S2, H. EL BOUZID 44

D’autre part, comme det(.) est une forme alternée, tous les termes de cette somme sont
nuls sauf le premier et par suite

det(B1 ) = x1 det(A).

Par conséquent,
det(B1 )
x1 = .
det(A)
On montre de façon similaire que pour tout i = 1, . . . , n, on a
det(Bi )
xi = .
det(A)
La démarche précédente nous permet d’énoncer le résultat suivant.

Proposition 6.2.1 Un système de Cramer Ax = b de n équations à n inconnues a pour


solution unique
det(Bi )
xi = , i = 1, . . . , n
det(A)
où Bi est la matrice obtenue en remplaçant dans la matrice A son i-ème vecteur colonne
par le vecteur colonne b des seconds membres.

Exemple

Résoudre le système 


 −x − y + 3z = 1

x + 2y + 2z = 0


x + y − 2z = 0

6.3 Résolution par la méthode de Gauss

Pour résoudre le système (6.1), nous proposons cette fois-ci d’utiliser la méthode dite
de Gauss qui consiste à transformer le système de départ et le ramener à un système
triangulaire équivalent qui peut être résolu aisément.

Cette méthode de résolution repose essentiellement sur le principe suivant :

Lorsqu’on multiplie une équation du système par un scalaire non nul et on lui ajoute une
combinaison linéaire des autres équations, le nouveau système est équivalent au système
initial.
Algèbre – S2, H. EL BOUZID 45

Par exemple, le système 




 x − 2y − 5z = 1

−2x + y + 7z = −1


4x − y − 3z = 2
est équivalent au système 


 x − 2y − 5z = 1

−3y − 3z = 1


4x − y − 3z = 2
ce deuxième étant obtenu en ajoutant à la deuxième ligne 2 fois la première.

La méthode de Gauss utilise cette propriété pour apporter les modifications suivantes au
système initial :
— on élimine x1 des équations (2), (3), . . . , (m), la première équation reste inchangée ;
— on élimine ensuite x2 des équations (3), (4), . . . , (m), la première et la deuxième
équations restent inchangées ;
— puis, on élimine x3 . . .
La forme finale obtenue permet de déduire facilement l’ensemble des solutions du système
(6.1).

Exemple

Considérons le système



 2x1 − x2 − x3 = 4 (1)

3x1 + 4x2 − 2x3 = 11 (2)


3x1 − 2x2 + 4x3 = 11 (3)

– 1ère étape : élimination de x1 dans les équations (2) et (3).


On garde l’équation (1).
L’équation (2) sera remplacée par (2)0 = 2(2) − 3(1).
L’équation (3) sera remplacée par (3)0 = 2(3) − 3(1).

Ainsi, le système équivalent obtenu est





 2x1 − x2 − x3 = 4 (1)

11x2 − x3 = 10 (2)0
(3)0


−x2 + 11x3 = 10

– 2ème étape : élimination de x2 dans l’équation (3)0 .


On garde les équations (1) et (2)0 .
On remplace l’équation (3)0 par (3)00 = 11(3)0 + (2)0 .
Algèbre – S2, H. EL BOUZID 46

Le système final équivalent est donc





 2x1 − x2 − x3 = 4 (1)

11x2 − x3 = 10 (2)0
(3)00


120x3 = 120

Notons que la matrice associée à ce dernier système est triangulaire supérieure (cf. chapitre
4) :
    
2 −1 −1 x1 4
    
 0 11 −1   x  =  10  ,
  2   
0 0 120 x3 120
on dit alors qu’on a un système triangulaire car il comporte un “triangle” de zéros en-
dessous de la diagonale.

Ce système ainsi “triangularisé” peut être résolu facilement en remontant : de la dernière


équation on tire x3 = 1 ; en reportant cette valeur dans la deuxième équation, on obtient
x2 = 1 ; enfin, la première équation nous donne x1 = 3.

Le système admet donc une solution unique

x1 = 3, x2 = 1, x3 = 1.

Remarquons que ces transformations interviennent uniquement au niveau des coefficients


du système et du second membre, donc pour simplifier l’écriture et ne pas traîner les
inconnues xi pendant le déroulement de cet algorithme, il serait plus intéressant d’écrire
la matrice A et le second membre b dans un même tableau sur lequel on effectue ces
opérations. Ce tableau A|b est appelé matrice augmentée associée au système (6.1).

Ainsi, si on reprend l’exemple précédent, les opérations que nous avons effectuées peuvent
s’écrire en utilisant uniquement la matrice augmentée comme suit :

2 −1 −1 4 (1)

3 4 −2 11 (2)

3 −2 4 11 (3)

2 −1 −1 4 (1)
(2)0 = 2(2) − 3(1)

−→ 0 11 −1 10
(3)0 = 2(3) − 3(1)

0 −1 11 10

2 −1 −1
4 (1)
(2)0

−→ 0 11 −1
10
(3)00 = 11(3)0 + (2)0

0 0 120 120
Algèbre – S2, H. EL BOUZID 47

Le système final équivalent qu’on obtient s’écrit alors





 2x1 − x2 − x3 = 4 (1)

11x2 − x3 = 10 (2)0
(3)00


120x3 = 120

Remarque

Notons que lors du déroulement du processus de Gauss, si à une étape on obtient un zéro
sur la diagonale, nous ne pouvons pas l’utiliser pour annuler les termes situés en-dessous
sur la même colonne, pour remédier à ça, on permute cette ligne avec la ligne suivante.

Exemple

Résoudre les systèmes linéaires suivants :





 2x1 + 2x2 + x3 = 1
1.  x1 + x2 + 3x3 = 3


2x1 − 3x2 + 4x3 = 0



 x1 + x 2 + x3 = α
2. x1 − 8x2 + 7x3 = 1



x1 − 2x2 + 3x3 = 1, α ∈ R.

6.4 Détermination de l’inverse d’une matrice

Rappelons que nous avons déjà présenté une méthode qui permet de déterminer l’inverse
d’une matrice au moyen des déterminants (cf. chapitre 5). Dans cette section, nous verrons
que la détermination de l’inverse d’une matrice carrée d’ordre n peut être ramenée à
celle des solutions de n systèmes d’équations linéaires et une fois de plus, nous pouvons
appliquer la méthode de Gauss pour résoudre en parallèle ces systèmes linéaires.

Soit A une matrice carrée d’ordre n, inversible. Rappelons que A est inversible si et
seulement si il existe une matrice B d’ordre n telle que

AB = BA = In ,

In étant la matrice unité d’ordre n (cf. chapitre 4).


Algèbre – S2, H. EL BOUZID 48

Si on désigne par Bi , i = 1, . . . , n la i-ème colonne de la matrice B, on peut écrire le


produit AB sous la forme
AB = (AB1 AB2 . . . ABn ).
Notons que cette écriture signifie que le vecteur colonne ABi représente la i-ème colonne
de la matrice AB.

Or, comme B est la matrice inverse de A, on a

(AB1 AB2 . . . ABn ) = (e1 e2 . . . en ),

c’est-à-dire
ABi = ei , i = 1, . . . , n,
     

1  
0  
0 

 0 


 1 


 0 


0
 
0
 
.. 
où e1 = , e2 = ,..., en = . .
     
  

..  
..   
. . 0
     
     
     
0 0 1

Ainsi, la résolution de ces n systèmes linéaires permet de déterminer les vecteurs colonnes
Bi de la matrice inverse B et puisqu’on a une même matrice A qui est associée à tous
ces n systèmes, on peut les résoudre en parallèle par la méthode de Gauss. On part du
tableau initial :
A|e1 e2 . . . en
et ensuite on applique le procédé de “triangularisation" décrit dans la section précédente ;
mais il faut noter au passage qu’une fois arrivé à une matrice triangulaire supérieure, on
applique cette technique de “triangularisation" encore une fois pour annuler les termes
situés au-dessus de la diagonale et on s’arrête lorsqu’on obtient un tableau final de la
forme
In |B1 B2 . . . Bn .
En récapitulant, on peut dire qu’on part du tableau initial A|In pour arriver au tableau
final In |A−1 .

Exemple

Déterminer l’inverse des deux matrices suivantes :


   
1 0 2 2 2 −1
   
A =  2 1 −1  et B =  1
   1 .
0 
3 2 1 −1 −2 0
Chapitre 7

Réduction des matrices

7.1 Vecteurs propres et valeurs propres

Définition 7.1.1 f étant un endomorphisme d’un espace vectoriel E sur R, on appelle


vecteur propre de f tout vecteur v tel qu’il existe un élément λ de R vérifiant

f (v) = λv. (7.1)

Si v = 0, la relation (7.1) est vérifiée quel que soit λ ; supposons v 6= 0 vérifiant (7.1), le
scalaire λ est alors unique car

(v 6= 0 et λv = λ0 v) ⇒ (λ − λ0 )v = 0 ⇒ λ − λ0 = 0,

d’où la définition :

Définition 7.1.2 f étant un endomorphisme d’un espace vectoriel E sur R, on appelle


6 0 de E vérifiant
valeur propre de f tout élément λ de R tel qu’il existe un vecteur v =

f (v) = λv.

λ étant une valeur propre, par définition l’ensemble des vecteurs v de E vérifiant (7.1)
qu’on note E(λ) est distinct de {0}.

Prenons deux vecteurs quelconques v1 et v2 appartenant à E(λ), on a alors

f (v1 ) = λv1 et f (v2 ) = λv2 .

49
Algèbre – S2, H. EL BOUZID 50

Ce qui entraîne que

f (v1 + v2 ) = f (v1 ) + f (v2 ) = λv1 + λv2 = λ(v1 + v2 ),

donc v1 + v2 appartient à E(λ).

Soit maintenant α dans R et soit v dans E(λ), on a

f (αv) = αf (v) = α(λv) = λ(αv).

D’où αv ∈ E(λ).

Par conséquent, E(λ) est un sous-espace vectoriel de E. En plus, si v ∈ E(λ), f (v) =


λv ∈ E(λ), ce qui montre que E(λ) est stable par f .

Théorème 7.1.1 Etant donné un endomorphisme f d’un espace vectoriel E sur R.


1. A tout vecteur propre v 6= 0 de f correspond une valeur propre unique λ, appelée
valeur propre associée à v.
2. A toute valeur propre λ de f correspond un sous-espace vectoriel E(λ) de E, il est
décrit par les vecteurs v de E vérifiant f (v) = λv, on l’appelle le sous-espace
propre associé à λ ; E(λ) est distinct de {0} et est stable par f .

Théorème 7.1.2 Les sous-espaces E(λ1 ) et E(λ2 ) associés à deux valeurs propres dis-
tinctes d’un endomorphisme f n’ont en commun que le vecteur nul.

Théorème 7.1.3 f étant un endomorphisme de E, espace vectoriel sur R admettant m


valeurs propres distinctes deux à deux, λ1 , λ2 ,. . ., λm , la famille {x1 , x2 , . . . , xm }, xi étant
un vecteur propre non nul associé à λi , est libre.

Remarque

Comme conséquence de ce théorème, si dim(E) = n, tout endomorphisme de E a au plus


n valeurs propres distinctes deux à deux ; car sinon, on aurait des familles libres contenant
plus de n vecteurs, ce qui est impossible (cf. chapitre 2).

Proposition 7.1.1 Si λ1 , λ2 ,. . ., λm sont des valeurs propres distinctes deux à deux, le


sous-espace E(λ1 ) + E(λ2 ) + . . . + E(λm ) est somme directe de E(λ1 ), E(λ2 ),. . ., E(λm ).
Algèbre – S2, H. EL BOUZID 51

7.2 Polynôme caractéristique

Les valeurs propres et les vecteurs propres d’une matrice carrée A sont par définition les
valeurs propres et les vecteurs propres de l’endomorphisme f dont la matrice associée est
A.

Si λ est une valeur propre d’un endomorphisme f d’un espace vectoriel E de dimension
n sur R, il existe v 6= 0 de E tel que f (v) = λv.

f (v) = λv ⇔ (f − λidE )(v) = (A − λIn )v = 0,

A étant la matrice associée à f et In la matrice identité d’ordre n. D’où ker(f − λidE ) 6=


{0}, c’est-à-dire f − λidE n’est pas injective. La matrice A − λIn n’est donc pas inversible
et det(A − λIn ) = 0.

Théorème 7.2.1 A étant une matrice carrée d’ordre n à coefficients dans R, pour tout
réel λ les propriétés suivantes sont équivalentes :
1. λ est une valeur propre de A ;
2. A − λIn n’est pas inversible ;
3. det(A − λIn ) = 0.

Définition 7.2.1 f étant un endomorphisme d’un espace vectoriel E de dimension n sur


R, A une matrice associée à f , le polynôme

PA (X) = det(A − XIn )

est appelé polynôme caractéristique de A ou le polynôme caractéristique de f , on le


note aussi Pf (X).

Théorème 7.2.2 f étant un endomorphisme d’un espace vectoriel E de dimension n sur


R, les valeurs propres de f sont les racines de son polynôme caractéristique. Il y en a n
au plus.

Ainsi, pour chercher les valeurs propres de A, il suffit de trouver les racines de l’équation

a11 − λ

a12 ... a1n



a21 a22 − λ ... a2n

det(A − λIn ) =
.. .. .. .. = 0.
. . . .



an1 an2 . . . ann − λ


Algèbre – S2, H. EL BOUZID 52

7.3 Diagonalisation

Définition 7.3.1 On dit qu’un endomorphisme f de l’espace vectoriel E de dimension


n sur R est diagonalisable s’il existe une base de E telle que la matrice associée à f
relativement à cette base soit diagonale.

On dit qu’une matrice carrée A d’ordre n est diagonalisable s’il existe une matrice carrée
inversible P d’ordre n telle que P −1 AP soit diagonale.

Si on pose D = P −1 AP , on dit que la matrice A est semblable à la matrice diagonale


D.

Comme les valeurs propres sont les racines du polynôme caractéristique, on peut écrire

PA (X) = (λ1 − X)k1 (λ2 − X)k2 · · · (λm − X)km

avec k1 + k2 + . . . + km = n, ki étant l’ordre de multiplicité de la racine (valeur propre)


λi , i = 1, . . . , m.

Théorème 7.3.1 Un endomorphisme f de E, espace vectoriel de dimension n sur R est


diagonalisable si et seulement si
1. le polynôme caractéristique Pf a ses n racines (distinctes ou confondues) dans R ;
2. pour chaque racine λi de Pf d’ordre ki , dim E(λi ) = ki .

Ainsi, une matrice carrée A d’ordre n est semblable à une matrice diagonale si et seulement
si
1. le polynôme caractéristique PA a ses n racines (distinctes ou confondues) dans R ;
2. pour chaque racine λi de PA d’ordre ki , dim E(λi ) = ki .

Remarque

Si f , endomorphisme de E, de dimension n sur R, ou A une matrice carrée d’ordre n


possède n valeurs propres toutes distinctes dans R, f et A sont diagonalisables.

En effet, si λ est une valeur propre d’ordre k, on a toujours

1 ≤ dim E(λ) ≤ k.
Algèbre – S2, H. EL BOUZID 53

Donc si A possède n valeurs propres toutes distinctes dans R, ces valeurs propres sont
simples, c’est-à-dire d’ordre ki = 1, pour tout i = 1, . . . , n et on aura dim E(λi ) = 1 = ki .
Par conséquent A est diagonalisable.

Exemples

1. Déterminer les valeurs et les vecteurs propres de la matrice


 
4 1 −1
 
A=
 2 5 −2 .

1 1 2

A est-elle diagonalisable ? Si oui, la réduire.

2. Mêmes questions pour la matrice


 
1 1 0
 
A=
 0 1 0 .

0 0 1

7.4 Trigonalisation

Etant donné une matrice carrée A d’ordre n , on se propose de chercher une matrice
triangulaire T = (tij ) qui lui est semblable.

Le problème consiste alors à prouver l’existence d’une matrice inversible Q telle que

T = Q−1 AQ.

Théorème 7.4.1 Pour tout endomorphisme f de E de dimension n sur R, tel que le


polynôme caractéristique de f ait toutes ses racines dans R, il existe une base de E pour
laquelle la matrice T associée à f dans cette base soit triangulaire, les éléments diagonaux
de T étant les valeurs propres de f .
Pour toute matrice carrée A d’ordre n dont le polynôme caractéristique a toutes ses racines
dans R, il existe une matrice T triangulaire semblable à A.
Algèbre – S2, H. EL BOUZID 54

Exemple

On considère la matrice  
8 −1 −5
 
 −2
A= 3 .
1 
4 −1 −1
Réduire à la forme diagonale ou à défaut triangulaire la matrice A.

Théorème 7.4.2 (Théorème de Cayley-Hamilton) Pour tout endomorphisme f d’un


espace vectoriel de dimension n sur R et toute matrice carrée d’ordre n, tels que leurs po-
lynômes caractéristiques aient toutes leurs racines dans R on a

Pf (f ) = 0, PA (A) = 0.

Vous aimerez peut-être aussi