Vous êtes sur la page 1sur 141

Cours d’Algèbre pour les étudiants de MPCI

Par

Oumar SALL
Maître de conférences au
Département de Mathématiques

U.F.R. des Sciences et Technologies

Université de Ziguinchor - SENEGAL

E-mail: oumarsfr@yahoo.fr

05/10/2007
Contents

Preface ix

1 Notions préliminaires 1
1.1 Ensembles et sous-ensembles . . . . . . . . . . . . . . . . . . 1
1.1.1 Notion d’ensemble - Elément d’un ensemble . . . . . . 1
1.1.2 Inclusion . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Intersection et réunion (ou union) . . . . . . . . . . . 2
1.1.4 Complémentaire d’un ensemble . . . . . . . . . . . . . 4
1.1.5 Di¤érence de deux ensembles . . . . . . . . . . . . . . 5
1.1.6 Di¤érence symétrique de deux ensembles . . . . . . . . 5
1.1.7 Partition . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.8 Produit cartésien . . . . . . . . . . . . . . . . . . . . . 6
1.2 Relation binaire sur un ensemble . . . . . . . . . . . . . . . . 6
1.2.1 Vocabulaire et notations usuelles . . . . . . . . . . . . 6
1.2.2 Relations d’ordre . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Relation d’équivalence . . . . . . . . . . . . . . . . . . 7
1.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Graphe . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Image directe, image réciproque . . . . . . . . . . . . 10
1.4 Fonction caractéristique d’un sous-ensemble . . . . . . . . . . 12
1.4.1 Notions de base . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Exercices d’application . . . . . . . . . . . . . . . . . . 13

2 Eléments de logique 15
2.1 Vocabulaire de la logique . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Langage . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2 Classi…cation des énoncés . . . . . . . . . . . . . . . . 16

v
vi CONTENTS

2.2 Connecteurs - tables de vérité . . . . . . . . . . . . . . . . . . 17


2.2.1 Négation . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2 Conjonction et disjonction . . . . . . . . . . . . . . . . 18
2.2.3 Implication . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.4 Equivalence . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Quanti…cateurs . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Di¤érentes sortes de quanti…cateurs . . . . . . . . . . 21
2.3.2 Quelques remarques . . . . . . . . . . . . . . . . . . . 21
2.4 Négation d’une proposition . . . . . . . . . . . . . . . . . . . 22
2.5 Quelques types classiques de raisonnement . . . . . . . . . . . 24
2.5.1 Règle de l’hypothèse auxiliaire . . . . . . . . . . . . . 24
2.5.2 Règle du quelque soit . . . . . . . . . . . . . . . . . . 25
2.5.3 Règle des cas . . . . . . . . . . . . . . . . . . . . . . . 25
2.5.4 Nommer un objet . . . . . . . . . . . . . . . . . . . . 26
2.5.5 Raisonnement par l’absurde . . . . . . . . . . . . . . . 27
2.5.6 Raisonnement par contraposition . . . . . . . . . . . . 27
2.5.7 Démonstration d’une équivalence . . . . . . . . . . . . 28
2.5.8 Démonstration de (Q _ R) . . . . . . . . . . . . . . . . 28
2.5.9 Raisonnement par récurrence . . . . . . . . . . . . . . 29
2.5.10 D’autres règles . . . . . . . . . . . . . . . . . . . . . . 29

3 Structures algébriques 31
3.1 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1.1 Lois de composition internes . . . . . . . . . . . . . . . 31
3.1.2 Sous-groupe . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.3 Groupes cycliques . . . . . . . . . . . . . . . . . . . . . 37
3.1.4 Sous-groupes distingués, groupes quotients . . . . . . . 38
3.1.5 groupe symétrique . . . . . . . . . . . . . . . . . . . . 40
3.2 Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.1 Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.2 Idéaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.3 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4 Polynômes et fractions rationnelles 49


4.1 Polynômes à coe¢ cients dans K . . . . . . . . . . . . . . . . . 49
4.1.1 Présentation des polynômes . . . . . . . . . . . . . . . 49
4.1.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . 51
4.1.3 Algorithme d’Euclide - Pgcd - Ppcm . . . . . . . . . . 52
CONTENTS vii

4.2 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . 54


4.2.1 Le corps des fractions rationnelles . . . . . . . . . . . . 54
4.2.2 Pôles et parties polaires . . . . . . . . . . . . . . . . . 55
4.2.3 Méthodes pratiques . . . . . . . . . . . . . . . . . . . . 55
4.2.4 Décomposition en éléments simples . . . . . . . . . . . 57

5 Espaces vectoriels 61
5.1 Espaces vectoriels (e.v) . . . . . . . . . . . . . . . . . . . . . . 61
5.2 Sous-espaces vectoriels (s.e.v) . . . . . . . . . . . . . . . . . . 63
5.3 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . 64
5.4 Somme directe; Supplémentaires. . . . . . . . . . . . . . . . . 69
5.5 L’algorithme du pivot . . . . . . . . . . . . . . . . . . . . . . 71

6 Applications linéaires 85
6.1 Le K-espace vectoriel LK (E, F ) . . . . . . . . . . . . . . . . 85
6.2 Image, noyau d’une application linéaire . . . . . . . . . . . . 87

7 Matrices 91
7.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . 93
7.2.1 Addition . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2.2 Multiplication par un scalaire . . . . . . . . . . . . . . 93
7.2.3 Multiplication de deux matrices . . . . . . . . . . . . . 94
7.3 Anneau des matrices carrées . . . . . . . . . . . . . . . . . . 95
7.4 La méthode du pivot . . . . . . . . . . . . . . . . . . . . . . . 96
7.4.1 Matrices échelonnées . . . . . . . . . . . . . . . . . . . 96
7.4.2 Application de la méthode du pivot . . . . . . . . . . . 97
7.5 Matrice d’une application linéaire . . . . . . . . . . . . . . . . 104
7.6 Matrice de changement de base . . . . . . . . . . . . . . . . . 107

8 Déterminants 111
8.1 dé…nition par récurrence . . . . . . . . . . . . . . . . . . . . . 111
8.2 Formes n-linéaires alternées . . . . . . . . . . . . . . . . . . . 115
8.3 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . 116
8.4 Application des déterminants . . . . . . . . . . . . . . . . . . 120
8.4.1 Rang d’une matrice . . . . . . . . . . . . . . . . . . . 120
8.4.2 Caractérisation d’une famille libre . . . . . . . . . . . . 122
8.4.3 Appartenance d’un vecteur à une famille . . . . . . . . 123
viii CONTENTS

8.4.4 Détermination de l’inverse d’une matrice inversible . . 124

9 Systèmes d’équations linéaires 127


9.1 Systèmes de Cramer . . . . . . . . . . . . . . . . . . . . . . . 127
9.1.1 Résolution par une matrice inverse . . . . . . . . . . . 128
9.1.2 Résolution par les formules de Cramer . . . . . . . . . 129
9.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
9.3 Cas des systèmes homogènes . . . . . . . . . . . . . . . . . . . 133
Preface

ix
Chapter 1

Notions préliminaires

1.1 Ensembles et sous-ensembles


George Cantor, le fondateur de la théorie des ensembles dé…nissait un en-
semble comme " un groupement d’objets déterminés et bien distincts, de
notre perception ou de notre entendement, et que l’on appelle les éléments
de l’ensemble". Nous considèrerons la notion d’ensemble comme intuitive en
gardant néanmoins en mémoire le fait qu’on ne peut pas considérer "n’importe
quoi" comme ensemble si l’on veut éviter les contradictions.

1.1.1 Notion d’ensemble - Elément d’un ensemble


Un ensemble est une collection d’objets satisfaisant un certain nombre de
propriétés et chacun de ces objets est appelé élément de cet ensemble.
Dans la pratique il y a deux façons de construire ou d’écrire des ensembles:
- par extension c’est-à-dire en donnant la liste des éléments, par exemple
E := f0; 1; 5; 6; 9g est un ensemble;
- par compréhension c’est-à-dire en décrivant une caractérisation des élé-
ments, par exemple A :={x j x est un jour de la semaine} est un ensemble.
Si x est un élément d’un ensemble E, on dit aussi que x appartient à E
et on note x 2 E. Si x n’appartient pas à E, on note x 2 = E. Parmi les
ensembles les plus importants on peut citer: N, Z, Q, R, et C qui désig-
nent respectivement l’ensemble des entiers naturels, des entiers relatifs, des
nombres rationnels, des nombres réels et des nombres complexes. On admet
l’existence d’un ensemble n’ayant aucun élément; cet ensemble est appelé
ensemble vide et peut être dé…ni par {x j x 6= x} et il est noté ? ou { }.

1
2 CHAPTER 1 NOTIONS PRÉLIMINAIRES

1.1.2 Inclusion
On dit qu’un ensemble A est inclus dans un ensemble B si chaque élément
de A est un élément de B. On dit aussi " A est contenu dans B " ou " A est
un sous-ensemble de B " et on note A B.

Remarques
Soient A, B, C trois ensembles
- La relation d’inclusion est ré‡exive: A A
- La relation d’inclusion est transitive: Si A B et B C, alors A C
- La relation d’inclusion est antisymétrique: (A B et B A) si et seule-
ment si A = B

Exemples
-N Z Q R C
- {x 2 R j0 x 5} R+
- Les sous-ensembles d’un ensemble E forment un ensemble appelé en-
sembles des parties de E et noté P(E).
Si E = f1, 2g alors P(E) = f?, f1g, f2g, E g.
Les trois assertions x 2 E, fxg E et fxg 2 P(E) sont équivalentes.

1.1.3 Intersection et réunion (ou union)


Soient A et B deux sous-ensembles d’un ensemble E, l’ensemble
fx j x 2 A et x 2 B g
est appelé l’intersection des ensembles A et B et est noté A \ B. Si
A \ B = ?, on dit que A et B sont disjoints.
L’ensemble
fx j x 2 A ou x 2 B g
est appelé l’union des ensembles A et B et est noté A [ B. On a:
- A \ ? = et A [ ? = A
- A \ B A et A \ B B
- A A [ B et B A [ B
- A [ B = A si et seulement si B A
- A \ B = A si et seulement si A B
1.1 ENSEMBLES ET SOUS-ENSEMBLES 3

Propriétés de \ et [

Soient A, B, C trois sous-ensembles d’un ensemble E. On a:


- L’union est commutative:

A[B =B[A

- L’intersection est commutative:

A\B =B\A

- L’union est associative:

A [ (B [ C) = (A [ B) [ C

- L’intersection est associative:

A \ (B \ C) = (A \ B) \ C

- L’union est distributive par rapport à l’intersection:

A [ (B \ C) = (A [ B) \ (A [ C)

- L’intersection est distributive par rapport à l’union:

A \ (B [ C) = (A \ B) [ (A \ C)

Remarque

Ne pas oublier les parenthèses. Par exemple, A \ B [ C n’a pas de sens.


Si A = [0, 1], B = [1, 2] et C = [2, + 1[, on a
(A \ B) [ C = f1g [ [2, + 1[, et A \ (B [ C) = f1g.
4 CHAPTER 1 NOTIONS PRÉLIMINAIRES

Généralisation
Si A1 , A2 ,: : :, An sont des sous-ensembles d’un ensemble E, on dé…nit de
même la réunion

A 1 [ A2 [ : : : [ An

comme l’ensemble des x qui appartiennent à au moins l’un des ensembles


A1 , A2 ,: : :ou An ,
et l’intersection

A 1 \ A2 \ : : : \ An

comme l’ensemble des x qui appartiennent à tous les ensembles A1 , A2 ,: : :,


An :

A1 [ A2 [ : : : [ An = fx j 9i 2 f1, 2, : : :, ng, x 2 Ai g
A1 \ A2 \ : : : \ An = fx j 8i 2 f1, 2, : : :, ng, x 2 Ai g

1.1.4 Complémentaire d’un ensemble


Soit A un sous-ensemble d’un ensemble E.
L’ensemble

fx j x 2 E et x 2
=Ag

est appelé le complémentaire de A dans E et est noté CE A ou encore s’il


n’y a pas d’ambiguïté sur E, CA, c A, Ac ou A.

Lois de De Morgan
Soient A et B deux sous-ensembles d’un ensemble E, on démontre facilement
les propriétés suivantes:
- CE (CE A) = A
- A B si et seulement si CE B CE A
- CE (A [ B) = (CE A) \ (CE B)
- CE (A \ B) = (CE A) [ (CE B)
1.1 ENSEMBLES ET SOUS-ENSEMBLES 5

1.1.5 Di¤érence de deux ensembles


Soient A et B deux sous-ensembles d’un ensemble E.
On appelle di¤érence de A et B l’ensemble noté A n B dé…ni par:

A n B =A\B

c’est donc l’ensemble

fx 2 E j x 2 A et x 2
= B g.

1.1.6 Di¤érence symétrique de deux ensembles


Soient A et B deux sous-ensembles d’un ensemble E.
On appelle di¤érence symétrique de A et B l’ensemble noté A 4 B dé…ni
par:

A 4 B = (AnB) [ (BnA)

1.1.7 Partition
Soient A1 , A2 ,: : :, An des sous-ensembles d’un ensemble E.
On dit que ces sous-ensembles forment une partition de E si les trois
conditions suivantes sont véri…ées:
1) La réunion des Ai est égale à E : E = A1 [ A2 [ : : : [ An
2) Les Ai sont deux à deux disjoints : si i, j 2 f1, 2, : : :, ng et i 6= j alors
Ai \ Aj = ?
3) Les Ai sont non vides : pour tout i 2 f1, 2, : : :, ng, Ai 6= ?
Sur le dessin A1 A2 A3 A4 , les ensembles A1 , : : :, A4 forment une
!
E
partition de l’ensemble E.

Exemples
- Soient E = N, A1 le sous- ensemble formé des entiers pairs, A2 le sous-
ensemble formé des entiers impairs.
Alors A1 et A2 forment une partition de E.
- Soient E = R, A1 = R+ , A2 = R , A3 = f0g. Alors A1 , A2 et A3
forment une partition de E.
6 CHAPTER 1 NOTIONS PRÉLIMINAIRES

1.1.8 Produit cartésien


Le produit cartésien de deux ensembles E et F , est l’ensemble noté E F
dé…nit par
E F = f(x, y) j x 2 E et y 2 F g

Formulaire

Soient A, B, C et D des ensembles, on a les formules suivantes dont les


démonstrations sont laissées aux lecteurs:
- A (B \ C) = (A B) \ (A C)
- A (B [ C) = (A B) [ (A C)
- Si (A B) et (C D) alors A C B D

1.2 Relation binaire sur un ensemble


1.2.1 Vocabulaire et notations usuelles
Dé…nitions: Soient E et F deux ensembles.
On appelle relation binaire de E vers F un sous-ensemble de E F .
Soit R une relation binaire de E vers F , on dit qu’un couple (x, y) 2 E F
véri…e la relation R si (x, y) 2 R et on note alors xRy.
On appelle relation binaire sur E une relation binaire de E vers E.
Dé…nitions: Soit R une relation binaire sur un ensemble E. On dit
que R est
ré‡exive lorsque pour tout x 2 E, on a xRx
symétrique lorsque pour tout couple (x, y) 2 E E, xRy ) yRx
antisymétrique lorsque pour tout couple (x, y) 2 E E,

(xRy et yRx) ) x = y

transitive lorsque pour tout triplet (x, y, z) 2 E 3 ,

(xRy et yRz) ) xRz


1.2 RELATION BINAIRE SUR UN ENSEMBLE 7

1.2.2 Relations d’ordre


Dé…nitions: Soit R une relation binaire sur un ensemble E. On dit que R
est une relation d’ordre sur E lorsqu’elle est à la fois ré‡exive, antisymétrique
et transitive. Une relation d’ordre R sur E est dite relation d’ordre total
lorsque pour tout couple (x, y) 2 E 2 on a xRy ou yRz. Une relation d’ordre
qui n’est pas d’ordre total est appelée relation d’ordre partiel.
Exemples:
La relation d’inclusion " " est une relation d’ordre partiel sur P (E).
La relation " divise " est une relation d’ordre partiel sur N.
La relation " " est une relation d’ordre total sur R.

1.2.3 Relation d’équivalence


Dé…nitions: Soit R une relation binaire sur un ensemble E. On dit que
R est une relation d’équivalence sur E lorsqu’elle est à la fois ré‡exive,
symétrique et transitive.
Si R est une relation d’équivalence sur E, on dit que les éléments x et y
de E sont équivalents losque xRy.
On appelle classe d’équivalence ( modulo R ) d’un élément x de E, le
sous-ensemble noté R (x) ou x, des éléments de E qui sont équivalents à x:

R (x) = x = fy 2 E j yRxg.

Avec les notations ci-dessus, on appelle En e¤et, de x 2 R (x), on déduit


queensemble-quotient de E par R, le sous-ensemble de P (E) noté E=R formé
des classes d’équivalence des éléments de E.
Propriétés: Soit R une relation d’équivalence sur un ensemble E.
Pour tout x de E, R (x) est non vide.
En e¤et, R étant ré‡exive, x 2 R (x).
E = [ R (x).
x2E
En e¤et,
x 2 R (x) ) fxg R (x)
) [ fxg [ R (x)
x2E x2E
)E [ R (x)
x2E
R (x) E ) [ R (x) E
x2E
On déduit que E = [ R (x).
x2E
8 CHAPTER 1 NOTIONS PRÉLIMINAIRES

R (x) = R (y) si et seulement si xRy.


En e¤et,

Supposons R (x) = R (y); on a alors


x 2 R (x) ) x 2 R (y) ) xRy.
Réciproquement, supposons xRy et montrons que R (x) = R (y). Faisons
la démonstration par l’absurde.
Supposons R (x) 6= R (y), il existe alors z 2 R (x) et z 2
= R (y). Ainsi,
on a 8
< zRx
(z 2 R (x) et xRy) )
: xRy
) zRy
) z 2 R (y)
ce qui contredit l’hypothèse z 2= R (y).
Il résulte de cette propriété que les classes d’équivalence modulo R sont
disjointes deux-à-deux. En e¤et, lorsque R (x) \ R (y) 6= ?, il existe z 2
R (x) \ R (y). On a alors z 2 R (x) et z 2 R (y); donc zRx et zRy. La
symétrie et la transitivité de R assurent que xRy et en …n R (x) = R (y).
Les propriétés précédentes se résument donc en disant que l’ensemble des
classes d’équivalence modulo R constitue une partition de E.

1.3 Applications
Une application ( ou fonction ) dé…nie sur un ensemble X et à valeurs dans
un ensemble Y est une loi qui, à tout élément de X fait correspondre un
unique élément de Y . Si on note f cette application, l’élément associé à x
par f est noté f (x). On donne la notation suivante:

f : X ! Y , x 7 ! f (x)

X est l’ensemble de départ ou source, Y est l’ensemble d’arrivée ou but,


f (x) est l’image de x par f , x est l’antécédent de f (x) par f .

1.3.1 Graphe
Une fonction f : X ! Y peut être dé…nie par son graphe, un sous-ensemble
de X Y qui possède la propriété suivante:
1.3 APPLICATIONS 9

8x 2 X, 9y 2 Y , (x, y) 2 et de plus si (x, y) 2 et (x, y 0 ) 2 alors


y = y 0 . On a

= f(x, y) 2 X Y j y = f (x)g = f(x, f (x)) j x 2 Xg.

1.3.2 Exemples
Soient X et Y deux ensembles.
1) L’application qui à tout x 2 X associe x s’appelle application identique
et se note idX .
2) Si f : X ! Y est une application et si X 0 X, on peut dé…nir f 0 la
restrictionde f à X 0 par 8x 2 X 0 , f 0 (x) = f (x).
3) Si f : X ! Y et g: Y ! Z sont deux applications, on peut dé…nir
la composée de f et g par (g f ) (x) = g (f (x)).
Une propriété importante de la composition des applications est l’associativité.

Injection
On dit qu’une application f : X ! Y est injective ( ou que f est une
injection ) si tout élément de Y est l’image d’au plus un élément de X. En
d’autres termes tout élément de Y a au plus un antécédent.

Caractérisation: Une application f : X ! Y est injective si et seule-


ment si pour tout (x, y) 2 X 2 l’égalité f (x) = f (y) entraîne x = y.

Surjection
On dit qu’une application f : X ! Y est surjective ( ou que f est une
surjection ) si tout élément de Y est l’image d’au moins un élément de X.
En d’autres termes tout élément de Y a au moins un antécédent.

Caractérisation: Une application f : X ! Y est surjective si et seule-


ment si pour tout y 2 Y il existe x 2 X tel que y = f (x).

Bijection
On dit qu’une application f : X ! Y est bijective ( ou que f est une
bijection ) si elle est à la fois injective et surjective. En d’autres termes tout
élément de Y a exactement un antécédent.
10 CHAPTER 1 NOTIONS PRÉLIMINAIRES

1
On appelle bijection réciproque d’une bijection f et on note f l’application
caractérisée par x = f 1 (y) si et seulement si y = f (x).

1.3.3 Image directe, image réciproque


Soit f : X ! Y une application.
Dé…nition. Si A est une partie de X, on appelle image directe de A par
f et on note f (A), l’ensemble

f (A) = fy 2 Y j 9x 2 A, f (x) = yg

Dé…nition. Si B est une partie de Y , on appelle image réciproque de B


par f et on note f 1 (B), l’ensemble
1
f (B) = fx 2 X j f (x) 2 Bg

Remarques
1) On prendra bien garde à ne pas confondre l’application
f 1 : P(Y ) ! P(X) ainsi dé…nie (qui existe pour toute fonction f ) avec
la bijection réciproque
f 1 : Y ! X ( qui n’existe que si f est bijective ).
2) On pourra véri…er en exercice que:
(i) f est surjective si et seulement si Y = f (X).
(ii) f est injective si et seulement si f : X ! f (X) est une injection.

Formulaire
Soit f : X ! Y une application, on a les formules suivantes:
1) Pour toutes parties A, B de X on a
a) f (A [ B) = f (A) [ f (B)
b) f (A \ B) f (A) \ f (B)
c) Si A B alors f (A) f (B)
2) Pour toutes parties A, B de Y on a
a) f 1 (A [ B) = f 1 (A) [ f 1 (B)
b) f 1 (A \ B) = f 1 (A) \ f 1 (B)
c) Si A B alors f 1 (A) f 1 (B)
d) f 1 (CY A) = CX (f 1 (A))
Démonstration:
1.3 APPLICATIONS 11

1) a) y 2 f (A [ B) () y = f (x) avec x 2 A [ B
() y = f (x) avec x 2 A ou x 2 B
() y 2 f (A) ou y 2 f (B)
() y 2 f (A) [ f (B)
Ainsi on a bien f (A [ B) = f (A) [ f (B).
b) y 2 f (A \ B) () y = f (x) avec x 2 A \ B
() y = f (x) avec x 2 A et x 2 B
=) y 2 f (A) et y 2 f (B) ( la réciproque de cette
implication n’est vraie que si f est injective )
() y 2 f (A) \ f (B)
Ainsi on a bien f (A \ B) f (A) \ f (B), il y a égalité si f est injective.
L’exemple suivant montre qu’on a pas en général égalité:
Prenons E= fa, bg, F= fcg, f (a) = f (b) = c, A = fag et B = fbg. Alors
? = f (A \ B) 6= f (A) \ f (B) = fcg.
c) y 2 f (A) =) y = f (x) avec x 2 A
=) y = f (x) avec x 2 B
=) y 2 f (B).
Ainsi on a bien si A B alors f (A) f (B)
2) a) x 2 f 1 (A [ B) () f (x) 2 A [ B
() f (x) 2 A ou f (x) 2 B
() x 2 f 1 (A) ou x 2 f 1 (B)
() x 2 f 1 (A) [ f 1 (B).
Ainsi on a bien f 1 (A [ B) = f 1 (A) [ f 1 (B).
b) x 2 f 1 (A \ B) () f (x) 2 A \ B
() f (x) 2 A et f (x) 2 B
() x 2 f 1 (A) et x 2 f 1 (B)
() x 2 f 1 (A) \ f 1 (B).
Ainsi on a bien f 1 (A \ B) = f 1 (A) \ f 1 (B).
c) x 2 f 1 (A) =) f (x) 2 A
=) f (x) 2 B
=) x 2 f 1 (B).
Ainsi on a bien si A B alors f 1 (A) f 1 (B).
d) x 2 f 1 (CY A) () f (x) 2 CY A
() f (x) 2 =A
()e (f (x) 2 A)
()e (x 2 f 1 (A))
() x 2 = f 1 (A)
() x 2 CX (f 1 (A)).
12 CHAPTER 1 NOTIONS PRÉLIMINAIRES

1 1
Ainsi on a bien f (CY A) = CX (f (A)).
CQFD

1.4 Fonction caractéristique d’un sous-ensemble


1.4.1 Notions de base
Dé…nition: Soit A un sous-ensemble d’un ensemble E. On appelle fonction
caractéristique de A l’application notée 'A dé…nie par
8
< 1 quand x 2 A
'A : E ! R, 'A (x) =
: 0 quand x 2
=A

Remarques:
'A appartient au sous-ensemble f0, 1gE des applications de E dans
f0, 1g.
'A = 'B () A = B, ce qui justi…e l’expression " fonction caractéris-
tique " d’un sous-ensemble.
Propriétés:
L’application A 7! 'A de P(E) dans f0, 1gE est une bijection.
Quels que soient les sous-ensembles A et B de E, on a:
(i) 'A 'A = 'A
(ii) 'A\B = 'A 'B
(iii) 'A[B = 'A + 'B 'A 'B ; si A \ B = ? alors 'A[B = 'A + 'B .
(iv) 'A = 1 'A
(v) 'AnB = 'A 'A 'B = sup(0; 'A 'B )
(vi) 'A4B = 'A + 'B 2'A 'B
(vii) A B () 'A (x) 'B (x), 8x 2 E.
Démonstration:
Par exemple:
'AnB = 'A\B
= 'A 'B (d’après (ii))
= 'A (1 'B ) (d’après (iv))
= 'A 'A 'B :
La démonstration des autres propriétés est laissée en exercices.
1.4 FONCTION CARACTÉRISTIQUE D’UN SOUS-ENSEMBLE13

1.4.2 Exercices d’application


Exercice 1: Trouver une condition nécessaire et su¢ sante pour que les sous-
ensembles
8 A, B, C de E véri…ent:
< A\B =A\C
: A[B =A[C
Solution:
8 8
< A\B =A\C < ' ' =' '
A B A C
()
: A[B =A[C : ' +' 'A 'B = 'A + 'C 'A 'C
A B
() 'B = 'C
() B = C
Exercice 2: Soient A, B, C trois sous-ensembles d’un ensemble E.
Montrer que

A \ (B n C) = (A \ B) n (A \ C)

Solution:
'(A\B)n(A\C) = 'A\B 'A\B 'A\C
= 'A 'B 'A 'B 'A 'C
= 'A 'B 'A 'B 'C
= 'A ['B (1 'C )]
= 'A 'B n C
= 'A\(B n C)
Ce qui montre que A \ (B n C) = (A \ B) n (A \ C).
Exercices d’application. Démontrer, en utilisant les fonctions caractéris-
tiques, les propriétés suivantes:
La fonction caractéristique de A4B est:

'A4B = 'A + 'B 2'A 'B


= ('A 'B )2
= j'A 'B j

La di¤érence symétrique est commutative, associative, admet ? pour


élément neutre et A4A = ? pour tout A 2 P(E).
A4B = (A [ B) n (A \ B) pour tout couple (A, B).
A \ (B4C) = (A \ B) 4 (A \ C) pour tout triplet (A, B, C).
Chapter 2

Eléments de logique

Ce chapitre est consacré essentiellement à la compréhension d’un énoncé, car


un énoncé est parfois di¢ cile à comprendre. Il peut contenir des mots utilisés
dans un sens di¤érent du sens courant, ou des mots spéci…ques au langage
mathématique. S’il n’est pas écrit avec assez de soin il peut devenir ambigu.

2.1 Vocabulaire de la logique


2.1.1 Langage
Le langage mathématique utilise à la fois le langage courant convenablement
précisé et des signes mathématiques quelques fois tirés de l’usage courant (
lettres, parenthèses, crochets, accolades, etc ) ou spéci…quement mathéma-
tiques ( =, , \, , etc ).
Le langage mathématique est essentiellement un langage symbolique. Un
assemblage formé avec des mots du langage courant et des signes mathéma-
tiques n’a pas forcément un sens. Nous dirons que dans un contexte donné un
assemblage est cohérent si dans ce contexte on peut lui donner une signi…ca-
tion mathématique. Dans la suite nous ne considèrerons que des assemblages
cohérents. On peut distinguer:
- les termes qui sont les mots du langage courant,
- les énoncés qui sont en quelque sorte les phrases du langage courant.
Exemples:
2,p , 6x sont des termes.
3 n’est pas un nombre rationnel, 3 9 sont des énoncés.

15
16 CHAPTER 2 ELÉMENTS DE LOGIQUE

2.1.2 Classi…cation des énoncés


Il n’est pas immédiat qu’un énoncé donné coïncide avec l’idée intuitive de cet
énoncé. Une des tâches essentielles en mathématique est donc de chercher à
s’assurer que tel ou tel énoncé est vrai ou faux.
Un énoncé mathématique ( nous dirons simplement énoncé ) est une
phrase ayant un sens mathématique précis; par exemple
(A): 2 = 0
(B): Pour tout nombre réel x on a x2 0
(C): n est un entier et n < 4
sont des énoncés; (A) est faux, (B) est vrai, la véracité de (C) dépend de
la valeur de la variable n. Par contre, " les fraises sont des fruits délicieux "
n’est pas un énoncé mathématique, car la réponse est un jugement subjectif
(certains trouvent les fraises délicieuses, d’autres pas). Nous ne chercherons
pas à dé…nir précisément la di¤érence entre énoncé mathématique et énoncé
non mathématique. Confronté à un énoncé, un mathématicien souhaite pou-
voir décider dans quelles conditions il est vrai ou faux. Cet énoncé peut
contenir une ou plusieurs variables.
Une proposition est un énoncé dont on peut décider s’il est vrai ou faux
lorsque toutes les variables ont été remplacées (si nécessaire) par des valeurs
connues; par exemple (A), (B) et (C) sont des propositions:
(A) est une proposition fausse, (B) une proposition vraie, (C) est une
proposition vraie lorsque n = 1 et fausse lorsque n = 8.
Une conjecture est un énoncé dont la véracité n’est pas démontrée; par
exemple, Pierre de Fermat a énoncé vers 1640 que:
" si n est un entier strictement supérieur à 2, il n’existe pas d’entiers non
nuls a, b, c tels que an + bn = cn ". Le sens de cet énoncé qui porte le nom de
théorème de Fermat, est parfaitement clair, mais il a cependant fallu attendre
plus de 3 siècles pour être sûr qu’il était vrai, grâce à la démonstration d’
Andrew Wiles (1994 ).
Une assertion est un énoncé pour lequel on peut répondre sans am-
biguïté et sans renseignement complémentaire à la question est-il vrai ou
est-il faux? Par exemple (A) et (B) sont des assertions, par contre (C) n’est
pas une assertion: pour répondre il faut préciser la valeur de n. L’énoncé
(C) e¤ectue une classi…cation dans N: les éléments pour lesquels n < 2 est
un énoncé vrai, et tous les autres pour lesquels il est faux. Un tel énoncé est
parfois appelé prédicat.
N.B: certains emploient proposition avec le sens du mot assertion.
2.2 CONNECTEURS - TABLES DE VÉRITÉ 17

Une hypothèse est un énoncé sur lequel on construit le point de départ


de la démonstration.
Un axiome est une hypothèse considérée vraie à priori ( i.e par conven-
tion ).
Un théorème est un énoncé vrai en mathématique qui peut être para-
phrasé de la manière suivante: " sous les hypothèses suivantes:. . . , la chose
suivante:. . . est toujours vraie".
Un lemme est un théorème dont la démonstration précède et rend pos-
sible celle d’un théorème plus général.
Un corollaire est un théorème immédiatement déduit d’un autre théorème
plus général.

2.2 Connecteurs - tables de vérité


Si une proposition P est vraie on dit que sa valeur de vérité est V ( ou 1 )
et l’on note val(P)=V ( ou val(P)=1 ); dans le cas contraire on dit que la
valeur de vérité de P est F ( ou 0 ) et l’on note val(P)=F ( ou val(P)=0 ).
A partir de certaines propositions, on peut à l’aide des connecteurs logiques
en fabriquer d’autres dé…nies par leurs valeurs de vérité. Les démonstrations
"intéressantes" en mathématiques sont souvent longues. Une manière simple
( mais fastidieuse ) de montrer qu’une proposition est vraie ou fausse, est
de faire une table dite table de vérité avec les diverses possibilités: chaque
proposition est vraie ou fausse. Par exemple, pour une proposition constru-
ite à partir de 2 autres propositions di¤érentes, il y a 4 possibilités. Plus
généralement, pour une proposition construite à partir de n autres proposi-
tions di¤érentes, il y a 2n possibilités. En d’autres termes, une table de vérité
construite à partir de n propositions di¤érentes, comporte 2n lignes réservées
aux valeurs V et F. Ces valeurs de vérité sont consignées dans la table de
2n
manière alternée avec la période r où r désigne le rang de la colonne.
2
les connecteurs logiques les plus fréquemment utilisés sont: la négation,
la conjonction, la disjonction, l’implication, l’équivalence.

2.2.1 Négation
Soit P une proposition. La négation de P est une proposition notée eP ou
P et on lit " non P ". Elle est vraie lorsque P est fausse et fausse lorsque
18 CHAPTER 2 ELÉMENTS DE LOGIQUE

P est vraie. Ainsi on a val(eP)=V lorsque val(P)=F, et val(eP)=F lorsque


val(P)=V. La négation est dé…nie par la table de vérité suivante:

P eP
V F
F V

La négation est un connecteur unaire: portant sur une proposition.


Exemples: 1) Soit x un réel. La proposition (e (x = 1)) prend les mêmes
valeurs de vérité que la proposition (x 6= 1).
2) Soit n un entier naturel. La proposition (e (n 3)) prend
les mêmes valeurs de vérité que la proposition (n > 3)

2.2.2 Conjonction et disjonction


Soient P et Q deux propositions. La conjonction de P et Q est une proposition
notée P^Q et on lit " P et Q ". Elle est vraie lorsque P et Q sont vraies,
et fausse lorsque l’une au moins des propositions P et Q est fausse. Ainsi
val(P^Q)=V dans le seul cas où on a val(P)=V et val(Q)=V.
La disjonction de P et Q est une proposition notée P_Q et on lit " P ou
Q " . Elle est vraie lorsque l’une au moins des propositions P ou Q est vraie,
et elle est fausse sinon. Ainsi val(P_Q)=F dans le seul cas ou on a val(P)=F
et val(Q)=F. La conjonction et la disjonction sont des connecteurs binaires;
leur table de vérité est:

P Q P^Q P_Q
V V V V
V F F V
F V F V
F F F F

N.B: Dans le langage courant, le mot " ou " peut prendre deux sens
di¤érents: le sens inclusif qui est celui donné plus haut et le sens exclusif,
qu’on précise parfois par " ou bien ": (P ou bien Q) est vraie si l’une des
2.2 CONNECTEURS - TABLES DE VÉRITÉ 19

deux propositions est vraie et l’autre est fausse. Lorsque P et Q sont si-
multanément vraies, la proposition (P_Q) est vraie, mais (P ou bien Q) est
fausse. Nous n’utiliserons que le " ou " inclusif.

2.2.3 Implication
Soient P et Q deux propositions. Alors P=)Q est une proposition; elle est
fausse lorsque P est vraie et Q est fausse, elle est vraie dans tous les autres
cas. Ainsi val(P=)Q)=F dans le seul cas où on a val(P)=V et val(Q)=F.
On lit:
" P implique Q "
" si P, alors Q "
" P entraîne Q "
" pour que P, il faut que Q "
" pour que Q, il su¢ t que P "
" une condition nécessaire pour que P est que Q "
" une condition su¢ sante pour que Q est que P ".
L’implication est dé…nie par la table de vérité suivante:

P Q P=)Q
V V V
V F F
F V V
F F V

Dans P=)Q, P est l’antécédent et Q le conséquent. La proposition


Q=)P est la réciproque ( ou converse ) de P=)Q. La proposition eQ=)eP
est la contraposée de P=)Q.
N.B: Dans le langage courant, on emploie souvent " il faut " à la place
de " il su¢ t ". Par exemple, on dit " pour traverser la rivière, il faut prendre
le bateau ", alors que c’est en fait su¢ sant, mais pas nécessaire. On peut le
faire à la nage.
20 CHAPTER 2 ELÉMENTS DE LOGIQUE

2.2.4 Equivalence
Soient P et Q deux propositions. Alors P()Q est une proposition. Elle est
vraie lorsque Pet Q sont toutes les deux vraies ou toutes les deux fausses. Elle
est fausse dans les autres cas. Ainsi val(P()Q)=V lorsque val(P)=val(Q).
La proposition P()Q s’énonce:
" P et Q sont équivalentes "
" P si et seulement si Q "
" pour que P, il faut et il su¢ t que Q "
" une condition nécessaire et su¢ sante pour que Q est que P ".
L’équivalence est dé…nie par la table de vérité suivante:

P Q P()Q
V V V
V F F
F V F
F F V

N.B: Dans P()Q, les deux propositions sont interchangeables; " P()Q
" signi…e que " P=)Q " et " Q=)P " sont vraies. Aussi a¢ rmer " P()Q"
demande deux justi…cations, une pour chaque sens: la condition nécessaire
qui correspond à l’implication directe P=)Q, et la condition su¢ sante qui
correspond à l’implication indirecte P(=Q. Ainsi le connecteur " () " est
appelé équivalence logique ou double implication ou condition nécessaire et
su¢ sante.
la proposition P()P est toujours vraie: on dit que c’est une tautolo-
gie. Une proposition toujours fausse est appelée une contradiction ou une
antilogie.
Dire que deux propositions sont équivalentes, c’est dire que ces proposi-
tions ont mêmes valeurs de vérité i.e qu’elles signi…ent la même chose.

2.3 Quanti…cateurs
Pour désigner une proposition qui contient une variable x, on adopte souvent
une notation de la forme P(x) pour en faciliter la lecture et la compréhension.
2.3 QUANTIFICATEURS 21

Par exemple pour n un entier naturel, la proposition " n est pair " pourra
être notée P(n).
Soit P(x) une proposition qui contient une variable x, où x désigne un
élément d’un ensemble E. La valeur de vérité de P(x) peut dépendre de x et il
est souvent important de savoir si elle est vraie pour tous les éléments x de E,
pour au moins un, pour un et un seul etc. Les mathématiciens ont introduit
des symboles pour exprimer ces idées; on les appelle des quanti…cateurs.

2.3.1 Di¤érentes sortes de quanti…cateurs


Soit P(x) une proposition qui contient une variable x, où x désigne un élément
d’un ensemble E.
La proposition " quelque soit x de E, on a P(x) " notée (8x 2 E, P(x))
est vraie si P(x) est vraie pour tous les éléments x de E; elle est fausse sinon.
On lit aussi " pour tout x de E, on a P(x) ".
La proposisition " il existe au moins un x de E tel que P(x) " notée
(9x 2 E, P(x)) est vraie s’il existe au moins un élément x de E tel que P(x)
soit vraie; elle est fausse sinon.
La proposition " il existe un et un seul x de E tel que P(x) " notée
(9!x 2 E, P(x)) est vraie s’il existe un élément x de E et un seul tel que P(x)
soit vraie; elle est fausse sinon.
Les quanti…cateurs permettent donc de transformer un énoncé contenant
une variable en un énoncé "absolu ". Nous utiliserons exclusivement:
- le quanti…cateur universel ( en symbole 8 )
- le quanti…cateur existentiel ( en symbole 9 ).

2.3.2 Quelques remarques


Dans le langage courant l’expression " il existe un x tel que. . . " est ambiguë,
car elle signi…e parfois " il existe exactement un x tel que. . . ", ( ce qui
correspond au symbole 9! ). C’est pourquoi, on préfère préciser " il existe
au moins un x tel que. . . " ou " il existe un et un seul x tel que. . . ". On
rencontre aussi l’expression " il existe au plus un x tel que. . . ".
Lorsqu’une proprosition contient des quanti…cateurs 8 et 9, leur ordre est
essentiel. Par exemple, la proposition
(8x 2 R, (9y 2 R, y = x2 ))
est vraie, mais la proposition
22 CHAPTER 2 ELÉMENTS DE LOGIQUE

(9x 2 R, (8y 2 R, y = x2 ))

est fausse.
Les propositions (8x 2 E, P(x)) et (9x 2 E, P(x)) ne traduisent pas des
propriétés de x, mais de l’ensemble E; on dit que x est une variable muette.
On obtient une proposition équivalente en remplaçant partout x par une
autre lettre. Mais il est plus prudent de choisir une lettre qui n’a pas déjà
été utilisée.

2.4 Négation d’une proposition


1) Soient P et Q des propositions. On peut montrer, à l’aide des tables de
vérité par exemple, que les équivalences suivantes sont toujours vraies:
e (eP) ()P
e (P ^ Q) ()e (P) _e (Q)
e (P _ Q) ()e (P) ^e (Q)
e (P =) Q) ()P^eQ
Preuve: Montrons par exemple que l’équivalence

e (P =) Q) ()P^eQ

est toujours vraie.


Pour faciliter l’écriture dans la table de vérité, on pose

A=e (P =) Q) ()P^eQ

P Q eQ P^eQ P =) Q e (P =) Q) A
V V F F V F V
V F V V F V V
F V F F V F V
F F V F V F V
La table de vérité nous montre que e (P =) Q) ()P^eQ est toujours
vraie ( cf colonne A). On peut aussi se limiter à la table de vérité sans la
colonne A, et remarquer que les propositions e (P =) Q) et P^eQ ont mêmes
valeurs de vérité ( données dans le même ordre ) i.e qu’elles sont équivalentes.
2.4 NÉGATION D’UNE PROPOSITION 23

CQFD
Exercice d’application:
Soient P et Q des propositions.
a) Montrer que les équivalences suivantes sont toujours vraies:
(P =) Q) () (eP _ Q) () (eQ =)eP).
b) Utiliser a) pour construire deux phrases synonymes à la phrase " s’il
est français alors il porte un béret ".
Contruire la négation de la phrase " s’il est français alors il porte un béret
".
Solution:
P Q eP eQ P =) Q (eP _ Q) eQ =)eP
V V F F V V V
a) V F F V F F F
F V V F V V V
F F V V V V V
La table de vérité montre que les propositions (P =) Q), (eP _ Q) et
(eQ =)eP) ont mêmes valeurs de vérité ( données dans le même ordre ) i.e
qu’elles sont équivalentes.
b) Posons P: " il est français " et Q: " il porte un béret ". Ainsi, la
phrase " s’il est français alors il porte un béret " se symbolise par (P =) Q),
et d’après a) cette phrase doit être synonyme aux phrases symbolisées par
(eP _ Q) et (eQ =)eP). On a alors les phrases suivantes qui sont synonymes:
(P =) Q): " s’il est français alors il porte un béret "
(eP _ Q): " il n’est pas français ou il porte un béret "
(eQ =)eP): "s’il ne porte pas de béret alors il n’est pas français "
On sait que e (P =) Q) ()P^eQ, donc la négation de la phrase " s’il
est français alors il porte un béret " est:
P^eQ: " il est français et il ne porte pas de béret ".
2) Soit P(x) une proposition qui contient une variable x, où x désigne
un élément d’un ensemble E. On a les équivalences suivantes:
e (8x 2 E, P(x)) () (9x 2 E, eP(x))
e (9x 2 E, P(x)) () (8x 2 E, eP(x))
N.B: Les règles précédentes peuvent se combiner. Soit par exemple la
proposition
P(n): 9l 2 R, 8" 2 R+ , 9N 2 N, 8n 2 N, (n N =) jun lj < ").
24 CHAPTER 2 ELÉMENTS DE LOGIQUE

Alors
eP(n): 8l 2 R, 9" 2 R+ , 8N 2 N, 9n 2 N, (n N et jun lj ").

2.5 Quelques types classiques de raisonnement


Quand on rédige une démonstration, la proposition que l’on cherche à dé-
montrer s’appelle la conclusion. Au cours de la démonstration, on utilise
des résultats déjà connus, par exemple, des dé…nitions, des théorèmes ou des
propositions déjà démontrés dans le cours; mais aussi les prémices o¤erts
par l’énoncé ou des résultats intermédiaires que l’on a obtenus préalable-
ment. Toutes ces propositions s’appellent des données. Une des raisons de
la compexité des démonstrations est que l’on peut être amené pendant la
démonstration à ajouter provisoirement de nouvelles données qui ne font pas
partie de celles dont nous venons de parler et aussi de nouveaux objets qui
ne sont pas décrits dans l’énoncé. Leur introduction est signalée par des
expressions comme " Supposons que. . . ", " Soit. . . ". Il faut noter qu’une
démonstration ne contient pas que des propositions vraies. L’exemple le plus
évident en est celui des raisonnements par l’absurde où l’on ajoute aux don-
nées une proposition (eP) a…n de montrer que c’est P qui est vraie. Dans ce
paragraphe, on essaiera d’expliquer tout ceci, en explicitant les principales
règles d’écriture sous-jacentes.

2.5.1 Règle de l’hypothèse auxiliaire


Cette règle s’applique aux énoncés du type " montrer que si l’on a P, alors
on a Q ", c’est-à-dire " démontrer (P =) Q) ". Dans la pratique, on com-
mence souvent en écrivant " on suppose P ", c’est-à-dire qu’on considère P
comme une nouvelle donnée, puis on cherche à démontrer Q. La démonstra-
tion s’achève par une phrase du genre " on a montré Q " et il peut être
bon de rappeler la conclusion globale " on a montré (P =) Q) ". On peut
expliciter cette démarche par la règle suivante:
Pour démontrer (P =) Q):
1) on ajoute P aux données,
2) on démontre que Q est vraie.
Exemple: Soit n un entier. Montrer que si n est pair, alors n2 est pair.
Commentaire: Soit P la proposition " n est pair " et Q la proposition "
2
n est pair ". La proposition à démontrer est (P =) Q).
2.5 QUELQUES TYPES CLASSIQUES DE RAISONNEMENT25

Démonstration:
On suppose que n est pair. Ainsi on a
n est pair=) n = 2k avec k 2 Z
=) n2 = 2t avec t = 2k 2
donc n2 est pair. On a montré que " si n est pair, alors n2 est pair ".
CQFD

2.5.2 Règle du quelque soit


Cette règle s’applique aux énoncés du type (8x 2 E, P(x)). Dans la pratique,
on commence souvent en écrivant une expression du style " Soit x un élément
de E ", ou " Considérons un élément x de E ", puis on écrit une démonstration
de P(x). On peut expliciter cette démarche par la règle suivante:
Pour démontrer (8x 2 E, P(x)):
1) on ajoute la donnée x 2E.
2) on démontre que P(x) est vraie.
Exemple: Montrer que pour tout x de R, on a (x 2 =) 3x + 1 7).
Commentaire: Ici P(x) est la proposition (x 2 =) 3x + 1 7) qui est
une implication de la forme (P1 =) Q1 ). Pour la démontrer on utilise la
règle de l’hypothèse auxiliaire, en ajoutant P1 aux données et on démontre
Q1 . Ainsi " x réel " et " x 2 " sont ajoutées aux données, on peut les
condenser en écrivant " Soit x un réel tel que x 2 ".
Démonstration: Soit x un réel tel que x 2. Alors on a:
x 2 =) 3x 6
=) 3x + 1 7
donc 3x + 1 7.
On a montré que pour tout x de R, on a (x 2 =) 3x + 1 7).
CQFD

2.5.3 Règle des cas


Pour démontrer une proposition P, on peut vouloir se servir d’une proposition
déjà démontrée de la forme (A ou B). Pour cela:
1) on suppose A vraie et on démontre P;
2) on suppose B vraie ( sans hypothèse sur A ) et on démontre P.
La règle peut être annoncée au début par une phrase du genre " deux cas
se présentent ", ou mise en évidence par deux paragraphes, un pour chaque
cas; le point 1) se traduit par une expression du genre " Supposons d’abord
26 CHAPTER 2 ELÉMENTS DE LOGIQUE

A ", le point 2) par " supposons maintenant B " ou " dans le cas où B ".
Souvent B n’est autre que la proposition eA.
Exemple: Soient x, y, des nombres réels, avec < 0. Montrer que l’on
a max( x, y) = min(x, y).
Commentaire: On peut considérer deux cas où la proposition A est "
x y " et la proposition B est " x > y " qui est équivalentes à eA.
Démonstration: Deux cas se présentent: le cas x y et le cas x > y;
Supposons d’abord x y. Alors comme < 0, on a:
x y =) x y
=) max( x, y) = x
=) max( x, y) = min(x, y)
Supposons maintenant x > y. Alors comme < 0, on a:
x > y =) x < y
=) max( x, y) = y
=) max( x, y) = min(x, y).
Dans les deux cas, on a l’égalité demandée.
CFDQ

2.5.4 Nommer un objet


Pour démontrer une proposition Q en utilisant une donnée de la forme
(9x 2 E, P(x)):
1) on choisit une lettre x0 par exemple, qui n’a pas déjà été utilisée et
surtout qui n’apparait pas dans la proposition Q;
2) on ajoute aux hypothèses la proposition (x0 2 E et P(x0 ));
3) on démontre Q.
En pratique, les points 1) et 2) sont traduits par une expression de la forme
" Soit x0 un élément de E tel que P(x0 ) " ou " On sait que (9x 2 E, P(x));
soit x0 un tel élément ". Il est souvent bon de justi…er le " on sait que " par
la référence à une dé…nition ou à un théorème.
Exemple: Soit a un réel. Montrer que si [0, 1] \ a 21 , a + 21 6= Ø ,
alors 21 a 23 .
Commentaire: Ici E= [0, 1] \ a 12 , a + 21 6= Ø . Dire que E est non
vide, c’est dire (9x 2 E); on utilise la règle " nommer un objet " en consid-
érant l’un des éléments de E ( il peut y en avoir beaucoup ) et en l’appelant
x0 .
Démonstration: On suppose que E est non vide. Soit x0 un élément de
E. On a alors
2.5 QUELQUES TYPES CLASSIQUES DE RAISONNEMENT27

x0 2E =) 0 x0 1 et a 21 x0 a + 12
=) 0 x0 a + 12 et a 12 x0 1
=) 0 a + 12 et a 12 1
=) 12 a 32 .
On a bien le résultat demandé.
CQFD

2.5.5 Raisonnement par l’absurde


Pour démontrer une proposition P, à partir de certaines hypothèses, on sup-
pose que P est fausse et l’on essaie d’arriver avec les hypothèses à une propo-
sition absurde ( contradiction avec les hypothèses ).
Dans la pratique, on peut d’abord annoncer " raisonnons par l’absurde
" et on commence le raisonnement par " supposons non P ", et la …n du
raisonnement est indiquée par une expression comme " il y a contradiction "
ou " c’est impossible " ou " ce qui est absurde ". On conclut en écrivant " on
a donc P ". La démonstration contient souvent des phrases au conditionnel.
Exemple: Montrer que 0 n’est pas racine de A (x) = x4 + 12x 1.
Commentaire: La proposition P est ici

" 0 n’est pas racine de A (x) = x4 + 12x 1 ".

Démostration: Raisonnons par l’absurde. Supposons que 0 soit racine


de A (x). Par dé…nition, on aurait donc A(0) = 0; or le calcul montre que
A(0) = 1, d’où 1 = 0; ce qui est absurde. On a donc montré que 0 n’est
pas racine de A (x) = x4 + 12x 1.
CQFD

2.5.6 Raisonnement par contraposition


Pour démontrer (P =) Q), on peut démontrer sa contraposée (eQ =)eP)
en lui appliquant la règle de l’hypothèse auxiliaire. On peut annoncer au
début " On va raisonner par contraposition ".
Exemple: Soit x un nombre réel. Montrer que (x3 = 2 =) x < 2).
Commentaire: Ici, P est la proposition (x3 = 2) et Q la proposition
(x < 2). La contraposée est donc la proposition (x 2 =) x3 6= 2), on lui
applique la règle de l’hypothèse auxiliaire.
28 CHAPTER 2 ELÉMENTS DE LOGIQUE

Démonstration: On va raisonner par contraposition. Soit x un réel tel


que x 2. On a alors
x 2 =) x3 8
=) x3 6= 2
On a donc x3 6= 2. On a montré que (x 2 =) x3 6= 2). Ainsi, on a bien
(x3 = 2 =) x < 2).
CQFD

2.5.7 Démonstration d’une équivalence


Pour démontrer (P () Q):
- On peut démontrer d’abord (P =) Q), puis (Q =) P).
- On peut aussi démontrer d’abord (P =) Q), puis (eP =)eQ).
Exemple: Montrer que 8n 2 N,(n pair () n2 est divisible par 4).
Commentaire: Ici, P est la proposition " n pair " et Q la proposition "
n2 est divisible par 4 ".
Démonstration: Soit n un entier pair. Alors on a:
n pair =) n = 2k, k 2 N
=) n2 = 4t, t = k 2
Donc n2 est divisible par 4.
Réciproquement, Soit n un entier impair. Alors on a:
n impair =) n = 2k + 1, k 2 N
=) n2 = 4k 2 + 4k + 1
=) n2 = 4 (k 2 + k) + 1
Donc, le reste de la division de n2 par 4 est égal à 1, d’où n2 n’est pas
divisible par 4.
On a alors montré que 8n 2 N,(n pair () n2 est divisible par 4).
CQFD

2.5.8 Démonstration de (Q _ R)
Dans le cas où l’une des propositions est vraie, alors (Q _ R) est automa-
tiquement vraie. On suppose donc que l’une des propositions est fausse et
on montre que l’autre est vraie.
N.B: On doit donc montrer une des propositions (eQ =) R) ou (eR =) Q)
en considérant la négation la plus simple.
Exemple: Montrer que 8n 2 N,(n est impair ou n2 est pair).
2.5 QUELQUES TYPES CLASSIQUES DE RAISONNEMENT29

Commentaire: Ici, Q est la proposition " n est impair " et R la proposition


2
" n est pair ". On peut appliquer (eQ =) R).
Démonstration: Soit n un entier naturel pair. Alors on a:
n pair =) n = 2k, k 2 N
=) n2 = 2t, t = 2k 2
Donc n2 est pair. On a donc bien 8n 2 N,(n est impair ou n2 est pair).

2.5.9 Raisonnement par récurrence


Le raisonnement par récurrence s’applique aux propositions dont l’énoncé
dépend d’un entier naturel n. Il est une conséquence de la construction
de l’ensemble des entiers naturels N ( basée sur les axiomes de Peano). Ce
raisonnement peut prendre di¤érentes formes:
- Récurrence simple: C’est le type le plus utilisé. Si les hypothèses
suivantes son véri…ées:
Hypothèse de départ: la propriété est vraie en n0 ,
Hypothèse de récurrence ( ou d’hérédité ): lorsque la propriété est vraie
pour k n0 , elle est vraie pour k + 1,
alors la propriété est vraie pour tout entier n n0 .
Exercice: Montrer que 8n 2 N,(2n > n).
- Récurrence forte: C’est la forme la plus générale du raisonnement
par récurrence. Si les hypothèses suivantes son véri…ées:
Hypothèse de départ: la propriété est vraie en n0 ,
Hypothèse de récurrence ( ou d’hérédité ): lorsque la propriété est vraie
pour tout entier p tel que n0 p k, elle est vraie pour k + 1,
alors la propriété est vraie pour tout entier n n0 .
Exercice: Soit (xn )n2N la suite réelle dé…nie par:

x0 = 1 et xn+1 = x0 + x1 + : : : + xn pour tout entier n > 0.

Montrer que 8n 2 N, (xn 2n ).

2.5.10 D’autres règles


Il y a beaucoup d’autres règles qui peuvent intervenir dans une démonstra-
tion. Par exemple, la règle dite du modus ponens: " si on a P et (P =) Q),
alors on a Q ", ou des syllogismes: " si on a (8x 2 E, P(x)) et si a est un
élément de E, alors on a P(a) ".L’exemple célèbre de syllogisme est " Tous
30 CHAPTER 2 ELÉMENTS DE LOGIQUE

les hommes sont mortels et Socrate est un homme; donc Socrate est mortel
".
Exercice: Expliciter le syllogisme précédent à l’aide de quanti…cateurs.
Chapter 3

Structures algébriques

La formalisation des structures algébriques - groupes, anneaux, corps, espaces


vectoriels - est relativement récente, mais l’idée est présente partout dans les
sciences et en particulier en mathématiques. Il s’agit grosso modo d’extraire
des règles opératoires, valables indépendamment de la nature des objets con-
sidérés. Par exemple les règles pour faire la somme de deux nombres, la
somme de deux vecteurs du plan ou la composition de deux rotations sont
les mêmes. L’idée sous-jacente à la notion de groupe est celle de la symétrie.
Nous consacrerons un chapitre entier aux espaces vectoriels à cause de
son importance.

3.1 Groupes
3.1.1 Lois de composition internes
Dé…nitions et exemples
Dé…nition: Soit E un ensemble. Une loi de composition interne sur E est
une application de E E dans E.
Si on note

E E !E
(a, b) 7 ! a b

on parle de la loi et on dit que a b est le composé de a et b pour la loi


.

31
32 CHAPTER 3 STRUCTURES ALGÉBRIQUES

Dé…nition: Soient E un ensemble muni d’une loi de composition interne


notée " ", et H un sous-ensemble de E. On dit que H est stable pour la
loi si 8 (x, y) 2 H 2 , x y 2 H; et on dit alors que la restriction de " " à
H 2 est la loi induite sur H par " ".
Exemples: l’addition ou la multiplication sont des lois de composition
internes sur N, Z, Q, R ou C. La soustraction dé…nit une loi de composition
interne sur Z, Q, R ou C ( mais pas sur N ).
La réunion ou l’intersection sont des lois de composition internes sur
P(E).
Soit X un ensemble. On note E = F(X) l’ensemble des applications de
X dans X.
La composition des applications

E E !E
(f , g) 7 ! f g

est une loi de composition interne sur E.

Propriétés usuelles des lois de composition internes


Dé…nitions: Soit une loi de composition interne sur un ensemble E. On
dit que
1) la loi est commutative si 8 (x, y) 2 E 2 , x y = y x.
2) la loi est associative si 8 (x, y, z) 2 E 3 , (x y) z = x (y z).
Dé…nitions: Soit une loi de composition interne sur un ensemble E.
Un élément e de E est dit:
neutre à droite pour la loi si 8x 2 E, x e = x,
neutre à gauche pour la loi si 8x 2 E, e x = x,
neutre s’il est neutre à droite et à gauche.
Si la loi est commutative, les énoncés " neutre à droite ", " neutre à
gauche " et " neutre " sont équivalents.
Exemples:- L’addition et la multiplication dans Z sont commutatives et
associatives. Ce n’est pas le cas de la soustraction dans Z ( montrez le ).
- La composition des applications dans F(X) est associative, mais n’est
pas en général commutative ( trouvez un contre-exemple ).
Dé…nition: Soit une loi de composition interne sur un ensemble E,
possédant un élément neutre e, et soit a un élément de E. On dit que a
admet:
3.1 GROUPES 33

un symétrique à droite pour la loi , si 9 a0 2 E, a a0 = e.


un symétrique à gauche pour la loi , si 9 a 2 E, a a = e.
un symétrique s’il existe un élément de E qui soit à la fois symétrique
à droite et à gauche de a.
Si la loi est commutative, les énoncés " symétrique à droite ", "symétrique
à gauche " et " symétrique " sont équivalents.
Ainsi, si la loi est commutative, alors a admet un symétrique b 2 E
pour la loi si l’une des conditions équivalentes suivantes est véri…ée:
(i) a b = e
(ii) b a = e.
Exemple: Dans R, chaque élément a possède un symétrique pour l’addition
qui est son opposé a. Mais a n’a un symétrique pour la multiplication que
1
s’il est non nul; son symétrique est alors l’inverse de a.
a
Dé…nition: Soit E un ensemble muni de deux lois de composition in-
ternes et ?. On dit que est distributive par rapport à ? si

8 (x, y, z) 2 E 3 , x (y?z) = (x y) ? (x z) et
(x?y) z = (x z) ? (y z).

Exemples:- Dans R, la multiplication est distributive par rapport à l’addition.


Dans R, l’addition est-elle distributive par rapport à la multiplication?
- Dans l’ensemble P(X) des parties d’un ensemble X, chacune des opéra-
tions \ et [ est distributive par rapport à l’autre.
Proposition: Soit une loi de composition interne sur un ensemble E,
si possède un élément neutre, il est unique.
Démonstration: Supposons que ait deux éléments neutres e et e0 . On a
alors
e = e e0 ( car e0 est élément neutre )
= e0 ( car e est élément neutre ).
On en déduit que e = e0 .
CQFD
Dé…nition: Soit G un ensemble muni d’une loi de composition interne
. On dit que (G, ) est un groupe si la loi satisfait aux trois conditions
suivantes:
i) Elle est associative,
ii) Elle admet un élément neutre,
iii) Chaque élément de G admet un symétrique pour .
34 CHAPTER 3 STRUCTURES ALGÉBRIQUES

Si de plus, la loi est commutative, on dit que le groupe (G, ) est


commutatif ou abélien ( du nom du mathématicien Abel ).
Exemples: - Les ensembles Z, Q, R et C munis de l’addition sont des
groupes. Noter que (N, +) n’est pas un groupe car ne véri…e pas iii).
- Les ensembles Q , R et C munis de la multiplication sont
des groupes. Noter que (Z , ) n’est pas un groupe car ne véri…e pas iii).
Remarques:
- On parlera souvent de groupe G au lieu de (G, ) s’il n’y a pas de risque
de confusion des lois utilisées.
- Pour calculer dans un groupe, on omettra souvent le signe et on écrira
xy au lieu de x y.
- Le symétrique d’un élément x est souvent noté x 1 .
- L’élément neutre est son propre symétrique.
Proposition: Dans un groupe, tout élément admet un symétrique unique.
Démonstration: Soient G un groupe et x un élément de G. Supposons
que x ait deux symétriques x0 et x . On a alors
x0 = x0 e ( ou e est l’élément neutre pour la loi de groupe sur G )
= x0 (xx )
= (x0 x) x
= ex
=x
ce qui montre l’unicité du symétrique.
CQFD
Propriétés: Soient x, y deux éléments d’un groupe G. Alors
i) (xy) 1 = y 1 x 1
1
ii) (x 1 ) = x
Démonstration: Notons e l’élément neutre pour la loi de groupe sur G
i) On a (xy) y 1 x 1 = x (yy 1 ) x 1 = xex 1 = xx 1 = e
y 1 x 1 (xy) = y 1 (x 1 x) y = y 1 ey = y 1 y = e.
Ce qui montre que y 1 x 1 est le symétrique de xy c’est-à-dire qu’on a
(xy) 1 = y 1 x 1 d’après l’unicité du symétrique.
1 1
ii) On a (x 1 ) x 1 = (xx 1 ) = e 1 = e
1 1
x 1 (x 1 ) = (x 1 x) = e 1 = e.
1
Ce qui montre que (x 1 ) est le symétrique de x 1 c’est-à-dire qu’on a
1
(x 1 ) = x d’après l’unicité du symétrique.
CQFD
3.1 GROUPES 35

3.1.2 Sous-groupe
Dé…nition: On appelle sous-groupe d’un groupe (G, ), toute partie H de
G qui est stable pour la loi et qui est un groupe pour la loi induite sur H
par la loi .
Exemples: Si (G, ) est un groupe et e l’élément neutre pour la loi , alors
feg et G sont des sous-groupes de G.
Dé…nition: H est un sous-groupe propre d’un groupe G si H est un
sous-groupe de G distinct de feg et G.
Proposition: Une partie H d’un groupe G est un sous-groupe de G si
et seulement si elle satisfait:
i) e 2 H, e étant l’élément neutre pour la loi de groupe sur G,
ii) 8 (x, y) 2 H 2 , xy 1 2 H.
Démonstration:
C.N =)) On a
H sous-groupe de G =) 9x 2 H
=) xx 1 = e 2 H
d’où i),
x, y 2 H =) x, y 1 2 H
=) xy 1 2 H.
C.S (=) On a
y 2 H =) ey 1 2 H
=) y 1 2 H
d’où tout élément de H est symétrisable.
x, y 2 H =) x, y 1 2 H
1
=) x (y 1 ) 2 H
=) xy 2 H
d’où H est stable pour la loi de groupe sur G,
l’associativité dans H résulte de celle dans G,
par hypothèse, e est l’élément neutre dans H.
CQFD
Exercice: Montrer que
- Pour la loi d’addition, les inclusions suivantes sont les inclusions de
sous-groupes: Z Q R C;
- Pour la loi de multiplication, les inclusions suivantes sont les inclusions
de sous-groupes: Q R C ; l’ensemble R+ ( mais pas R ) est un
sous-groupe de R.
36 CHAPTER 3 STRUCTURES ALGÉBRIQUES

Dé…nitions: Un homomorphisme de groupes (G, ) et (H, ?) est une


application f : G ! H telle que
8 (x, y) 2 G2 , f (x y) = f (x) ?f (y).
Si de plus f est une bijection, on dit que f est un isomorphisme de
groupes et que G et H sont isomorphes.
Exemple: Soient G un groupe et a 2 G; dé…nissons par récurrence a0 = e
( e étant l’élément neutre pour la loi de groupe sur G ) et an+1 = aan 8n 2 N,
et en…n a n = (an ) 1 8n 2 N. Ainsi (Z, +) et (G, :) sont des groupes.
L’application

f :Z !G
n 7 ! an

est un homomorphisme de groupes. En e¤et:


8 (m, n) 2 Z2 , f (m + n) = am+n = am an = f (m) f (n).
Propriétés: Si f : G ! H est un homomorphisme de groupes, alors:
i) f (eG ) = eH où eG ( resp. eH ) désigne l’élément neutre pour la loi de
groupe sur G ( resp. sur H ).
ii) 8x 2 G, f (x 1 ) = f (x) 1 .
Démonstration:
i) f (eG ) = f (eG eG ) = f (eG ) f (eG ), et f (eG ) = eH f (eG );
d’où
f (eG ) f (eG ) = eH f (eG ) =) ( f (eG ) f (eG )) f (eG ) 1 = (eH f (eG ))
f (eG ) 1 =) f (eG ) = eH
ii) f (x 1 ) f (x) = f (x 1 x) = f (eG ) = eH , d’où f (x 1 ) = f (x) 1 .
CQFD
Dé…nition: Le noyau d’un homomorphisme de groupes f : G ! H
est l’ensemble

1
f (feH g) = fx 2 G j f (x) = eH g.

On le note Ker(f ) à cause de l’allemand " Kern ".


L’importance du noyau vient du théorème suivant:
Théorème: Un homomorphisme de groupes f : G ! H est injectif si
et seulement si Ker(f ) = feG g. Le noyau de f est toujours un sous-groupe
de G.
Démonstration: Soient x, y 2 G, on a:
3.1 GROUPES 37

f (x) = f (y) () f (x)f (y) 1 = eH


() f (xy 1 ) = eH
() xy 1 2 Ker(f ).
Nous voulons démontrer que: f injectif () Ker(f ) = feG g.
C.N: =) ) Utilisons le raisonnement par contraposée i.e
Ker(f ) 6= feG g =) f non injectif?
Si Ker(f ) contient un élément a 6= eG , alors f (a) = eH = f (eG ) et f
n’est pas injectif.
C.S: (= ) Soient x, y 2 G, on a:
f (x) = f (y) =) xy 1 2 Ker(f )
=) xy 1 = eG par hypothèse
=) x = y,
donc f est injectif.
Pour la deuxième a¢ rmation, on a:
eG 2 Ker(f ), en e¤et
f (eG ) = f (xx 1 ) = f (x)f (x 1 ) = f (x)f (x) 1 = eH .
x, y 2 Ker(f ) =) f (xy 1 ) = f (x)f (y 1 ) = f (x)f (y) 1 = eH eH1 = eH .
=) xy 1 2 Ker(f ).
CQFD

3.1.3 Groupes cycliques


Proposition: Soit A une partie d’un groupe G. Alors il existe un plus petit
sous-groupe H de G contenant A; on l’appelle sous-groupe engendré par A
et on le note hAi. Si A = fgg est un singleton, on notera hgi au lieu de hfggi.
Preuve: Il su¢ t de prendre hAi comme l’intersection de tous les sous-
groupes de G contenant A.
NB: On peut décrire hAi comme l’ensemble des produits x1 : : : xn ou
chaque xi véri…e: xi 2 A ou xi 1 2 A; si A est vide on prend hAi = feG g.
Dé…nitions: Soient G un groupe et g élément de G.
On appelle ordre de G, le cardinal de G. On dit que G est …ni ou in…ni
suivant que son ordre est …ni ou in…ni.
On appelle ordre de g, l’ordre du sous-groupe hgi. L’ordre de g est le plus
petit entier n > 0 (s’il existe) tel que g n = eG . Si g n 6= eG pour tout n > 0,
on dit que g est d’ordre in…ni.
Proposition: Soient G un groupe et g élément de G. Si hgi est in…ni, il
est isomorphe à Z; s’il est …ni de cardinal n, il est isomorphe à Z = nZ. Dans
les deux cas l’ordre de g est le cardinal de hgi.
38 CHAPTER 3 STRUCTURES ALGÉBRIQUES

Preuve: Supposons que g est d’ordre in…ni. Alors l’application

Z ! hgi
m 7 ! gm

est un homomorphisme surjectif; son noyau est trivial ( car g est d’ordre
in…ni, et g m = eG est équivalent à g m = eG si m est un entier négatif ) donc
c’est un isomorphisme. Ainsi Z est isomorphe à hgi.
supposons maintenant que g est d’ordre n 2 N . Comme g n = eG ,
l’application

: Z = nZ ! hgi
m 7 ! gm

est bien dé…nie, et c’est un homomorphisme surjectif par dé…nition de


hgi. Soit m 2 ker , la division euclidienne de m par n donne m = nq + r
avec 0 r < n. On obtient alors g r = 1 et par suite r = 0 par dé…nition de
l’ordre. Ainsi m = 0, ce qui montre que est un isomorphisme de Z = nZ
sur hgi.
Dé…nition: Un groupe est dit monogène s’il peut être engendré par un
de ses éléments, cyclique s’il est de plus …ni. Si un groupe G est cyclique et
engendré par a, on dit que a est un générateur de G.
Exemples: Le groupe (Z, +) est cyclique, et les éléments 1 et 1 sont
des générateurs de ce groupe. Le groupe (Zn , +) est engendré par
(1, 0, : : : , 0), (0, 1, : : : , 0), : : :, (0, 0, : : : , 1).

3.1.4 Sous-groupes distingués, groupes quotients


Dé…nition: Soient G un groupe et g élément de G.
Alors l’application notée int g dé…nie par:

int g : G ! G
1
h 7 ! ghg
3.1 GROUPES 39

est appelée automorphisme intérieur associé à g.


Dé…nition: Un sous-groupe H de G est dit distingué ou normal et l’on
note H C G s’il est laissé stable par tout automorphisme intérieur, i.e.: pour
tout g 2 G et tout h 2 H, on a ghg 1 2 H.
Remarques:
On a H C G , 8g 2 G, gHg 1 H , 8g 2 G, gHg 1 = H
En e¤et la première équivalence est la dé…nition; la deuxième équivalence
s’obtient à partir de gHg 1 H en échangeant g et g 1 et en composant à
gauche par g et à droite par g 1 .
Si G est abélien, tout sous-groupe de G est distingué.
feG g et G sont toujours des sous-groupes distingués de G.
Proposition: Soit H un sous-groupe de G.
Alors la relation xRg y (resp. xRd y) si et seulement si x 1 y 2 H (resp. xy 1 2 H)
est une relation d’équivalence sur G. L’ensemble quotient s’appelle ensem-
ble des classes à gauche (resp. à droite) modulo H, et est noté G = H
(resp. H n G). Ses éléments sont de la forme aH (resp. Ha) avec a 2 H.
En particulier H est la classe de eG .
Preuve: On démontre pour les classes à gauche.
1
8x 2 G, xRg x est clair. Si x 1 y 2 H, alors (x 1 y) = y 1x 2
H d’où la symétrie. Si x 1 y 2 H et y 1 z 2 H, alors (x 1 y) (y 1 z) =
x 1 z 2 H d’où la transitivité. Ainsi Rg est une relation d’équivalence sur G.
Montrons maintenant que les éléments de G = H sont de la forme aH.
Soit a 2 G. Alors
x 2 aH , x = ay avec y 2 H
, a 1x = y 2 H
, aRg x
, x 2 Rg (a)
Ainsi la classe de a dans G = H est bien aH. CQFD
Corollaire ( Théorème de Lagrange ): Si G est un groupe …ni,
l’ordre de tout sous-groupe H de G divise l’ordre de G.
Preuve: Les classes à gauche constituent une partition de G et le cardinal
de aH est le même que celui de H puisque les translations à gauche sont des
bijections de G sur G.
Soient G un groupe et H un sous-groupe distingué de G. Par dé…nition
d’un sous-groupe distingué pour tout a 2 G on a aHa 1 H et a 1 Ha H,
d’où aH Ha et Ha aH i.e. aH = Ha et par suite G = H = H n G.
Dé…nition. Soient G un groupe, et H un sous-groupe de G. On dit que
H est d’indice …ni dans G si G = H est un ensemble …ni. L’indice H dans G,
40 CHAPTER 3 STRUCTURES ALGÉBRIQUES

noté [G : H], est alors le cardinal de G = H.

3.1.5 groupe symétrique


Structure
Dé…nitions: soit E un ensemble …ni. On appelle permutation de E, une
bijection de E sur E. On note S (E) l’ensemble des permutations de E. On
note Sn l’ensemble des permutations de f1, . . . , ng. Une permutation est
souvent notée et représentée par un tableau.
Exemple:
0 1
1 2 3 4
=@ A
2 3 1 4

représente la permutation de f1, 2, 3, 4g telle que (1) = 2, (2) = 3,


(3) = 1, (4) = 4.
La première ligne du tableau représente les antécédents et la deuxième
1 1 1
ligne les images respectives. On a (2) = 1, (3) = 2, (1) = 3,
1 1
(4) = 4, est la bijection réciproque de et on a card (Sn ) = n!.
Les permutations étant des applications on peut les composer entre elles
par la compée des applications ; la notation est parfois omise.
Exemples
0 sur f1, . . .1
, 6g: 0 1
1 2 3 4 5 6 1 2 3 4 5 6
=@ A, =@ A alors
5 2 1 6 3 4 6 5 4 1 2 3
0 1
1 2 3 4 5 6
= =@ A
4 3 6 5 2 1
Propriétés de (Sn , ):
i) La loi est une loi de composition interne dans Sn .
En e¤et, la composée de deux bijections est une bijection.
ii) La loi est associative.
En e¤et la composition des aplications bijectives ou non, sur des ensembles
…nis ou non, est associative.
iii) La loi possède un élément neutre, à savoir
3.1 GROUPES 41
0 1
1 : : : n
Id = @ A i.e
(i) = i, 8i = 1, . . . , n.
1 : : : n
iv) Tout 2 Sn est symétrisable et a pour symétrique 1 .
Ces quatre propriétés font de (Sn , ) un groupe appelé groupe symétrique.

Décomposition d’une permutation


Dé…nition: Soient une permutation de Sn et k un élément de
f1, . . . , ng. On appelle orbite de k suivant et l’on note O (k), l’ensemble
dé…ni par O (k) = f p (k) j p 2 Ng.

On dit qu’une orbite


0 est triviale si1elle est réduite à un élément.
1 2 3 4 5 6
Exemple: = @ A; O (1) = f1, 5, 3g, O (2) = f2g,
5 2 1 6 3 4
O (4) = f4, 6g.
Remarques:
L’orbite de i est de la forme fi, (i) , . . . , p (i)g; c’est un ensemble
formé d’éléments distincts avec p+1 (i) = i.
Deux
0 permutations
1 0di¤érentes
1 peuvent avoir même orbite, par exemple
1 2 3 1 2 3
=@ A, =@ A
2 3 1 3 1 2
Dé…nition: On appelle tansposition de i et j et l’on note souvent ij , la
permutation qui échange simplement i et j et laisse les autres éléments …xes.
En d’autres termes ij (i) = j , ij (j) = i et ij (k) = k si k 6= i et k 6= j.
Dé…nitions: On appelle cycle une permutation admettant une seule
orbite non triviale O. S’il en est ainsi, le cardinal de O est appelé longueur
de et l’ensemble O est le support de .
On appelle r cycle, un cycle de longueur r.
Exemples:
Les transpositions sont des cycles à deux éléments.
Dans S6 , la permutation
0 1
1 2 3 4 5 6
=@ A
4 2 3 6 5 1
42 CHAPTER 3 STRUCTURES ALGÉBRIQUES

est un cycle, dont le support est f1, 4, 6g et de longueur 3.


Dé…nition. On appelle permutation circulaire, une permutation consti-
tuée d’une seule orbite.
Exemple: Dans S5 la permutation
0 1
1 2 3 4 5
=@ A
2 4 5 3 1

est une permutation circulaire.


Dé…nition. Soit 2 Sn . On appelle ordre de le plus petit entier k > 0
tel que k = id.
Remarques:
Un r cycle s’écrit de r façons di¤érentes.
Un r cycle c est d’ordre r ( i.e cr = id ).
Un 2 cycle est une transposition, et un n cycle de Sn est une permu-
tation circulaire.
Proposition: Toute permutation se décompose en produit de cycles à
supports disjoints deux-à-deux. Ces cycles sont constitués des éléments des
orbites non réduites à un élément.
On peut remarquer que ces cycles n’ayant aucun élément en commun com-
mutent entre eux. La décomposition à l’ordre près des cycles, est unique.
La décomposition d’une permutation en produit de cycles permet de cal-
culer l’ordre de cette permutation. Plus généralement, soit une permuta-
tion qui se décompose en produit de r cycles à supports disjoints deux-à-
deux de longueurs respectives m1 ,. . . , mr . Alors, l’ordre de est égal au
ppcm(m1 ; : : : ; mr ). 0 1
1 2 3 4 5 6 7 8 9 10
Exemple: =@ A = (1,3, 2, 10) (5, 7, 8) (6, 9)
3 10 2 4 7 9 8 5 6 1
On voit que se décompose en produit de 3 cycles à supports dis-
joints deux-à-deux de longueurs respectives 4, 3, 2. L’ordre de est donc
ppcm(4; 3; 2) = 12.
Proposition: Tout cycle se décompose en produit de transpositions.
Preuve: Cela découle de (x1 , x2 , . . . , xp ) = (x1 , x2 ) (x2 , x3 ) : : : (xp 1 , xp ).
La démonstration est constructive.
Corollaire: Toute permutation se décompose en produit de transposi-
tions.
3.1 GROUPES 43

Preuve: Cela résulte du fait que toute permutation se décompose en


produit de cycles et 0
que tout cycle se1décompose en produit de transpositions.
1 2 3 4 5 6
Exemple: =@ A = (1, 2, 4) (5, 6)
2 4 3 1 6 5
= (1, 2) (2, 4) (5, 6)
Remarques:
Un cycle se décompose de plusieurs manières en produits de transposi-
tions. On a par exemple
(x1 , x2 , x3 , . . . , xp ) = (x1 , x2 ) (x2 , x3 ) . . . (xp 1 , xp )
= (xp , xp 1 ) (xp , xp 2 ) . . . (xp , x1 )
Le nombre de transpositions pour décomposer une permutation peut
varier, mais la parité de ce nombre est conservée pour une permutation don-
née.

Signature d’une permutation


Proposition: Soit une permutation de Sn . Il y a égalité entre les quatre
quantités suivantes:
i) ( 1)T où T est le nombre de transpositions dans une décomposition de
comme produit de transpositions.
ii) ( 1)D où D est la di¤érence entre n et le nombre d’orbites suivant
iii) ( 1)I où I est le nombre d’inversions de , i.e le nombre de couples
(i, j) avec i < j et (i) > (j)
(i) (j)
iv)
i<j i j
Cette quantité commune s’appelle signature de et se note sgn( ) ou
" ( ). Si sgn( ) = 1, on dit que est paire, sinon, elle est dite impaire.
Preuve:
iv) = iii):
Numérateur et dénominateur comportent tous les produits i j, au signe
près, du fait de la bijectivité de . En valeur absolue, la quantité iv) vaut
donc 1; son signe est donné par le nombre de couples (i, j), tel que i < j et
(i) > (j) i.e par le nombre d’inversions de .
ii) = i):
Notons " ( ) la quantité ii). On remarque que pour toute permutation
et toute transposition , on a:
" ( ) = " ( ), car si = ij , il y a deux cas à considérer:
44 CHAPTER 3 STRUCTURES ALGÉBRIQUES

a) i et j sont dans la même orbite suivant


Exemple: = (1, 2, 4, 6, 7) (3, 5) et = (2, 6); on obtient
= (1, 2, 7) (3, 5) (4; 6).
b) i et j sont dans deux orbites di¤érentes suivant
Exemple: = (1, 2, 4, 6, 7) (3, 5) et = (2, 5); on obtient = (1; 2; 3; 5; 4; 6; 7).
On remarque que, pour une transposition , " ( ) = 1 car il y a n 1
orbites. On complète en montrant par récurrence que " ( ) = i).
(i) (j)
iii) = i): Posons "0 ( ) = on a:
i6=j i j
0 0
(i) (j)
"0 ( 0 ) =
i6=j i j
0 0
(i) (j) (i) (j)
=
i6=j (i) (j) i6=j i j
0 0 0
= " ( )" ( )
0
En …n " ( ) = 1 pour une transposition; en e¤et, si = (i, j) alors il y a
2 jj ij 1 inversions. Donc par récurrence sur le nombre de transpositions,
"0 ( ) est égale à la formule i).

3.2 Anneaux et corps


3.2.1 Anneaux
Dé…nition: Un anneau est la donnée d’un ensemble A et de deux lois de
composition internes dans A notées + ( addition ) et ( multiplication )
telles que:
(i) (A, +) est un groupe commutatif. L’élément neutre de + est noté 0.
(ii) La loi est associative,
(iii) La loi est distributive par rapport à la loi +.
Un tel anneau est noté (A, + , ).
Un anneau (A, + , ) est dit commutatif ( resp. unitaire ) si la loi est
commutative ( resp. admet un élément neutre ).
Remarques:
Dans la suite on ne considèrera que des anneaux unitaires, et on utilisera
le mot anneau pour anneau unitaire. L’élément neutre de sera noté 1 et
appelé l’élément unité de l’anneau.
Souvent on note xy au lieu de x y pour x, y éléments de l’anneau.
3.2 ANNEAUX ET CORPS 45

Convention: Un anneau est donc un triplet (A, + , ), l’ensemble A


s’appelle l’ensemble sous-jacent à l’anneau. On parle souvent de l’anneau A
en sous-entendant les lois + et quand il est clair dans le contexte de quelles
lois il s’agit.
Dé…nition: Si l’élément x d’un anneau possède un symétrique pour la
deuxième loi de cet anneau, on dira que x est inversible et on notera x 1 son
inverse.
Propriétes: Soit (A, + , ) un anneau. Pour tous x, y 2 A, on a:
1: 0x = 0
2: ( 1) x = x
3: ( 1) ( 1) = 1
4: ( x) (y) = xy
Preuve:
1:0x = (0 + 0) x = 0x + 0x, d’où 0x = 0.
2:0 = 0x = (1 1) x = x + ( 1) x, d’où ( 1) x = x
3:On multiplie par 1 l’égalité ( 1) + 1 = 0; ce qui donne ( 1) ( 1) +
( 1) 1 = 0, donc ( 1) ( 1) + ( 1) = 0 et par suite ( 1) ( 1) = 1
4:xy +( x) y = (x + ( x)) y = (x x) y = 0y = 0, d’où ( x) (y) = xy.
Dé…nitions: On dit qu’un élément a d’un anneau A est un diviseur de
0 s’il existe un élément non nul b 2 A tel que ab = ba = 0.
Un anneau est dit intègre s’il ne contient pas de diviseur de 0 autre que
0 lui-même.
Ainsi, un anneau A n’est pas intègre s’il existe des éléments x, y dans A
tous deux non nuls tels que xy = 0.
Dé…nition: Une partie B d’un anneau A, est un sous-anneau de A, si B
munie des lois de A restreintes à B possède lui aussi une structure d’anneau.
Proposition: Une partie B d’un anneau A, est un sous-anneau de(A, + , )
si et seulement si:
(B, +) est un sous-groupe de (A, +)
1A 2 B
La loi induit une loi de composition interne dans B.

3.2.2 Idéaux
Dé…nitions: Soient (A, + , ) un anneau et I une partie de A. On dit que
I est un idéal à gauche ( resp. à droite ) de A si et seulement si:
(I; +) est un sous-groupe abélien de (A; +)
8 (a; x) 2 A I, a x ( resp. x a ) est un élément de I.
46 CHAPTER 3 STRUCTURES ALGÉBRIQUES

On dit que I est un idéal bilatère de A lorsque I est à la fois un idéal à


gauche et un idéal à droite de A. On utilise de manière générale le mot idéal
pour idéal bilatère.
NB: On omettra souvent le signe pour écrire xy au lieu de x y.
Dé…nitions: Soient A un anneau et I un idéal ( bilatère ) de A.
On dit que I est strict ou propre dans A s’il n’est pas égal à A tout
entier.
On dit que I est un idéal premier de A s’il est strict dans A et s’il véri…e:

8x, y 2 A, xy 2 I ) x 2 I ou y 2 I

On dit que I est un idéal principal de A s’il est engendré par un unique
élément a de A. Autrement dit:

I = fxa; x 2 Ag.

On notera dans ce cas (a), l’idéal engendré par l’élément a de A. L’idéal


(0) est appelé l’idéal nul de A.
On dit que I est un idéal maximal de A s’il est strict dans A, et si il
n’est contenu dans aucun idéal de A autre que l’anneau A tout entier.
Proposition: Si un idéal d’un anneau A contient l’élément unité de A,
alors cet idéal est égal à A tout entier.
Preuve: Supposons que l’idéal I de A contienne 1. Alors pour tout a 2 A
on a a = a1 et est par dé…nition d’un idéal un élément de I. Donc A I et
par suite I = A.
Dé…nition: Un anneau est dit principal s’il est intègre et que tous ses
idéaux sont principaux.

3.2.3 Corps
Dé…nition: Un corps est la donnée d’un ensemble K et de deux lois de
composition internes notées + ( addition ) et ( multiplication ) telles que:
(i) (K, + , ) est un anneau,
(ii) (K , ) est un groupe, avec K = K f0g.
Un corps est donc un anneau unitaire dont tous les éléments non nuls
sont inversibles.
Un corps (K, + , ) est dit commutatif si la loi est commutative.
Notations: Soit (K, + , ) un corps.
3.2 ANNEAUX ET CORPS 47

- L’élément neutre pour l’addition est noté 0K ou simplement 0 s’il n’y a


pas de risque de confusion des lois utilisées.
- L’élément neutre pour la multiplication est noté 1K ou simplement 1 s’il
n’y a pas de risque de confusion des lois utilisées.
- Le symétrique de x 2 K pour + ( opposé de x ) est noté x.
- Le symétrique de x 2 K pour ( inverse de x ) est noté x 1 .
Exemples: Le triplet (Z, + , ) est un anneau commutatif unitaire,
mais ce n’est pas un corps car les seuls éléments de Z possédant un inverse
pour la multiplication sont +1 et 1. Les corps les plus importants que
nous étudierons sont (Q, + , ), (R, + , ), (C, + , ); tous ces corps sont
commutatifs.
Convention: Un corps est donc un triplet (K, + , ), l’ensemble K
s’appelle l’ensemble sous-jacent au corps. On parle souvent de corps K en
sous-entendant les lois + et quand il est clair dans le contexte de quelles
lois il s’agit.
Proposition: Un corps ne possède pas de diviseurs de 0.
Preuve: Supposons qu’il existe x et y dans un corps K tels que xy = 0;
supposons de plus que x n’est pas nul. Alors x est inversible et on a y =
x 1 xy = x 1 0 = 0, donc x et y ne sont pas des diviseurs de 0.
Proposition fondamentale: Les seuls idéaux d’un corps sont l’idéal nul
et le corps lui-même. Réciproquement, si A est un anneau n’ayant comme
seuls idéaux que l’idéal nul et lui même alors A est un corps.
Preuve:
Supposons que K est un corps. Soient I un idéal non nul de A et x un
élément non nul de I, donc x est inversible par dé…nition d’un corps; on a
donc x 1 x 2 I i.e 1 2 I et par suite I = K.
Supposons maintenant que les seuls idéaux de l’anneau A sont l’idéal
nul et A lui-même. Il su¢ t de montrer que tout élément non nul de A est
inversible. Soit x un élément non nul de A, alors (x) l’idéal engendré par x
n’est pas nul non plus et donc il est égal à A. L’unité de A est donc élément
de (x), il existe alors y 2 A tel que xy = 1, donc x est inversible d’inverse y.
Dé…nition: Soit K un corps. Soit A le sous-anneau de K engendré
par l’élément unité 1 de K. Les éléments de A sont donc de la forme
1| + 1 +{z: : : + 1}. Si A est de cardinal …ni alors la caractéristique de K est
n fois
le cardinal de A; sinon on dit que la caractéristique de K est nulle. Remar-
quons que si K est de caractéristique n alors 1| + 1 +
{z: : : + 1} = 0.
n fois
Chapter 4

Polynômes et fractions
rationnelles

Dans ce chapitre, K désigne un corps commutatif


( le plus souvent R ou C ).

4.1 Polynômes à coe¢ cients dans K


4.1.1 Présentation des polynômes
Dé…nition: Soit a = (ak )k 0 une suite à valeurs dans K. On appelle support
de a l’ensemble ( éventuellement vide ) des indices k tels que ak 6= 0. On
note K (N) l’ensemble des suites à valeurs dans K qui sont à support …ni.
Remarques:
La suite a = (ak )k 0 est à support …ni si et seulement si 9 n 2 N : 8k > n,
ak = 0. On peut alors noter symboliquement
a = (a0 , a1 , . . . , an , 0, 0, . . . )
K (N) , + , est un anneau commutatif, où + et sont dé…nies de la
manière suivante:
soient a = (ak )k 0 et b = (bk )k 0 deux éléments de K (N) . OnP a
a + b = (ak + bk )k 0 et a b = c en posant: 8n 2 N, cn = ai b j =
P P i+j=n
an j b j = ai b n i .
j=0;:::;n i=0;:::;n
En particulier c0 = a0 b0 , c1 = a0 b1 + a1 b0 , etc.
NB: Dans la suite on écrira xy au lieu de x y

49
50CHAPTER 4 POLYNÔMES ET FRACTIONS RATIONNELLES

Dé…nition: Les éléments de l’anneau K (N) sont appelés polynômes à


coe¢ cients dans K.
Notation dé…nitive des polynômes
Posons X 0 = 1, X 1 = X = (0, 1, 0, 0, . . . ); avec cette notation on
X n = (0, . . . , 0, 1, 0, 0, . . . ) où tous les coe¢ cients sont nuls sauf celui de la
(n + 1)iéme position qui vaut 1. Le polynôme P = (ak )k 0 s’écrit donc
P
P = ak X k = a0 + a1 X + : : : + an X n + : : :. Une telle somme, toujours
k 0
…nie, représente P de façon unique ( à l’ordre près ). Si n est un entier tel
Pn
que 8k > n, ak = 0, on notera aussi P = ak X k = a0 + a1 X + : : : + an X n
k=0
On dit que les ak sont les coe¢ cients de P et X est l’indéterminée. On
notera K [X] l’anneau des polynômes à coe¢ cients dans K.
Pn
Dé…nitions: Soit P = ak X k = a0 + a1 X + : : : + an X n un polynôme
k=0
non nul de K [X].
On dit que P est un monôme s’il est de la forme X n avec 2 K et
n 2 N.
On dit que P est un polynôme constant si P = , avec 2 K.
On appelle degré de P et on note deg(P ) le plus grand entier k tel que
ak 6= 0; ce coe¢ cient ak est appelé coe¢ cient dominant de P .
On appelle valuation de P et on note val(P ) le plus petit entier k tel
que ak 6= 0.
Par convention on pose deg(0) = 1 et val(0) = +1.
On dit que P est normalisé ( ou encore unitaire ) si son coe¢ cient
dominant est égal à 1.
Dé…nitions: Soit A un polynôme non nul et le coe¢ cient dominant
A
de A. Le polynôme A = est appelé le normalisé de A. Deux polynômes
non nuls sont dits associés s’ils ont même normalisé.
Exemple: Soit P = X 4 + 3X + 1, on a val(P ) = 0, deg(P ) = 4 et P est
normalisé.
Proposition: Soient P et Q deux éléments de K [X]. On a:
deg(P + Q) max (deg (P ) , deg (Q)), avec égalité si deg(P ) 6=deg(Q)
val(P + Q) min (deg (P ) , deg (Q)), avec égalité si deg(P ) 6=deg(Q)
deg(P Q) = deg(P )+deg(Q)
val(P Q) = val(P )+val(Q)
Preuve: la démonstration est laissée au lecteur.
Corollaire: K [X] est un anneau intègre.
4.1 POLYNÔMES À COEFFICIENTS DANS K 51

Preuve: L’égalité deg(P Q) = deg(P )+deg(Q) montre que si P 6= 0 et


Q 6= 0 alors P Q 6= 0, i.e
(P Q = 0) ) (P = 0 ou Q = 0).
P
n
Remarque: Le polynôme P = ak X k = a0 +a1 X +: : :+an X n est aussi
k=0
noté P (X). On distingue le polynôme P (X) ( qui, par construction, est nul
si et seulement si tous ses coe¢ cients sont nuls ) de la fonction polynômiale
associée:

P : K ! K, x 7 ! a0 + a1 x + : : : + an xn = P (x).

Celle-ci est nulle si et seulement si: 8x 2 K, P (x) = 0.


On a évidemment l’implication: P (X) = 0 ) 8x 2 K, P (x) = 0.

4.1.2 Division euclidienne


Théorème: Soient A, B 2 K [X] avec B non nul. Il existe un unique couple
(Q, R) de polynômes dans K [X] tels que:

A = QB + R et deg(R) < deg(B).

Le passage du couple (A, B) au couple (Q, R) s’appelle division euclidi-


enne de A par B. Dans cette division, A est le dividende, B le diviseur, Q
le quotient et R le reste.
N.B: - Lorsque R = 0, on dit que B divise A, que A est divisible par B,
que B est un diviseur de A ou que A est un multiple de B.
- Avant d’e¤ectuer une division euclidienne, il faut toujours véri…er
que les deux polynômes sont ordonnés suivant les puissances décroissantes.
Preuve:
Existence
- Si deg(A) < deg(B), on peut prendre Q = 0 et R = A.
an n m
- Si deg(A) deg(B), on note Q1 = X le quotient des termes de
bm
plus haut degré. En posant A1 = A BQ1 , on a deg(A1 ) < deg(A).
- si deg(A1 ) < deg(B), on peut prendre Q = Q1 et R = A1 .
- si deg(A1 ) deg(B), on recommence avec A1 et B: on obtient Q2
et A2 , et deg(A2 ) < deg(A1 ).
- si deg(A2 ) < deg(B), on peut prendre Q = Q1 + Q2 et
R = A2 .
52CHAPTER 4 POLYNÔMES ET FRACTIONS RATIONNELLES

- si deg(A2 ) deg(B), on recommence. . .


Puisque la suite de degrés deg(A) >deg(A1 ) >deg(A2 ) > : : : est une suite
strictement décroissante de nombres entiers, il n’y a qu’un nombre …ni k
d’étapes,on peut prendre Q = Q1 + : : : + Qk et R = Ak
Unicité
Supposons que A = QB + R = Q1 B + R1 avec deg(R) < deg(B) et
deg(R1 ) < deg(B). On en tire:

R R1 = (Q1 Q) B et deg(R R1 ) < deg(B).

Par l’absurde: si Q1 6= Q, alors


deg((Q1 Q) B) = deg(Q1 Q) + deg(B) deg(B) ce qui est contra-
dictoire.
Donc Q1 = Q, d’où QB + R = Q1 B + R1 = QB + R1 et par suite R = R1 .
CQFD

4.1.3 Algorithme d’Euclide - Pgcd - Ppcm


Soient A, B 2 K [X]; on note B j A pour exprimer que B est un diviseur de
A. L’ensemble des diviseurs de A sera noté D (A), et l’ensemble des multiples
de A sera noté sera noté AK [X].
Proposition et dé…nitions: Soient A, B 2 K [X].
Il existe un unique polynôme normalisé ou nul D tel que

D (A) \ D (B) = D (D).

Autrement dit, pour tout P 2 K [X], on a

(P j A et P j B) , P j D.

On dit que D est le pgcd de A et B, et on note D = pgcd(A, B), ou


D = A ^ B.
Il existe un couple (U , V ) d’éléments de K [X] tels que

AU + BV = A ^ B.

On dit que (U , V ) est un couple de coe¢ cients de Bezout du couple


(A, B).
Il existe un unique polynôme normalisé ou nul M tel que
4.1 POLYNÔMES À COEFFICIENTS DANS K 53

AK [X] \ BK [X] = M K [X].

On dit que M est le ppcm de A et B, et on note M = ppcm(A, B) ou


M = A _ B.
Preuve et remarques:
Si A = B = 0, alors D (A) = D (B) = K [X]. Seul le polynôme D = 0
véri…e K [X] = D (D), d’où 0^0 = 0. Dans ce cas l’égalité AU +BV = A^B
est véri…ée pour tout couple (U , V ) d’éléments de K [X].
L’unicité ( si existence ) de D = A ^ B vient du fait que si D (D1 ) =
D (D2 ) alors D1 et D2 sont associés; or deux polynômes associés et unitaires
sont égaux.
Pour démontrer la propostion quand (A, B) 6= (0, 0), on s’inspire de
l’algorithme d’Euclide dans Z et on forme une succession de divisions eucli-
diennes partant du couple (A, B) jusqu’à obtenir un reste non nul. Le pgcd
de A et B est alors le normalisé du dernier reste non nul.
Principe de l’algorithme:
Quitte à échanger A et B on peut supposer B 6= 0.
On pose R0 = A et R1 = B. Le polynôme R1 est le premier " reste ": il
est non nul.
On e¤ectue la division euclidienne de R0 par R1 .
Notons R0 = Q1 R1 +R2 cette division. On a bien sûr deg(R2 ) < deg(R1 ).
Si R2 = 0, alors le procédé s’arrête, et R1 est le dernier reste non nul
obtenu.
Sinon on e¤ectue la division de de R1 par R2 : R1 = Q2 R2 + R3 avec
deg(R3 ) < deg(R2 ).
Si R3 = 0, alors le procédé s’arrête, et R2 est le dernier reste non nul
obtenu.
Sinon on e¤ectue la division de de R2 par R3 : R2 = Q3 R3 + R4 avec
deg(R4 ) < deg(R3 ).
..
.
La k ième étape de cet algorithme est une division Rk 1 = Qk Rk +Rk+1
avec deg(Rk+1 ) < deg(Rk ).
A ce stade on a: deg(R0 ) > deg(R1 ) > : : : > deg(Rk ) > deg(Rk+1 ); ce
qui montre que l’algorithme doit s’arrêter à un certain moment car la suite
des degrés est strictement décroissante dans N.
Il existe donc une n ième étape lors de laquelle Rn 1 = Qn Rn c’est-à-dire
Rn+1 = 0; le polynôme Rn est donc le dernier reste non nul obtenu par cette
méthode. Le normalisé de Rn est le pgcd de A, B.
54CHAPTER 4 POLYNÔMES ET FRACTIONS RATIONNELLES

Remarque: Soient A, B 2 K [X], l’algorithme d’Euclide permet aussi


de déterminer (U , V ) éléments de K [X] tels que

AU + BV = A ^ B

Pour cela, il su¢ t de remonter les étapes de l’algorithme en remplaçant


les restes par les expressions correspondantes obtenues.
Dé…nition: Soient A, B 2 K [X].
On dit que A, B sont premier entre eux si A ^ B = 1.
Ce qui équivaut à dire que les seuls diviseurs communs à A et B sont les
constantes non nulles.

4.2 Fractions rationnelles


4.2.1 Le corps des fractions rationnelles
A
Dé…nition: Une fraction rationnelle est le quotient de deux polynômes
B
avec B 6= 0.
On note K (X) l’ensemble des fractions rationnelles de polynômes à co-
e¢ cients dans K. Il n’est pas di¢ cile de véri…er qu’il s’agit d’un corps.
Ainsi K (X) est le corps des fractions de l’anneau intègre K [X].
Remarques:
Le corps K (X) contient l’anneau intègre K [X], car tout polynôme P
P
peut s’écrire P = .
1
A C
Soient F = et G = dans K (X). On a F = G , AD = BC.
B D
En particulier, pour tous polynômes A, B, Q avec B 6= 0 et Q 6= 0, on a
AQ A A
= . Soient F = 2 K (X) et = A ^ B 6= 0; il existe C, D tels que
BQ B B
C
A = C et B = D, donc F = avec C ^ D = 1.
D
On dit alors que F est écrit sous forme irréductible, ou simpli…ée.
A
Dé…nition: Soit F = une fraction rationnelle irréductible. Soient A,
B
B les fonctions polynômiales associées àA et B.
On appelle fonction rationnelle F associée à F , l’application
4.2 FRACTIONS RATIONNELLES 55

A (x)
x 7! F (x) = .
B (x)

Le domaine de dé…nition de F est K privé de l’ensemble des racines de


B.

4.2.2 Pôles et parties polaires


A
Dé…nition: Soit F = une fraction rationnelle écrite sous forme irré-
B
ductible.
Soient 2 K et m 2 N . On dit que est un pôle de F , avec la
multiplicité m, si est une racine du polynôme B avec la multiplicité m.
Remarques:
A
est un pôle de F avec la multiplicité m, signi…e qu’on a F = ,
(X )m Q
avec A ( ) 6= 0 et Q ( ) 6= 0.
On parle de pôle simple si m = 1, et de pôle multiple si m > 1. On parle
de pôle double si m = 2, triple si m = 3, etc.

A
Dé…nition: Soit F = 2 K (X) admettant comme pôle de multi-
B
plicité m 1. Alors F s’écrit de manière unique sous la forme
P
m
k
F = k
+ G, où ( 1 , . . . , m ) 2 K m et où G est une fraction
k=1 (X )
rationnelle n’admettant pas pour pôle.
P
m
k
On dit alors que est la partie polaire de F relativement au
k=1 (X )k
pôle .
N.B: Les pôles de G sont ceux de F ( sauf ), avec les mêmes multiplic-
ités respectives.

4.2.3 Méthodes pratiques


P
m
k
On considère F = + G, où ( 1 , . . . , m ) 2 K m et où G est une
k=1 (X )k
fraction rationnelle n’admettant pas pour pôle.
On donne ici quelques méthodes permettant de calculer les coe¢ cients.
56CHAPTER 4 POLYNÔMES ET FRACTIONS RATIONNELLES

Cas d’un pôle simple

Il existe 2 K tel que F = + G. Voici trois méthodes permettant de


X
calculer le coe¢ cient .
A A( )
Posons F = , avec A ( ) 6= 0 et Q ( ) 6= 0. Alors = .
(X )Q Q( )
Dans la pratique, on multiplie F par (X ), et après simpli…cation on
substitue à X.
Cette méthode est très adaptée au cas où B est factorisé.
Avec la fonction rationnelle associée à F , on écrit : = lim (x )
x!

F (x).
Cette méthode est plutôt utilisée quand K = R.
A A( )
Posons F = , avec A ( ) 6= 0. alors = 0 .
B B ( )
Cette méthode est très adaptée au cas où B n’est pas factorisé.
Un cas classique est B = X n 1: les pôles sont les racines n ièmes de
l’unité.

Cas d’un pôle double

Il existe , 2 K tels que F = + + G.


(X )2 X
A A( )
Posons F = 2 , avec A ( ) 6= 0 et Q ( ) 6= 0. Alors = .
(X ) Q Q( )
Avec la fonction rationnelle associée à F , on écrit :

= lim (x )2 F (x).
x!

A 2A ( )
Posons F = , avec A ( ) 6= 0. alors = .
B B ( )
Une fois déterminé, on peut écrire:
H=F = + G.
(X )2 X
Ou bien n’est pas un pôle de H ( donc = 0 et c’est …ni ), ou bien
est un pôle simple de H et on est ramené à des méthodes connes.
4.2 FRACTIONS RATIONNELLES 57

Cas d’un pôle multiple


P
m
k
F = + G.
k=1 (X )k
1
On peut facilement calculer le coe¢ cient m de :
(X )m
A
Posons F = , avec A ( ) 6= 0 et Q ( ) 6= 0. Alors m =
(X )m Q
A( )
.
Q( )
On peut aussi écrire m = lim (x )m F (x).
x!
A m!A ( )
Posons F = , avec A ( ) 6= 0. alors m = ( méthode
B B (m) ( )
rarement utilisée ).
Une fois m déterminé, on peut écrire:
P1
m
k
H=F = + G.
(X )m k=1 (X )k
On est alors en mesure de calculer m 1 , etc. Cette méthode est trop
lourde pour m " grand ", et on préfère dans ce cas revenir à
A
F = , avec A ( ) 6= 0 et Q ( ) 6= 0.
(X )m Q
Pm
k A P
m
L’égalité F = k
+G devient = k (X )m k +(X )m G.
k=1 (X ) Q k=1
La substitution qui consiste à remplacer X par X + donne alors:
A ( + X) = ( m + m 1 X + : : : + 1 X m 1 ) Q ( + X) + X m G (X + ).
On peut alors calculer successivement m , : : :, 2 , 1 par une méthode de
division suivant les puissances croissantes de A ( + X) par Q ( + X), mais
cette méthode n’est pas au programme de L1 .

4.2.4 Décomposition en éléments simples


Proposition et dé…nition: Tout élément F 2 K (X) s’écrit de manière
unique F = P + Q, où P est un polynôme, et G une fraction rationnelle de
degré < 0.
On dit que P est la partie entière de F .
A
Remarque: Posons F = , et soit A = BQ + C la division euclidienne
B
de A par B. On a l’égalité
58CHAPTER 4 POLYNÔMES ET FRACTIONS RATIONNELLES

C
F =Q+ avec deg(C) < deg(B).
B
On admettra la proposition suivante:
A
Proposition ( décomposition dans C (X) ): Soit F = une fraction
B
rationnelle à coe¢ cients complexes. Soient 1 , . . . , p les pôles distincts de
F , avec les multiplicités respectives r1 , . . . , rp . Alors F s’écrit de manière
unique
!
P
p P
rk
k, j
F =E+ j
k=1 j=1 (X k)

où E est la partie entière de F et où les k, j sont des éléments de C.


Cette écriture est appelée décomposition en éléments simples de F dans
C (X).
Prk
k, j
N.B: Dans cette écriture, chaque somme j est la partie po-
j=1 (X k)
laire de F pour k .
Donnons maintenant quelques techniques facilitant la décomposition en
éléments simples pour compléter les méthodes vues précédemment.

Décomposition dans C (X) d’une fraction à coe¢ cients réels


A
Soit F = 2 R (X).
B
L’idée est de considérer F comme élément de C (X) et la décomposer en
tant que telle.
Si et sont deux pôles conjugués non réels de F , de multiplicité m, les
parties polaires respectives s’écrivent:

P
m
k P
m
k
k
et
k=1 (X ) k=1 (X )k

ce qui permet de diminuer de moitié environ le nombre d’inconnues.


On peut aussi faire la décomposition de F dans C (X) pour obtenir sa
décomposition dans R (X) après regroupement des termes conjugués. Cette
méthode n’est envisageable que si les pôles non réels sont de multiplicité 1.
4.2 FRACTIONS RATIONNELLES 59

Méthode de parité et de l’imparité


Si F est paire ou impaire, les transformations

X 7! F ( X) ou X 7! F ( X)

permettent de déduire des relations sur les coe¢ cients à calculer ( le


nombre d’inconnues diminue environ de moitié ).

Méthode d’injection des valeurs particulières


Quand il reste peu de coe¢ cients à calculer, il peut être intéressant d’injecter,
dans l’égalité entre F et sa décomposition, une ou plusieurs valeurs qui ne
soient pas des pôles de F .
F étant élément de R (X), on peut injecter la valeur complexe i, et
l’identi…cation donnera deux relations entre les coe¢ cients réels inconns.

Méthode de limite
On suppose ici que deg(F ) < 0 ( la partie entière est donc nulle ).
k
La décomposition de F fait apparaître des termes de type ou
X k
kX+ bk
.
X2 + kX + k
Le calcul de lim xF (x) donne une relation liant les coe¢ cients k et k .
x!1
Cette méthode est intéréssante quand il ne reste plus que un ou deux
coe¢ cients à calculer.
Chapter 5

Espaces vectoriels

Dans ce chapitre, (K, + , ) désignera un corps commutatif; en particulier


K = R ou C. Comme application à des situations concrètes, on peut noter
que la théorie des codes de télécommunication utilise largement les espaces
vectoriels sur les corps …nis Z pZ.

5.1 Espaces vectoriels (e.v)


Dé…nitions: Soit E un ensemble muni d’une loi de composition interne
notée . On dit que E a une structure d’espace vectoriel sur K si:
1) (E, ) est un groupe abélien,
2) il existe une loi " : " externe à coe¢ cients dans K ( multiplication par
un scalaire ):

K E !E
( , x) 7 ! :x

satisfaisant les quatre axiomes suivants:


(i) 8 2 K, 8 (x, y) 2 E 2 , : (x y) = ( :x) ( :y),
(ii) 8 ( , ) 2 K 2 , 8x 2 E, ( + ) :x = ( :x) ( :x),
(iii) 8 ( , ) 2 K 2 , 8x 2 E, ( ) :x = : ( :x),
(iv) 8x 2 E, 1K :x = x.
Si E a une structure d’espace vectoriel sur K, alors les éléments de E
sont appelés vecteurs et ceux de K des scalaires.
Remarques:

61
62 CHAPTER 5 ESPACES VECTORIELS

- On dira souvent un K-espace vectoriel au lieu d’un espace vectoriel sur


K,
- Généralement, la loi " " dans E est aussi notée +, et l’on omet le
symbole pour écrire le produit de deux éléments de K.
- Tout corps commutatif a une structure d’espace vectoriel sur lui-même
lorsque l’on identi…e la loi externe et la multiplication interne.
- Un espace vectoriel est donc un triplet (E, , :), mais on parlera souvent
d’un espace vectoriel E en sous-entendant les lois " " et " : " quand il est
clair dans le contexte de quelles lois il s’agit.
Exemples: K n = f(x1 ,. . . , xn ) j xi 2 Kg, K 0 = f0g sont des K-espaces
vectoriels; l’ensemble F (X, K) des applicatons de X dans K ( où X est
un ensemble ) est un K-espace vectoriel; l’ensemble K [X] des polynômes en
une indéterminée et à coe¢ cients dans K, forme un K-espace vectoriel.
Conséquences de la dé…nition: Soit E un K-espace vectoriel. On a
les propriétés suivantes:
1) 8 2 K, 8x 2 E,( = 0K ou x = 0E ) =) :x = 0E
2) 8 2 K, 8 (x, y) 2 E 2 , : (x y) = :x :y;
en particulier : ( y) = :y.
3) 8 ( , ) 2 K 2 , 8x 2 E, ( ) :x = :x :x,
en particulier ( ) :x = :x
4) 8 2 K, 8x 2 E, ( :x = 0E ) () ( = 0K ou x = 0E ).
Démonstration: Soient (E, , :) un K-espace vectoriel, ( , ) 2 K 2 et
(x, y) 2 E 2 ; on a:
1) 0K :x = (0K + 0K ) :x = 0K :x + 0K :x, d’où 0K :x = 0E
:0E = : (0E + 0E ) = :0E + :0E , d’où :0E = 0E
2) : (x y) + y = : (x y + y) = :x, d’où : (x y) = :x :y.
En faisant x = 0E on obtient : ( y) = :y.
3) ( ) :x + x = ( + ) :x = :x, d’où ( ) :x = :x :x.
En faisant = 0K on obtient ( ) :x = :x.
4) C.N=)) Supposons :x = 0E .
Si 6= 0K alors 1 existe et on a

1 1 1
x = 1:x = ( ) :x = ( :x) = :0E = 0E .

Si x 6= 0E alors = 0K sinon

1 1 1
( 6= 0K , :x = 0E ) =) x = 1:x = ( ) :x = ( :x) = :0E = 0E ,
5.2 SOUS-ESPACES VECTORIELS (S.E.V) 63

ce qui contredit l’hypothèse.


C.S(=) Déjà démontrée: c’est la conséquence 1).
CQFD

5.2 Sous-espaces vectoriels (s.e.v)


Dé…nition: Un sous-ensemble F d’un espace vectoriel E est un sous-espace
vectoriel de E si muni des deux lois de E ( restreintes à F ) il devient un
espace vectoriel.
Proposition: Un sous-ensemble F d’un espace vectoriel E est un sous-
espace vectoriel de E si et seulement si on a:
(i) 0E 2 F
(ii) F est stable pour l’addition dans E i.e

8 (x, y) 2 F 2 , x + y 2 F

(iii) F est stable pour la multiplication externe sur E à coe¢ cients dans
K i.e

8 ( , x) 2 K F, x 2 F

Preuve: La condition nécessaire est évidente; la condition su¢ sante ré-


sulte du fait que l’addition et la multiplication par un scalaire ( dans E )
dé…nissent bien deux lois F F ! F et K F ! F et les axiomes
d’espace vectoriel sont alors véri…és dans F puisqu’ils le sont dans E. CQFD
Remarque: Les conditions (ii) et (iii) de la proposition précédente peu-
vent se résumer en une condition appelée stabilité par combinaison linéaire
de la manière suivante:

8 ( , ) 2 K 2 , 8 (x, y) 2 F 2 , ( x + y) 2 F .

On peut alors reformuler la proposition de la manière suivante:


Proposition: Un sous-ensemble F d’un espace vectoriel E est un sous-
espace vectoriel de E si et seulement si on a:
(i) 0E 2 F
(ii) F est stable par combinaison linéaire i.e

8 ( , ) 2 K 2 , 8 (x, y) 2 F 2 , ( x + y) 2 F .
64 CHAPTER 5 ESPACES VECTORIELS

Exemples: f0E g, E sont des sous-espaces vectoriels d’un espace vectoriel


E.
Le sous-ensemble des fonctions continues, ou dérivables, ou . . . est un
sous-espace vectoriel de F(R, C).
Théorème: L’intersection F \ G de deux sous-espaces vectoriels F et G
d’un K-espace vectoriel E est un sous-espace vectoriel de E.
Démonstration: Soient 2 K et (x, y) 2 (F \ G)2 ; on a:
F et G s.e.v de E, donc 09
E 2 F \G

x, y 2 F =) x + y 2 F =
=) x + y 2 F \ G
x, y 2 G =) x + y 2 G ;
( x 2 F et x 2 G) =) x 2 F \ G.
CQFD
On montrera en exercice que l’union de deux sous-espaces vectoriels est
un sous-espace vectoriel si et seulement si l’un contient l’autre.

5.3 Bases et dimension


Dans tout ce paragraphe on travaille dans un espace vectoriel E sur un corps
K que l’on pourra prendre égal à R. Ce paragraphe donne une dé…nition
précise de la notion de dimension d’un espace vectoriel et est fondamental
pour la suite. Le point clef est qu’un K-espace vectoriel E ( de dimension
…nie ) est toujours isomorphe à K n . Ceci généralise la notion de repère du
plan ( deux vecteurs ) et de l’espace ( trois vecteurs ).
Dé…nition:Une famille ( ou système ) de vecteurs est une suite ( …nie
dans la pratique ) de vecteurs indexés par un ensemble I
(dans la pratique on prend souvent I = f1, . . . , ng); on note (ei )i2I ou
fei gi2I une telle famille.
Dé…nitions: Soit A une partie de E.
Un vecteur u de E est combinaison linéaire d’éléments de A s’il existe a1 ,
. . . , an 2 A, 1 , . . . , n 2 K tels que

u= 1 a1 + ...+ n an .

L’ensemble de ces combinaisons linéaires est un sous-espace vectoriel de E


contenant A, appelé le sous-espace vectoriel engendré par A et noté V ect(A).
On dit que A est une partie génératrice ( ou un sous-ensemble générateur
) de E si V ect(A) = E.
5.3 BASES ET DIMENSION 65

Si F et G sont deux sous-espaces vectoriels de E, l’ensemble

F + G = fu 2 E j u = u1 + u2 avec u1 2 F et u2 2 G g

est le sous-espace vectoriel engendré par F [ G.


Une famille fei gi2I de vecteurs d’un espace vectoriel E est génératrice de
E si tout vecteur de E est une combinaison linéaire des ei .
Soit fu1 , . . . , um g une famille de vecteurs de E; V ect fu1 , . . . , um g désigne
l’ensemble des combinaisons linéaires des vecteurs u1 , . . . , um i.e

V ect fu1 , . . . , um g =
fu 2 E j 9 ( 1 ,. . . , m ) 2 K m : u = 1 u1 + . . . + m um g.

Proposition: Soit A une partie non vide de E. Le sous-espace de E


engendré par A est l’intersection des sous-espaces vectoriels de E contenant
A.
Le sous-espace de E engendré par A est donc le plus petit ( au sens de
l’inclusion ) sous-espace vectoriel de E contenant A.
Démonstration: On sait que tout sous-espace vectoriel est stable par com-
binaison linéaire, donc toute combinaison linéaire d’éléments de A appartient
à l’intersection des sous-espaces vectoriels de E contenant A. Inversement,
tout élément de l’intersection des sous-espaces vectoriels de E contenant A
est aussi un élément du sous-espace de E engendré par A ( car V ect(A) est
un sous-espace vectoriel de E contenant A ). CQFD
Remarques: Soit A une partie d’un K-espace vectoriel E.
V ect fg = f0E g i.e si A est vide alors V ect(A) = f0E g.
Si A est un sous-espace vectoriel de E alors V ect(A) = A.
Dé…nitions: Une famille fu1 , . . . , un g de vecteurs de E est liée s’il existe
1 , . . . , n 2 K non tous nuls tels que

1 u1 +. . . + n un = 0.

On dit aussi que les vecteurs ui sont linéairement dépendants.


Une famillefu1 , . . . , un g qui n’est pas liée est dite famille libre ou que les
vecteurs ui sont linéairement indépendants.
Conséquences: On laisse au lecteur le soin de montrer que:
toute famille contenant le vecteur nul est liée.
toute famille contenant deux vecteurs égaux est liée. Plus généralement,
une famille est liée si et seulement si l’un de ses vecteurs est combinaison
linéaire des autres vecteurs.
66 CHAPTER 5 ESPACES VECTORIELS

toute famille de laquelle on peut extraire une famille liée est liée.
toute sous-famille d’une famille libre est libre.
Lemme: Soient v1 , . . . , vn des vecteurs de E, et y1 , . . . , yp des vecteurs
qui sont combinaisons linéaires des vi .
Si p > n alors la famille fy1 ; : : : ; yp g est liée.
Démonstration: Démontrons par récurrence sur n.
Hypothèse de départ: Supposons n = 1.
Soit yi 2 fy1 ; : : : ; yp g, si yi = 0E alors la famille fy1 ; : : : ; yp g est liée;
si yi 6= 0E alors pour tout yj 2 fy1 ; : : : ; yp g avec i 6= j on a yi = i v1 et
j j
yj = j v1 avec ( i ; j ) 2 K K d’où yj = j v1 = ( i v1 ) = yi et par
i i
suite yj et yi sont linéairement dépendants; donc la famille fy1 ; : : : ; yp g est
liée.
Hypothèse de récurrence: Supposons que la propriété est vraie jusqu’au
rang (n 1) avec n > 1 et montrons qu’elle est vraie au rang n.
On écrit y1 = 1 v1 + : : : + n vn avec 1 , . . . , n 2 K; on peut supposer
que n 6= 0 quitte à changer la notation des indices ou l’ordre des termes.
Alors vn est combinaison linéaire de v1 , . . . , vn 1 et y1 . Donc il existe 2 ,
. . . , p 2 K tels que y2 2 y1 , . . . , yp p y1 soient combinaisons linéaires de
v1 , . . . , vn 1 . Par hypothèse de récurrence ils sont linéairement dépendants,
ce qui entraîne que y1 , . . . , yp sont linéairement dépendants. CQFD
Dé…nition: Une base de E est une famille fu1 , . . . , un g d’éléments de
E qui est libre et génératrice. Autrement dit, tout vecteur u de E s’écrit de
manière unique

u= 1 u1 + ::: + n un .

On dit alors que ( 1 ; : : : ; n ) est le n-uplet de coordonnées de u dans la


base fu1 , . . . , un g.
Exemples: Dans K n , posons ei = (0, . . . , 1, . . . , 0) où 1 se trouve à la
ie position. Alors (e1 , . . . , en ) est une base de K n , dite base canonique. Par
exemple la base canonique de R est feg avec e = 1; la base canonique de R2
est fe1 , e2 g avec e1 = (1, 0) et e2 = (0, 1).
La base canonique de l’ensemble Rn [X] des polynômes à une variable à
coe¢ cients dans R et de degré au plus n est f1, x, . . . , xn g.
Théorème (de la base incomplète): Soient fu1 , . . . , up g une famille libre
d’éléments de E et S une partie génératrice …nie de E. Il existe alors une
base fu1 , . . . , un g de E avec up+1 , . . . , un 2 S.
5.3 BASES ET DIMENSION 67

Démonstration: Si u1 , . . . , up et les éléments de S sont linéairement


indépendants, on a gagné; sinon un élément u de S est combinaison linéaire
des autres et des ui , on peut donc recommencer avec S fug. CQFD
Remarque: Le nom du théorème de la base incomplète provient du
fait qu’il indique que l’on peut compléter une famille libre en une base ( à
l’aide d’éléments d’une famille génératrice ). On pourrait aussi l’appeler "
théorème de la base extraite "puisqu’il dit aussi que l’on peut extraire une
base de toute famille génératrice.
Dé…nition: On dit que E est de dimension …nie s’il admet une famille
génératrice …nie.
Exemples: L’espace vectoriel K [X] n’est pas de dimension …nie sur K.
En e¤et, si fP1 , . . . , Pn g est une famille …nie de polynômes, soit d =max(deg (Pi )),
alors toute combinaison linéaire des Pi est un polynôme de degré d. Les
espaces K n et Rn [X] sont de dimension …nie (cf exemples de bases canoniques
).
Corollaire: Tout espace vectoriel de dimension …nie admet une base (
…nie ).
Démonstration: C’est une conséquence immédiate du théorème de la base
incomplète; on prend une partie génératrice …nie et on peut en extraire une
base. CQFD
Proposition: Toutes les bases d’un même espace vectoriel ont le même
cardinal.
Démonstration: Soient fu1 , . . . , un g et fv1 , . . . , vm g deux bases d’un
même espace vectoriel. Si on avait m > n, comme les vi sont combinaisons
des ui , on déduirerait du lemme prédédent que fv1 , . . . , vm g est liée, ce qui
n’est pas. On a donc établit que m n, et par symétrie n m et donc
m = n. CQFD
On peut donc dé…nir
Dé…nitions: Le cardinal d’une base de E s’appelle la dimension de E et
l’on note dimK E ou simplement dimE s’il n’y a pas de risque de confusion
sur K.
La dimension de l’espace engendré par un système de vecteurs fu1 , . . . , un g
s’appelle le rang du système i.e

rg(fu1 , . . . , un g) =dimV ect fu1 , . . . , um g.

Remarques:
dimf0E g = 0.
68 CHAPTER 5 ESPACES VECTORIELS

La dimension est l’invariant le plus important d’un espace vectoriel.


La dimension dépend du corps considéré. Par exemple on a dimR Rn = n,
dimC Cn = n, dimR Cn = 2n, dimR Rn [X] = n + 1.
Théorème: Supposons que dimE = n, alors:
(i) Toute famille libre d’éléments de E est de cardinal au plus n
( avec égalité si et seulement si c’est une base de E ).
(ii) Toute famille génératrice de E est de cardinal au moins n
( avec égalité si et seulement si c’est une base de E ).
Démonstration: (i) Une famille libre peut être complétée en une base de
cardinal n et a donc un cardinal n avec égalité si il n’y a pas besoin de
compléter, i.e si c’est une base.
(ii) Si une famille est génératrice, on peut en extraire une base de cardinal
n et a donc un cardinal n avec égalité si il n’y a pas besoin de compléter,
i.e si c’est une base. CQFD
En particulier, dans un espace de dimension n, le rang d’un système
fu1 , . . . , um g est toujours inférieur ou égal à min(m, n) et on a:
rg(fu1 , . . . , um g) = m si et seulement si fu1 , . . . , um g est libre
rg(fu1 , . . . , um g) = n si et seulement si fu1 , . . . , un g est générateur.
Corollaire: Soit fu1 , . . . , un g une famille d’éléments d’un espace vecto-
riel E de dimension n. Alors les conditions suivantes sont équivalentes:
(i) La famille fu1 , . . . , un g est libre,
(ii) La famille fu1 , . . . , un g est génératrice de E,
(iii) La famille fu1 , . . . , un g est une base de E.
On peut énoncer le corollaire de la manière suivante:
Une famille génératrice de n vecteurs d’un espace vectoriel E de dimen-
sion n constitue une base de E; Une famille libre de n vecteurs d’un espace
vectoriel E de dimension n constitue une base de E.
Démonstration: C’est une conséquence immédiate du théorème précé-
dent.
Théorème: Soient F et G deux K espaces vectoriels. Alors F G si et
seulement si tous les éléments d’une famille génératrice de F appartiennent
à G.
Démonstration:
C.N=)) Soit fu1 , . . . , un g une famille génératrice de F . Il est évident que
tous les ui appartiennent à G car ils appartiennent à F qui est par hypothèse
une partie de G.
C.S(=)Soit fu1 , . . . , un g une famille génératrice de F , et supposons que
tous les ui appartiennent à G. On a alors
5.4 SOMME DIRECTE; SUPPLÉMENTAIRES. 69

u 2 F =) 9 ( 1 ,. . . , n ) 2 K n : u = 1 u1 +. . . + n un
=) u est combinaison linéaire des éléments de G,
=) u 2 G qui est un espace vectoriel donc stable par combinaison
linéaire.
CQFD.

5.4 Somme directe; Supplémentaires.


Dé…nition. La somme F1 +. . . +Fp ( p 2 ) de p sous-espaces vectoriels d’un
K espace vectoriel E est dite directe si la décomposition de tout vecteur u
de cette somme en la somme d’un vecteur de chaque sous-espace est unique.
p
On note alors F1 . . . Fp ou Fi au lieu de F1 +. . . +Fp , pour traduire
i=1
cette particularité.
Caractérisation:
1) Si p = 2, la somme F1 + F2 est directe si et seulement si F1 \ F2 = f0E g
i.e

F1 F2 () F1 \ F2 = f0E g

2) Si p > 2, la somme F1 +. . . +Fp est directe si et seulement si


8
>
> F1 \ F2 = f0E g
>
>
>
>
< (F + F ) \ F = f0 g
1 2 3 E
>
> ........................................
>
>
>
>
: (F + F + : : : + F ) \ F = f0 g
1 2 p 1 p E

N.B: On ne commettra pas l’erreur de croire que pour p > 2 , la somme


F1 +. . . +Fp est directe si et seulement si, pour tout i 6= j, Fi \ Fj = f0E g.
Cette condition est nécessaire mais pas su¢ sante.
Dé…nition: Soient F , G deux sous-espaces vectoriels d’un K espace
vectoriel E.
On dit que E est somme directe de F et G et on écrit E = F G, si
tout vecteur u de E s’écrit de façon unique u = u1 + u2 avec u1 2 F et
u2 2 G; cela équivaut à dire qu’on a F \ G = f0E g et E = F + G, ou encore
70 CHAPTER 5 ESPACES VECTORIELS

F \ G = f0E g et dim E = dim F + dim G si dimE est …nie. On peut résumer


en écrivant: 8
< F \ G = f0 g
E
E = F G ()
: E =F +G
8
< F \ G = f0 g
E
() ( si dimE est …nie ).
: dim E = dim F + dim G
Lorsque E = F G, on dit que G est supplémentaire de F dans E.
Proposition: Soit F un sous-espace vectoriel d’un espace vectoriel E de
dimension …nie, alors il existe un autre sous-espace vectoriel G de E tel que
E = F G.
Démonstration: On choisit une base de F , disons fe1 , . . . , em g que l’on
complète en une base de E, disons fe1 , . . . , en g; alors le sous-espace vectoriel
G engendré par fem+1 , . . . , en g répond à la question. CQFD
Remarque: Un supplémentaire n’est pas unique; un décompte des car-
dinaux des diverses bases montre que la dimension du supplémentaire est
indépendante du choix du supplémentaire, et si E = F G alors
dim E = dim F + dim G.
Proposition: Soient E et F deux K espaces vectoriels de dimension
…nie.
1) Si F E alors dim F dim E, avec égalité si et seulement si E = F .
2) dim (E F ) = dim E + dim F
3) dim (E F ) = dim E + dim F .
Démonstration: Ces trois énoncés peuvent se démontrer en dénombrant
des bases de chacun des espaces vectoriels. Ainsi
1) On complète une base fe1 , . . . , em g de F en une base fe1 , . . . , en g de
E et bien sûr m n, l’égalité ayant lieu si E = F .
2) On constate que l’union d’une base de E et d’une base de F est disjointe
et donne une base de E F .
On sait que dim (E + F ) = dim E+dim F dim (E \ F ). Si la somme E+
F est directe, alors dim (E \ F ) = 0, et par suite la relation dim (E + F ) =
dim E + dim F dim (E \ F ) donne dim (E F ) = dim E + dim F .
3) On observe que si fe1 , . . . , en g est une base de E et ff1 , . . . , fm g est
une base de F alors
f(e1 , 0F ) , . . . , (en , 0F ) , (0E , f1 ) , . . . , (0E , fm )g est une base de E F .
CQFD
5.5 L’ALGORITHME DU PIVOT 71

Corollaire: Soient E et F deux K espaces vectoriels de dimension …nie


et de base repective BE et BF .
1) BE [ BF est une famille génératrice de E + F .
2) (rg (BE [ BF ) = dim E + dim F ) =) (E + F est directe) :
Démonstration:
1) Soit u un élément de E + F , il existe alors u1 2 E et u2 2 F tels
que u = u1 + u2 ; or u1 est combinaison linéaire des éléments de BE et u2 est
combinaison linéaire des éléments de BF , d’où u est combinaison linéaire des
éléments de BE [ BF qui est donc une famille génératrice de E + F .
2) D’après 1) on a E + F = Lin (BE [ BF ) d’où par dé…nition

rg (BE [ BF ) = dim (E + F )

et par suite

rg (BE [ BF ) = dim (E + F ) = dim E + dim F dim (E \ F ).

Ainsi
(rg (BE [ BF ) = dim E + dim F ) =) dim (E \ F ) = 0
=) (F + G est directe).

5.5 L’algorithme du pivot


Dé…nition: Soit S un système de vecteurs. Une opération élémentaire sur
S consiste à:
changer l’ordre des éléments de S,
multiplier un élément de S par un scalaire non nul,
ajouter à un élément de S une combinaison linéaire des autres éléments
de S.
Théorème: Soit S un système de vecteurs.
Le sous-espace engendré par S ( i.e V ect(S)) ne change pas si on e¤ectue
sur S une ou plusieurs des opérations élémentaires.
Démonstration: E¤ectuer ces opérations élémentaires donne toujours des
combinaisons linéaires des éléments de S, d’où l’énoncé. CQFD
On admettra la proposition suivante:
Proposition: Soient K n un espace vectoriel, et S 0 = fu1 , u2 , . . . , um g un
système de vecteurs non nuls de K n . Supposons les vecteurs de S 0 ordonnés
comme suit: pour chaque vecteur ui , si sa première composante non nulle
72 CHAPTER 5 ESPACES VECTORIELS

est xij , les vecteurs uk (k > i) ont tous la composante xkj nulle. Autrement
dit, si ui = (xi1 , xi2 , xi3 , . . . , xin ) avec 1 i m, on a un tableau de type
( quitte à changer l’ordre des indices ):

x11 x12 x13 ... x1m ... x1n u1


0 x22 x23 ... x2m ... x2n u2
0 0 x33 ... x3m ... x3n u3
... ... ... ... ... ... ... ...
0 0 0 ... xmm ... xmn um

S’il en est ainsi, alors S 0 est libre.


Pour transformer un système donné S en un système de type S 0 par la
méthode d’algorithme du pivot, on peut adopter le principe suivant:
Principe: La transformation d’un système donné S en un système de
type S 0 par la méthode d’algorithme du pivot peut exiger plusieurs étapes
dont chacune comprend:
a) une bonne disposition: on consigne les composantes des vecteurs dans
un tableau en commençant par les vecteurs dont la première composante non
nulle est la plus située à gauche.
b) une annulation de certains coe¢ cients du tableau: on choisit la pre-
mière ligne du tableau ( qu’on note li pour faciliter la compréhension ) dont
le premier coe¢ cient non nul xij est le plus situé à gauche et tel qu’il existe
d’autres coe¢ cients xkj non nuls avec k > i. On annule alors les xkj coe¢ -
cients des lignes lk en appliquant la formule lk ! lk + li ( i.e on remplace
lk par lk + li où est un scalaire convenablement choisi ).
On réitère ainsi les étapes jusqu’à ce que le premier coe¢ cient non nul de
la (i + 1)-éme ligne soit à droite de celui de la i-éme ligne.
Conséquences et applications: Soient S un système de vecteurs de
n
K , et S 0 le système obtenu après transformation de S par la méthode
d’algorithme du pivot. Alors:
1) Tous les systèmes obtenus dans les di¤érents tableaux lors de la trans-
formation de S en S 0 sont équivalents. Donc si l’un des systèmes est libre (
resp. lié ) alors tous les autres sont libres ( resp. liés ).
2) Si S 0 ne contient pas de ligne nulle alors S est libre ( il en est de même
pour S 0 et les autres systèmes équivalents ).
Exemples: Les systèmes
5.5 L’ALGORITHME DU PIVOT 73

S1 = f(0, 2, 1) , (1, 3, 2) , (3, 3, 1)g et


S2 = f(1, 2, 1, 2) , (0, 3, 2, 0) , (2, 1, 4, 4) , ( 1, 5, 1, 2)g
sont-ils libres?
Solution:
Pour S1 on a:

1 3 2 l1
3 3 1 l2
0 2 1 l3

1 3 2 l1
(1)
0 6 5 l2 = l2 3l1
0 2 1 l3

1 3 2 l1
0 2 1 l3
(1)
0 6 5 l2 = l2 3l1

1 3 2 l1
0 2 1 l3
(2) (1)
0 0 8 l2 = l2 3l3

Aucune ligne du dernier tableau n’est nulle, donc S1 est libre.


Pour S2 on a:
74 CHAPTER 5 ESPACES VECTORIELS

1 2 1 2 l1
2 1 4 4 l2
1 5 1 2 l3
0 3 2 0 l4

1 2 1 2 l1
(1)
0 3 2 0 l2 = l2 2l1
(1)
0 3 2 0 l3 = l3 + l1
0 3 2 0 l4

1 2 1 2 l1
(1)
0 3 2 0 l2 = l2 2l1
(2) (1) (1)
0 0 0 0 l3 = l3 l2
(1) (1)
0 0 0 0 l4 = l4 l2

Le dernier tableau contient des lignes nulles, donc S2 est lié.


3) Si S est lié, on peut déterminer les relations de dépendance linéaire
entre ses vecteurs en explicitant par " remontée " les lignes nulles du dernier
tableau.
Exemple: L’exemple précédent montre que S2 est lié; déterminons les
relations de dépendance linéaire entre ses vecteurs.
(1)
l4 = 0 () l4 l21 = 0 () l4 (l2 2l1 ) = 0, d’où la relation
2l1 l2 + l4 = 0.
(2) (1) (1)
l3 = 0 () l3 l2 = 0 () (l3 + l1 ) (l2 2l1 ) = 0, d’où la relation
3l1 l2 + l3 = 0.
Ainsi, les relations de dépendance linéaire entre les vecteurs de S2 sont:

2l1 l2 + l4 = 0 et 3l1 l2 + l3 = 0 .

4) L’algorithme de pivot permet de déterminer le rang de S ( i.e dim V ect(S)),


et aussi une base de V ect(S): le rang de S est le nombre de lignes non nulles
de S 0 , et une base de V ect(S) est la famille constituée des vecteurs non nuls
de S 0 .
Exemples: En reprenant les exemples traités au 2), on obtient:
5.5 L’ALGORITHME DU PIVOT 75

rg (S1 ) = dimV ect(S1 ) = 3 et rg (S2 ) = dimV ect(S2 ) = 2;

une base de V ect(S1 ) est f(1, 3, 2) , (0, 2, 1) , (0, 0, 8)g, et comme


S1 est libre c’est aussi une base de V ect(S1 );
une base de V ect(S2 ) est f(1, 2, 1, 2) , (0, 3, 2, 0)g.
5) L’algorithme de pivot permet de déterminer les équations de V ect(S)
i.e exprimer que des vecteurs appartiennent à V ect(S) sous la forme d’équations
linéaires reliant les composantes de ces vecteurs; pour cela les vecteurs de S
sont disposés verticalement. Deux cas se présentent:
Si la dernière étape de l’algorithme ne contient pas de ligne nulle alors
V ect(S) = K n , et il n’y a pas d’équation particulière à déterminer.
Si la dernière étape contient des lignes nulles, alors on explicite par
remontée ces lignes pour déterminer les équations linéaires reliant les com-
posantes des vecteurs de S.
Exemples: Soient les systèmes:

S1 = f (1, 3) , (3, 0)g et S2 = f(1, 2, 1) , (0, 2, 2) , (2, 2, 4)g.

Déterminer si possible les équations de V ect(S1 ) et V ect(S2 ).


Solution:
Pour V ect(S1 ) on a

1 3 x
3 0 y

1 3 x
0 9 y (1) = y 3x

Aucune ligne n’est nulle, donc V ect(S1 ) = R2 .


Pour V ect(S2 ) on a:
76 CHAPTER 5 ESPACES VECTORIELS

1 0 2 x
2 2 2 y
1 2 4 z

1 0 2 x
0 2 2 y (1) = y + 2x
0 2 2 z (1) = z x

1 0 2 x
0 2 2 y (1)
0 0 0 z (2) = z (1) y (1)

La dernière étape contient une ligne nulle, on peut alors déterminer une
équation de V ect(S2 ) en explicitant " par remontée " cette ligne. On a:
z (2) = 0 () z (1) y (1) = 0
() (z x) (y + 2x) = 0,
d’où l’équation 3x y + z = 0.
Ainsi
V ect(S2 ) = f(x, y, z) 2 R3 j 3x y + z = 0g.
6) Soient F et G deux sous-espaces vectoriels de K n . L’algorithme du
pivot permet de déterminer F + G, F \ G et aussi de voir si K n = F G.
Dans ce cas, on travaille avec la famille constituée de l’union des bases de F
et G.
Exemple1: Soient les systèmes:
S1 = f(0, 2, 1) , (1, 3, 2) , (3, 3, 1)g et
S2 = f(1, 2, 1) , (0, 3, 2) , (2, 1, 4)g.
On pose F = V ect(S1 ) et G = V ect(S2 ).
a) Déterminer si possible une base de F + G et celle de F \ G.
b) A-t-on R3 = F G ?
Solution:
a) D’après 4) une base de F est BF = f(1, 3, 2) , (0, 2, 1) , (0, 0, 8)g.
Détermination d’une base de G
5.5 L’ALGORITHME DU PIVOT 77

1 2 1 l1
2 1 4 l2
0 3 2 l3

1 2 1 l1
(1)
0 3 2 l2 = l2 2l1
0 3 2 l3

1 2 1 l1
(1)
0 3 2 l2 = l2 2l1
(1) (1)
0 0 0 l3 = l3 l2

Une base de G est donc BG = f(1, 2, 1) , (0, 3, 2)g.

Considérons le système:

S = BF [ BG = f(1, 3, 2) , (0, 2, 1) , (0, 0, 8) , (1, 2, 1) , (0, 3, 2)g


78 CHAPTER 5 ESPACES VECTORIELS

1 3 2 l1
1 2 1 l2
0 2 1 l3
0 3 2 l4
0 0 8 l5

1 3 2 l1
(1)
0 5 1 l2 = l2 l1
0 2 1 l3
0 3 2 l4
0 0 8 l5

1 3 2 l1
(1)
0 5 1 l2
7 (1) 2 (1)
0 0 l3 = l3 l
5 52
7 (1) 3 (1)
0 0 l4 = l4 + l2
5 5
0 0 8 l5

1 3 2 l1
(1)
0 5 1 l2
0 0 8 l5
7 (1) 2 (1)
0 0 l3 = l3 l
5 52
7 (1) 3 (1)
0 0 l4 = l4 + l2
5 5
1 3 2 l1
(1)
0 5 1 l2

0 0 8 l5
(2) (1) 7
0 0 0 l3 = l3 + l5
40
(2) (1) 7
0 0 0 l4 = l4 + l5
40
5.5 L’ALGORITHME DU PIVOT 79

Une base de F +G est la famille constituée des vecteurs lignes non nuls du
dernier tableau. Ainsi une base de F +G est f(1, 3, 2) , (0, 5, 1) , (0, 0, 8)g.
La dimension de F \ G est le nombre de lignes nulles du dernier tableau, et
la dimension de F + G est le nombre de lignes non nulles du dernier tableau.
Ainsi

dim(F \ G) = 2 et dim(F + G) = 3.

Pour déterminer une base de F \ G on explicite chaque ligne nulle du


dernier tableau et on garde dans chaque membre de l’égalité les vecteurs
appartenant à la même base. On a:
(2) (1) 7
l4 = 0 () l4 + l5 = 0
40
3 (1) 7
() l4 + l2 + l5 = 0
5 40
() 40l4 + 24 (l2 l1 ) + 7l5 = 0
() 24l1 7l5 = 24l2 + 40l4 = (24, 72, 104)
(2) (1) 7
l3 = 0 () l3 + l5 = 0
40
2 (1) 7
() l3 l2 + l5 = 0
5 40
2 7
() l3 (l2 l1 ) + l5 = 0
5 40
() 16l1 + 40l3 + 7l5 = 16l2 = (16, 32, 16).
Une base de F \ G est alors f(24, 72, 104) , (16, 32, 16)g ou d’après
le théorème précédent
1 1
(24, 72, 104) , (16, 32, 16) = f(3, 9, 13) , (1, 2, 1)g.
8 16
b) On a F \ G = V ect f(3, 9, 13) , (1, 2, 1)g 6= f0R3 g, donc on a pas
3
R = F G.
Exemple 2: Soient les systèmes S1 = f(1, 2) , (1, 3)g et S2 = f(1, 2)g.
On pose F = V ect(S1 ) et G = V ect(S2 ).
a) Déterminer si possible une base de F + G et celle de F \ G.
b) A-t-on R2 = F G ?
Solution:
a) On montre facilement que S1 = f(1, 2) , (1, 3)g est une base de F ,
mais il est préférable de considérer la base obtenue par l’algorithme:
80 CHAPTER 5 ESPACES VECTORIELS

1 2 l1
1 3 l2

1 2 l1
(1)
0 5 l2 = l2 l1

1
Ainsi BF = f(1, 2) , (0, 1)g i.e (1, 2) ,
(0, 5) .
5
Une base de G est BG = f(1, 2)g. Considérons la famille
S = BF [ BG = f(1, 2) , (0, 1) , (1, 2)g, on a:

1 2 l1
1 2 l2
0 1 l3

1 2 l1
(1)
0 4 l2 = l2 l1
0 1 l3

1 2 l1
(1)
0 4 l2
(1) 1 (1)
0 0 l3 = l3 l
42
Ainsi une base de F +G est f(1, 2) , (0, 4)g ou encore f(1, 2) , (0, 1)g.
(1)
Une base de F \ G est obtenue en explicitant l3 = 0. On a:
(1) 1 (1)
l3 = 0 () l3 l =0
42
1
() l3 (l2 l1 ) = 0
4
() l1 + 4l3 = l2 = (1, 2),
donc une base de F \ G est f(1, 2)g :
b) dim(F \ G) = 1 6= 0 = dim (f0R2 g), d’où F \ G 6= f0R2 g et par suite
on a pas R2 = F G.
Exemple 3: Soient les systèmes
S1 = f(1, 2, 1, 2) , (1, 0, 1, 1)g et S2 = f(1, 2, 0, 0) , (0, 1, 2, 1)g.
5.5 L’ALGORITHME DU PIVOT 81

On pose F = V ect(S1 ) et G = V ect(S2 ).

a) Déterminer si possible une base de F + G et celle de F \ G.

b) A-t-on R4 = F G?

Solution:

a)

1 2 1 2 l1
1 0 1 1 l2

1 2 1 2 l1
(1)
0 2 2 1 l2 = l2 l1

d’où BF = f(1, 2, 1, 2) , (0, 2, 2, 1)g.

Une base de G est BG = S2 = f(1, 2, 0, 0) , (0, 1, 2, 1)g.

Considérons la famille

S = BF [BG = f(1, 2, 1, 2) , (0, 2, 2, 1) , (1, 2, 0, 0) , (0, 1, 2, 1)g,

on a:
82 CHAPTER 5 ESPACES VECTORIELS

1 2 1 2 l1
1 2 0 0 l2
0 2 2 1 l3
0 1 2 1 l4

1 2 1 2 l1
(1)
0 4 1 2 l2 = l2 l1
0 2 2 1 l3
0 1 2 1 l4

1 2 1 2 l1
0 1 2 1 l4
0 2 2 1 l3
(1)
0 4 1 2 l2

1 2 1 2 l1
0 1 2 1 l4
(1)
0 0 6 1 l3 = l3 2l4
(2) (1)
0 0 9 2 l2 = l2 4l4

1 2 1 2 l1
0 1 2 1 l4
(1)
0 0 6 1 l3 = l3 2l4
1 (3) (2) 9 (1)
0 0 0 l2 = l2 l
2 63
Une base de F + G est
f(1, 2, 1, 2) , (0, 1, 2, 1) , (0, 0, 6, 1) , (0, 0, 0, 1)g.
Aucune ligne du dernier tableau n’est nulle, donc dim(F \ G) = 0, d’où
F \ G = f0R4 g qui n’admet pas de base.
b) Aucune ligne du dernier tableau n’est nulle, donc R4 = F G.

On appliquera la méthode d’algorithme du pivot pour résoudre plusieurs


5.5 L’ALGORITHME DU PIVOT 83

autres problèmes d’algèbre linéaire.


Chapter 6

Applications linéaires

Dans tout le chapitre E et F désigneront des espaces vectoriels sur le même


corps K.

6.1 Le K-espace vectoriel LK (E, F )


Dé…nitions: Soient E et F deux espaces vectoriels sur le même corps K.
Une application f de E dans F est dite K-linéaire ( ou morphisme de K-
espaces vectoriels ) si
(i) 8 (x, y) 2 E 2 , f (x + y) = f (x) + f (y)
(ii) 8 2 K, 8x 2 E, f ( :x) = :f (x)
ou encore si
8 ( , ) 2 K 2 , 8 (x, y) 2 E 2 , f ( :x + :y) = :f (x) + :f (y).
Notations et cas particuliers:
1) Si f : E ! F est une application K-linéaire, on dira souvent que
f est une application linéaire ( s’il n’y a pas ambigu¯¬té sur le corps K ) ou
que f est un homomorphisme de E dans F . L’ensemble des applications
K-linéaires de E dans F est noté LK (E, F ) ou simplement L (E, F ) s’il n’y
a pas ambigu¯¬té sur le corps K.
Un homomorphisme bijectif f : E ! F est appelé isomorphisme de E
sur F , et on dit que E et F sont isomorphes.
2) Soit f 2 LK (E, F ); si E = F on dit que f est un endomorphisme
de E et on pose LK (E, E) = LK (E). Un endomorphisme bijectif de E est
appelé automorphisme de E. L’ensemble des automorphismes de E est noté
GLK (E).

85
86 CHAPTER 6 APPLICATIONS LINÉAIRES

3) Soit f 2 LK (E, F ); si F = K on dit que f est une forme linéaire sur


E.
Conséquences des dé…nitions: Soient f , g 2 LK (E, F ) et 2 K.
On montrera en exercice que:
1) Muni des lois + et :, f + g et :f étant dé…nies par
8x 2 E, (f + g) (x) = f (x) + g(x)
8x 2 E, ( :f ) (x) = :f (x)
l’ensemble LK (E, F ) est un K-espace vectoriel.
2) f (0E ) = 0F et 8x 2 E, f ( x) = f (x)
3) Si f 2 LK (E, F ) et g 2 LK (F , G) alors g f 2 LK (E, G). Ainsi la
composée de deux applications linéaires est une application linéaire.
Exemples:
1) f : K ! K, x 7 ! ax avec a 2 K est une application linéaire; elle
est bijective si a 6= 0.
2) Soient a1 , . . . , an des réels, l’application

p : Rn ! R, x = (x1 ; : : : ; xn ) 7 ! a1 x1 + . . . + an xn

est linéaire.
Remarque: Soit fu1 , . . . , un g une base de E, se donner f 2 LK (E, F )
revient à se donner les n vecteurs vi = f (ui ) de F . En e¤et, pour tout
vecteur u = 1 u1 + : : : + n un de E on a alors f (u) = 1 v1 + : : : + n vn . On
a ainsi le théorème suivant:
Théorème: Soient fu1 , . . . , un g une base de E et f 2 LK (E, F ). Alors
(i) f est injective () ff (u1 ) , . . . , f (un )g est libre.
(ii) f est surjective () ff (u1 ) , . . . , f (un )g est génératrice.
(iii) f est bijective () ff (u1 ) , . . . , f (un )g est une base de F .
Démonstration:
(i) C.N =)) Supposons f injective.
Soient 1 ,: : :, n des scalaires tels que 1 f (u1 ) + : : : + n f (un ) = 0F , on
a alors
1 f (u1 ) + : : : + n f (un ) = 0F =) f ( 1 u1 + : : : + n un ) = 0F
=) ( 1 u1 + : : : + n un ) 2 ker f
=) ( 1 u1 + : : : + n un ) 2 f0E g
=) ( 1 u1 + : : : + n un ) = 0E
=) 1 = : : : = n = 0.
C.S (= ) Supposons ff (u1 ) ,. . . , f (un )g libre.
Soit u 2 ker f E, il existe alors des scalaires 1 ,: : :, n tels que
6.2 IMAGE, NOYAU D’UNE APPLICATION LINÉAIRE 87

u= 1 u1 + ::: + n un .

On a
f (u) = 0F =) f ( 1 u1 + : : : + n un ) = 0F
=) 1 f (u1 ) + : : : + n f (un ) = 0F
=) 1 = : : : = n = 0
d’où u = 0E ; ce qui montre que ker f = f0E g i.e que f est injective.
(ii) C.N =) ) Supposons f surjective.
Soit v 2 F , il existe alors u = ( 1 u1 + : : : + n un ) 2 E tel que v = f (u);
d’où v = 1 f (u1 ) + : : : + n f (un ) ce qui montre que ff (u1 ) , . . . , f (un )g
est génératrice.
C.S (= ) Supposons que ff (u1 ) , . . . , f (un )g est génératrice.
Soit v 2 F , il existe alors des scalaires 1 ,: : :, n tels que

v= 1f (u1 ) + : : : + nf (un );

d’où v = f ( 1 u1 + : : : + n un ) = f (u) avec u = ( 1 u1 + : : : + n un ) 2 E


et par suite f est surjective.
(iii) f est bijective () f est injective et surjective
() ff (u1 ) , . . . , f (un )g est libre et génératrice
() ff (u1 ) , . . . , f (un )g est une base de F .
CQFD

6.2 Image, noyau d’une application linéaire


Soit f 2 LK (E, F ); on montre que:
si E1 est un sous-espace vectoriel de E, f (E1 ) est un sous-espace vectoriel
de F
si F1 est un sous-espace vectoriel de F , f 1 (F1 ) est un sous-espace
vectoriel de E.
En particulier, nous obtenons les dé…nitions suivantes:
Dé…nitions: Soit f 2 LK (E, F ).
L’ensemble f (E) = fy 2 F j 9x 2 E, y = f (x)g est un sous-espace vec-
toriel de F , appelé image de f et noté Im f . Ainsi

Im f = fy 2 F j 9x 2 E, y = f (x)g

L’ensemble f 1 (f0F g) = fx 2 E j f (x) = 0F g est un sous-espace vecto-


riel de E, appelé noyau de f et noté kerf . Ainsi
88 CHAPTER 6 APPLICATIONS LINÉAIRES

Kerf = fx 2 E j f (x) = 0F g

Théorème des trois dimensions ( ou théorème noyau-image ): Soit


f 2 LK (E, F ). Si E est de dimension …nie, alors

dim E = dim ker f + dim Im f

Démonstration: Supposons dimE = n. Comme Kerf est une partie de


E, Kerf est aussi de dimension …nie.
Posons dimkerf = r n, et montrons que dimImf = n r.
Soit fw1 , . . . , wr g une base de Kerf ; étendons-la à une base

fw1 , . . . , wr , v1 , . . . , vn r g

de E.
Le théorème est démontré si nous montrons que B = ff (v1 ) , . . . , f (vn r )g
est une base de Imf .
- Montrons que B engendre Imf .
u 2 Im f =) 9v 2 E : u = f (v). Comme v 2 E, il existe des scalaires ai
et bi tels que

v = a1 w1 + : : : + ar wr + b1 v1 + : : : + bn r vn r ;

d’où u = b1 f (v1 ) + : : : + bn r f (vn r ) car les wi 2 Kerf .


- Montrons que B est libre.
Soient des scalaires 1 , . . . , n r tels que

1f (v1 ) + : : : + n rf (vn r ) = 0;

on a alors

f ( 1 v1 + : : : + n r vn r ) = 0,

d’où 1 v1 + : : : + n r vn r 2 Kerf et par suite il existe des scalaires 1,


. . . , r tels que

1 v1 + ::: + n r vn r = 1 w1 + ::: + r wr

i.e 1 v1 + : : : + n r vn r 1 w1 ::: r wr = 0.
Comme fw1 , . . . , wr , v1 , . . . , vn r g est une base on déduit que
6.2 IMAGE, NOYAU D’UNE APPLICATION LINÉAIRE 89

1 = ... = n r = 1 = ...= r = 0.

Ainsi B = ff (v1 ) , . . . , f (vn r )g est une base de Imf , donc

dim Im f = n r = dim E dim ker f ,

i.e

dim E = dim ker f + dim Im f .

CQFD
Corollaire: Soit f un endomorphisme de E, et on suppose que dimE
est …nie. Alors les énoncés suivants sont équivalents:
(i) f est injectif
(ii) f est surjectif
(iii) f est bijectif
Démonstration: on a dim E = dim ker f + dim Im f .
f est injectif() ker f = f0E g
() dim ker f = 0
() dim Im f = dim E
() f est surjectif
() f est bijectif.
CQFD
Dé…nition: Soit f 2 LK (E, F ) avec dimE …nie, et F de dimension
quelconque.
On appelle rang de f , l’entier noté rg(f ) dé…ni par:

rg(f ) = dim Im f = dim f (E)

Autrement dit, si fu1 , . . . , un g est une base de E, alors

rg(f ) = rg(ff (u1 ) , . . . , f (un )g).

Conséquences du théorème noyau-image: On montre en exercice


que:
1) Soit f 2 LK (E, F ) où E et F sont de dimensions …nies. On a
a) rg(f ) = dim E si et seulement si f est injective.
b) rg(f ) = dim F si et seulement si f est surjective.
Et comme situation particulière on a
90 CHAPTER 6 APPLICATIONS LINÉAIRES

2) Soit f 2 LK (E, F ) où E et F sont de dimensions …nies tels que


dim E = dim F .
Alors les propriétés suivantes sont équivalentes:
a) f est injective
b) f est surjective
c) f est bijective
d) ker f = f0E g
e) Imf = F
g) rg(f ) = dim E = dim F .
Chapter 7

Matrices

Ce chapitre introduit un outil de calcul très commode: les matrices. Celles-ci


dé…nies comme un tableau de nombres mais on en verra une interprétation
plus abstraite. La technique centrale de ce chapitre est celle dite du " pivot
de Gauss " qui est à la fois simple et e¢ cace.
Dans tout le chapitre K désignera un corps commutatif.

7.1 Généralités
Dé…nitions: Soient m, n deux entiers 1.
On appelle matrice m n (on dit aussi matrice de type (m, n)) à coe¢ -
cients dans K un tableau à m lignes et n colonnes d’éléments de K:
0 1
a a : : : a1n
B 11 12 C
B .. .. .. C
A=B . . . C ( avec des parenthèses ),
@ A
am1 am2 : : : amn
2 3
a11 a12 : : : a1n
6 7
6 .. .. .. 7
ou encore A = 6 . . . 7 ( avec des crochets ).
4 5
am1 am2 : : : amn

On note parfois brièvement A = (aij )1 i m et on dit que m n est la


1 j n
taille de A. Les aij s’appellent les coe¢ cients de la matrice A; on dit que

91
92 CHAPTER 7 MATRICES

aij est le coe¢ cient d’indices (i, j) de A, i est le numéro de la ligne et j le


numéro de la colonne. Le vecteur (a1j , . . . , amj ) de K m est appelé j ième
vecteur colonne de A; dé…nition analogue pour les vecteurs lignes.
Si m = n, on dit que A est une matrice carrée d’ordre n. Si n = 1, A est
une matrice colonne; si m = 1, une matrice ligne.
L’ensemble Mm;n (K) des matrices de type (m, n) à coe¢ cients dans K
s’identi…e à K mn ; il est donc muni d’une structure d’espace vectoriel sur K,
de dimension mn.
Cas particuliers:
La matrice nulle m n est la matrice dont tous les coe¢ cients sont nuls;
on la note Omn ou simplement O si le contexte rend claire sa taille.
La matrice identité m m est la matrice dont tous les coe¢ cients sont
nuls sauf ceux situés sur la diagonale principale qui valent 1; on la note Im
ou simplement I si le contexte rend clair sa taille. Ainsi

0 1
1 0
B C
B C
B 1 C
I=B
B ..
C (où les coe¢ cients laissés en blanc sont nuls)
C
B . C
@ A
0 1

Une matrice diagonale m m est une matrice dont tous les coe¢ cients
sont nuls sauf ceux situés sur la diagonale principale. Ainsi

0 1
a11 0
B C
B C
B a22 C
D=B
B ...
C (où les coe¢ cients laissés en blanc sont nuls)
C
B C
@ A
0 amm

Une matrice triangulaire supérieure ( resp. inférieure) m m est une


matrice dont tous les coe¢ cients sont nuls sauf ceux situés sur la diagonale
principale et au-dessus (resp. au-dessous) de la diagonale principale. Ainsi
7.2 OPÉRATIONS SUR LES MATRICES 93
0 1 0 1
a11 a11 0
B C B C
B C B C
B a22 C B a22 C
T1 = B
B ...
C, T2 = B
C B ...
C
C
B C B C
@ A @ A
0 amm amm
Triangulaire supérieure Triangulaire inférieure

( où les coe¢ cients laissés en blanc sont nuls et les étoiles désignent des
coe¢ cients quelconques ).
Exemples:
0 1
1 5 0 3
A=@ A est une matrice 2 4 (on dit encore une matrice de type (2, 4));
6 8 4 2
le coe¢ cient a22 est égal à 8, alors que a14 = 3.

7.2 Opérations sur les matrices


7.2.1 Addition
Si A = (aij ) et B = (bij ) sont des matrices m n alors A + B est une
matrice m n dont les coe¢ cients sont donnés par cij = aij + bij .
Exemple:
0 1 0 1 0 1
1 5 2 5 0 3 4 5 5
@ A+@ A=@ A
6 8 4 8 4 2 14 12 6

7.2.2 Multiplication par un scalaire


si A = (aij ) est une matrice m n et un scalaire, alors A est une matrice
m n dont les coe¢ cients sont donnés par cij = aij .
Exemple:
0 1 0 1
1 5 2 3 15 6
3@ A=@ A
6 8 4 18 24 12
94 CHAPTER 7 MATRICES

7.2.3 Multiplication de deux matrices


Cette opération est la plus intéressante ( et la plus compliquée ).
Si A = (aij ) et B = (bij ) sont des matrices m n et n p respectivement,
alors AB est une matrice m p dont les coe¢ cients sont donnés par cij =
Pn
aik bkj .
k=1
La multiplication de deux matrices n’est donc dé…nie que si le nombre de
colonnes de la première est égal au nombre de lignes de la seconde; et pour
simpli…er on écrit

(m, n) (n, p) = (m, p)


Le produit de deux matrices s’obtient en faisant le produit de chaque
ligne
0de la première matrice 1 par les colonnes de la seconde.
0 1
B a 11 : : : : : : a 1n C 0 1 c : : : c1p
B . C B 11 C
B .. C B b11 : : : b1j : : : b1p B
C B C
B CB .. .. .. C B C
B CB . . . C B C
B a ::: ::: a CB C=B cij C
B i1 in CB . . . C B C
B CB .. .. .. C C
B . C@ A B C
B .. C B C
B C b : : : b : : : b @ A
@ A n1 nj np
a ::: ::: a cm1 : : : cmp
m1 mn

Exemple:
0 1 0 1
1 2 0 1 9 1
B C 5 3 B C
B C A=B C
B 0 1 C@ B 2 1C
@ A 2 1 @ A
2 0 10 6
Remarques:
On peut faire le produit de matrices par blocs (de tailles compatibles):
0 10 1 0 1
A B A B AA1 + BC1 AB1 + BD1
@ A@ 1 1 A = @ A
C D C1 D1 CA1 + DC1 CB1 + DD1
où A, B, C, D, A1 , B1 , C1 , D1 sont des matrices, en les multipliant
comme des scalaires, mais en faisant attention à ne pas les faire commuter car
la multiplication des matrices n’est pas commutative: en général AB 6= BA;
par exemple:
7.3 ANNEAU DES MATRICES CARRÉES 95
0 10 1 0 1 0 1 0 10 1
1 1 0 1 1 2 1 0 0 1 1 1
@ A@ A=@ A 6= @ A=@ A@ A
1 0 1 1 0 1 0 1 1 1 1 0

Pour toute matrice A de taille n p on a Omn A = Omp , et pour toute


matrice B de taille s m on a BOmn = Osn
Pour toute matrice A de taille m n on a Im A = A = AIn .
Proposition: Soient A, B, C des matrices et un scalaire. Les opéra-
tions (quand elles sont dé…nies) sur les matrices véri…ent les règles suivantes
a) Distributivité
A (B + C) = AB + AC et (A + B) C = AC + BC
b) Associativité
A (BC) = A (BC)
c) Compatibilité
(AB) = ( A) B = A ( B)
Démonstration: La véri…cation ne présente pas de di¢ culté.

7.3 Anneau des matrices carrées


On note simplement Mn (K) l’espace Mn;n (K) des matrices carrées d’ordre
n à coe¢ cients dans K. Il est muni d’une loi de produit qui est associative,
distributive par rapport à l’addition et possède un élément unité, à savoir la
matrice In . L’ensemble Mn (K) muni de l’addition et de la multiplication
est donc un anneau; si n = 1 c’est un corps "égal" à K, si n 2 c’est un
anneau non commutatif qui n’est pas un corps. En e¤et, on a déjà vu que
l’anneau n’est pas commutatif si n = 2 et de même ce n’est pas un corps car
0 10 1
0 1 1 0
@ A@ A = O22
0 0 0 0

est nul sans qu’aucun facteur ne soit nul.


Il est donc intéressant de chercher si une matrice a un inverse. Une matrice
A est dite inversible s’il existe une matrice B telle que AB = BA = I; on pose
alors B = A 1 . En fait l’une des égalités AB = I ou BA = I su¢ t à entraîner
l’autre. Un intérêt clair du calcul de l’inverse d’une matrice (quand elle
existe) est la résolution des systèmes d’équations linéaires associés: en e¤et,
si A est inversible alors AX = B équivaut à X = A 1 B. Il est néanmoins
96 CHAPTER 7 MATRICES

rare qu l’on ait recours à cette méthode: tout d’abord elle ne s’adapte qu’à
des cas particuliers et ensuite il existe une méthode permettant de traiter
tous les cas.

7.4 La méthode du pivot


On décrit une procédure de résolution des systèmes linéaires: l’idée est de se
ramener à un système triangulaire que l’on peut ensuite résoudre facilement.

7.4.1 Matrices échelonnées


Dé…nition: Une opération élémentaire sur les lignes d’une matrice consiste
à:
Remplacer une ligne Li par la ligne Li + Lj ( avec i 6= j ).
Echanger deux lignes.
Multiplier une ligne par un scalaire non nul.
Remarque: en combinant ces opérations, on voit qu’on peut remplacer
Li par Li + Lj .
Dé…nition: Une matrice est échelonnée si
(i) Le premier coe¢ cient non nul d’une ligne est 1 ( on dit que c’est un
pivot ).
(ii) Le premier coe¢ cient non nul de la (i + 1) éme ligne est à droite de
celui de la i éme ligne.
(iii) Les coe¢ cients au-dessus d’un pivot sont nuls.
Exemples: 0 1
0 1 1 0 0 6 8 4
1 8 0 0 0 B C
B C B C
B C B0 1 0 3 2 0 C
B 0 0 1 4 0 C et B B
C sont échelonnées.
C
@ A B0 0 1 0 9 4C
0 0 0 0 1 @ A
0 0 0 0 0 0
Remarques: Dans une matrice échelonnée, une ligne est soit nulle soit
de la forme (0, . . . , 0, 1, ? , . . . , ?); si une ligne est nulle, toutes les lignes
situées en dessous sont nulles.
Indiquons comment en pratique, on peut appliquer des transformations
élémentaires à n’importe quelle matrice pour la rendre échelonnée: on choisit
un coe¢ cient non nul situé le plus à gauche possible; par multiplication par
7.4 LA MÉTHODE DU PIVOT 97

un scalaire et échange des lignes on se ramène au cas où ce coe¢ cient est 1 et


est situé sur la première ligne. En ajoutant à chacune des lignes un multiple
adéquat de la première ligne on fait apparaître des zéros en dessous du pivot
1 de la première ligne. On répète l’opération sans toucher la première ligne
et au bout d’un certain temps on arrive à une matrice du type:
0 1
0::: 0 1 ?::: ::::::?
B C
B C
B 0::: 0 0 1 ? ::: ::::::? C
@ A
0::: 0 0 0:::0 1 ? :::?
Et il ne reste qu’à faire apparaître des zéros au dessus de chaque pivot,
ce qui peut se faire en retranchant un multiple adéquat de la ligne du pivot.

7.4.2 Application de la méthode du pivot


Résolution des systèmes d’équations linéaires
On peut juxtaposer une matrice m n et une matrice m r pour obtenir
une matrice m (n + r). Si A et B sont les deux matrices initiales, on note
la nouvelle matrice (A j B).
Exemples:
0 1 0 1 0 1
1 8 2 2 6 9 0 1 8 2 2 6 9 0
Si A = @ A, B = @ A alors (A j B) = @ A.
0 7 5 0 9 0 7 0 7 5 0 9 0 7
Les matrices permettent de compacter des formules et donc de les ma-
nipuler de façon plus e¢ cace; une application de cela est la résolution des
systèmes d’équations linéaires, i.e des systèmes du type:
8
>
> a x + : : : + a1n xn = b1
>
< 11 1
..
S: .
>
>
>
: a x + ::: + a x = b
m1 1 mn n m

On peut réécrire un tel système en posant A = (aij ) c’est la matrice


associée 0
au système
1 S, 0 1
x b
B 1C B 1 C
B . C B . C
X = B .. C et B = B .. C alors le système S équivaut à :
@ A @ A
xn bm
98 CHAPTER 7 MATRICES

AX = B

Proposition: Considérons le système linéaire

S : AX = B (i)

Supposons que l’on passe de la matrice A1 = (A j B) à la matrice A2 =


(A0 j B 0 ) par une succession d’opérations élémentaires, alors les solutions du
système linéaire

S 0 : A0 X = B 0 (ii)

sont les mêmes que celles du système S; on dit que les deux systèmes sont
équivalents.
Démonstration: Echanger l’ordre de deux équations ou en multiplier une
par un scalaire non nul, ne change pas les solutions; passer de deux équations
L1 = L2 = 0 à deux autres équations L1 + L2 = L2 = 0 n’en change pas les
solutions. CQFD
Exemple: Soit le système d’équations linéaires
8
>
> x1 + 2x3 + 3x4 = 4
>
<
S: x1 + x2 x3 + x4 = 0
>
>
>
: 2x + x
1 2 3x + 7x = 2
3 4

Transformons la matrice
0 1
1 0 2 3 4
B C
B C
(A j B) = B 1 1 1 1 0 C
@ A
2 1 3 7 2

Indiquons par une ‡èche le fait de passer à une autre matrice ( par une
opération élémentaire
0 ). 1 0 1
1 0 2 3 4 1 0 2 3 4
B C B C
B C B C
(A j B) = B 1 1 1 1 0 C ! B 0 1 3 2 4C
@ A @ A
2 1 3 7 2 0 1 7 1 6
7.4 LA MÉTHODE DU PIVOT 99
0 1
1 0 2 3 4
B C
B C
!B0 1 3 2 4 C = (A0 j B 0 )
@ A
0 0 4 3 2
0 0
Le système AX = B possède les 8 mêmes solutions que A X = B i.e
8 9
> >
> x = x4 + 3
>
> x + 2x + 3x = 4 >
> 1
< 1 3 4
< 2
17 5
x2 3x3 2x4 = 4 d’où x2 = x4
>
> >
> 4 2
> >
: 4x3 + 3x4 = 2 : x3 = 3 x4 + 1
>
4 2
Voyons maintenant quelle est la forme la plus simple que l’on puisse
obtenir pour un système linéaire.
Théorème: Soit A0 X = B 0 un système d’équations linéaires tel que la
matrice (A0 j B 0 ) soit échelonnée.
(i) Le système possède une solution si et seulement si il n’y a pas de pivot
sur la dernière colonne.
(ii) S’il n’y a pas de pivot sur la dernière colonne, la solution générale
du système s’obtient en …xant arbitrairement chacune des inconnues xi telles
que la i-ème colonne ne contienne pas de pivot et en calculant chacune des
autres xi en fonction de celles-là grâce à l’équation correspondant à la i-ème
ligne.
Exemples: Soit à résoudre les systèmes précédents par des matrices
échelonnées:
8 8
>
> x1 + 2x3 + 3x4 = 7 >
> x + 2x2 + 3x3 = 3
>
< >
< 1
S : x1 + x2 x3 + x4 = 2 , S1 : x1 + x2 x3 = 1 et
>
> >
>
>
: 2x + x >
: 2x + x
1 2 3x3 + x4 = 3 1 2 x3 = 0
8
>
> x + 2x2 + 3x3 = 3
>
< 1
S2 : x1 + x2 x3 = 1
>
>
>
: 2x + 3x + 2x = 0
1 2 3
Pour S on0 a: 1 0 1
1 0 2 3 7 1 0 2 3 7
B C B C
B C B C
(A j B) = B 1 1 1 1 2 C ! B 0 1 3 2 5 C
@ A @ A
2 1 3 1 3 0 1 7 5 11
100 CHAPTER 7 MATRICES
0 1 0 1
1 0 2 3 7 1 0 2 3 7
B C B C
B C B C
!B0 1 3 2 5 C ! B0 1 3 2 5C
@ A @ A
3 3
0 0 4 3 6 0 0 1 4 2
0 1
3
1 0 0 4
B 2 C
B C
!B0 1 0 1 1 C = (A0 j B 0 )
@ 4 2 A
3 3
0 0 1 4 2
0 1
3
1 0 0 4
B C 2
B 1 C
La matrice (A0 j B 0 ) = B 0 1 0 14 C est échelonnée et il n’y a
@ 2 A

0 0 1 34 3
2
pas de pivot sur la dernière colonne; le système 8 S : AX = B est donc
> 3
>
> x1 + x4 = 4
>
< 2
1 1
compatible et possède les mêmes solutions que x2 + x4 = d’où
>
> 4 2
>
: x3 + 3 x4 = 3
>
8 4 2
> 3
>
> x1 = x4 + 4
>
< 2
1 1
x2 = x4 .
>
> 4 2
>
: x3 = 3 x4 + 3
>
4 2
L’ensemble des solutions du système S est donc
3 1 1 3 3
+ 4, , + , j 2R :
2 4 2 4 2
Pour S1 on0a: 1 0 1
1 2 3 3 1 2 3 3
B C B C
B C B C
(A1 j B1 ) = B 1 1 1 1C !B 0 1 4 4C
@ A @ A
2 1 1 0 0 3 7 6
0 1 0 1
1 2 3 3 1 2 3 3
B C B C
B C B C
!B0 1 4 4C !B 0 1 4 4C
@ A @ A
6
0 0 5 6 0 0 1 5
7.4 LA MÉTHODE DU PIVOT 101
0 1 0 1
1 0 5 5 1 0 0 1
B C B C
B C B 4 C
!B0 1 4 4 C ! B 0 1 0 C = (A01 j B10 )
@ A @ 5 A
6
0 0 1 5
0 0 1 65
0 1
1 0 0 1
B C
B 4 C
La matrice (A01 j B10 ) = B 0 1 0 C est échelonnée et il n’y a pas de
@ 5 A

0 0 1 65
pivot sur la dernière colonne; le système
8 S1 : A1 X = B1 est donc compatible
>
> x1 = 1
>
>
< 4
et possède les mêmes solutions que x2 = .
>
> 5
>
> 6
: x3 =
5
4 6
L’ensemble des solutions du système S est donc le singleton 1, , .
5 5
Pour S2 on0a: 1 0 1
1 2 3 3 1 2 3 3
B C B C
B C B C
(A2 j B2 ) = B 1 1 1 1C !B 0 1 4 4C
@ A @ A
2 3 2 0 0 1 4 6
0 1 0 1
1 2 3 3 1 2 3 3
B C B C
B C B C
!B0 1 4 4C !B 0 1 4 4C
@ A @ A
0 0 0 2 0 0 0 1
0 1 0 1
1 0 5 5 1 0 5 0
B C B C
B C B C
!B0 1 4 4 C ! B 0 1 4 0 C = (A02 j B20 )
@ A @ A
0 0 0 1 0 0 0 1
0 1
1 0 5 0
B C
B C
La matrice (A02 j B20 ) = B 0 1 4 0 C est échelonnée et il y a un pivot
@ A
0 0 0 1
sur la dernière colonne,donc le système S2 : A2 X = B2 est incompatible.
102 CHAPTER 7 MATRICES

Calcul de l’inverse d’une matrice inversible.


Dé…nition: Deux matrices carrées A et A0 sont dites semblables s’il existe
une matrice inversible P telle que

A0 = P 1
AP .

Pour déterminer l’inverse d’une matrice carrée A de type n n, on réduit


par opérations élémentaires la matrice (A j In ) à une matrice échelonnée; si
la matrice A est inversible la matrice échelonnée obtenue sera (In j A 1 ).
Exemples:
0 Soient
1 les matrices
0 1
1 0 2 2 1 4
B C B C
B C B C
A=B2 1 1 C et B=B 1 3 1 C
@ A @ A
0 2 1 1 2 3
Pour A on
0 a: 1 0 1
1 0 2 1 0 0 1 0 2 1 0 0
B C B C
B C B C
(A j I3 ) = B 2 1 1 0 1 0C !B 0 1 5 2 1 0C
@ A @ A
0 2 1 0 0 1 0 2 1 0 0 1
0 1 0 1 0 1
1 4 2
1 0 2 1 0 0 1 0 2 1 0 0 B1 0 0 9 9 9 C
B C B C B C
B C B C 2 1 5
!B0 1 5 2 1 0C !B 0 1 5 2 1 0 C !B
B0 1 0
C
C
@ A @ A @ 9 9 9 A
4 2 1 4 2 1
0 0 9 4 2 1 0 0 1 0 0 1
9 9 9 9 9 9
(I3 j A 1 )
Ainsi l’0on a 1
1 4 2
B 9 9 9 C
B 2 1 5 C
A =B
1
B 9
C.
C
@ 4 29 9
1 A
9 9 9
Pour B on 0 a: 1 0 1
2 1 4 1 0 0
1 3 1 0 1 0
B C B C
B C B C
(B j I3 ) = B 1 3 1 0 1 0C !B 2 1 4 1 0 0C
@ A @ A
1 2 3 0 0 1 1 2 3 0 0 1
7.4 LA MÉTHODE DU PIVOT 103
0 1 0 1
1 3 1 0 1 0 1 3 1 0 1 0
B C B C
B C B C
!B 0 5 2 1 2 0C !B 0 5 2 1 2 0C
@ A @ A
0 5 2 0 1 1 0 0 0 1 1 1
Ainsi B n’est pas inversible car la dernière étape ne peut pas être de la
forme (I j :::).

Détermination du rang d’une matrice.


Le rang d’une matrice A que l’on note rg(A) est le nombre de lignes non
nulles obtenu après les transformations par la méthode du pivot.
Exemples:
0 1 0 1 0 1
1 0 2 1 0 2 1 0 2
B C B C B C
B C B C B C
A=B2 1 1 C !B0 1 3C !B0 1 3C d’où rg(A) = 3.
@ A @ A @ A
0 2 1 0 2 1 0 0 7
0 1 0 1 0 1
2 1 4 1 3 1 1 3 1
B C B C B C
B C B C B C
B =B 1 3 1 C !B 2 1 4 C !B0 5 2 C
@ A @ A @ A
1 2 3 1 2 3 0 5 2
0 1
1 3 1
B C
B C
! B 0 5 2 C ce qui montre que rg(B) = 2.
@ A
0 0 0
Conséquences: Soit
8
>
> a x + : : : + a1n xn = b1
>
< 11 1
..
S: .
>
>
>
: a x + ::: + a x = b
m1 1 mn n m

un système d’équations linéaire.


Si le système est homogène ie b1 = : : : = bm = 0, alors le système est
toujours compatible, en particulier X = 0 2 K n est solution; et il y en a
d’autres si et seulement si rg(A) < n, n étant le nombre de variables et A la
matrice associée au système S.
104 CHAPTER 7 MATRICES

Si le système n’est pas homogène, alors il est compatible si et seulement


si

rg(A) = rg(A j B)
0 1
b
B 1 C
B .. C
avec B = B . C.
@ A
bm
Exercices:
Dire si les systèmes suivants admettent des solutions autres que la solu-
tion nulle:
8 8
>
> x1 + 2x2 = 0 >
> x + x2 x3 = 0
>
< >
< 1
S: x2 x3 = 0 , S1 : x1 x2 x3 = 0
>
> >
>
>
: x + 3x >
: 2x + x + x = 0
1 2 x =0 3 1 2 3
Dire
8 si les systèmes suivants sont compatibles:
8
>
> x x2 + 3x3 + 2x4 = 1 >
> x + 2x2 x3 = 0
>
< 1 >
< 1
S: x1 + 2x2 x3 + x4 = 0 , S1 : x1 x2 + x3 = 1
>
> >
>
>
: 2x + x + 2x + 3x = 1 >
: 2x + x + x = 2
1 2 3 4 1 2 3

7.5 Matrice d’une application linéaire


Un moyen simple de construire une application linéaire est de …xer l’image des
éléments d’une base de l’espace de départ f (e1 ), . . . , f (en ). Si l’on dispose
d’une base de l’espace d’arrivée on peut exprimer les vecteurs f (ei ) comme
combinaisons linéaires des vecteurs de la base. On arrive à une description de
f par un ensemble de nombres qui se range naturellement dans un tableau,
ie une matrice. Cette construction est l’inverse de celle qui à une matrice
A associe l’application linéaire X ! AX et est extrêmement utile pour
l’étude des applications linéaires et des matrices.
Dé…nition: Soient E et F deux espaces vectoriels de dimensions respec-
tives n et p sur le même corps commutatif K; n, p 2 N et soit f 2 LK (E, F ).
Si A = fa1 , . . . , an g et B = fb1 , . . . , bp g sont des bases respectives de E et
F , on appelle matrice de f relativement aux bases A et B la matrice dé…nie
par:
7.5 MATRICE D’UNE APPLICATION LINÉAIRE 105

M (f , A, B) = (xij ) 1 i p où xij est la coordonnée de f (aj ) sur bi . On


1 j n
écrira

f (a1 ) : : : f (an )
0 1
x11 : : : x1n b
M (f , A, B) = B C 1
B .. .. .. C ..
B . . . C .
@ A
xp1 : : : xpn bp

Les colonnes de M (f , A, B) sont les coordonnées des vecteurs f (aj ) dans


la base B = fb1 , . . . , bp g.
Si A = B on parlera de la matrice de f relativement à la base A et l’on
note M (f , A).
La correspondance entre matrices et applications linéaires est si naturelle
que la composition d’applications linéaires correspond à la multiplication des
matrices. On a:
M (g f ) = M (g) M (f )
M (f + g) = M (f ) + M (g)
M ( f ) = M (f ), 2 K.
Exemples:
Soient l’application linéaire

f : R3 ! R2
,
(x, y, z) 7 ! (2x + y, x y + z)

A = f(1, 0, 1) , (2, 1, 1) , (0, 1, 1)g une base de R3 et


B = f( 1, 3) , (2, 1)g une base de R2 .
On note E = fe1 , e2 g la base canonique de R2 .
Déterminer M (f , A, E), M (f , A, B).
Posons a1 = (1, 0, 1), a2 = (2, 1, 1), a3 = (0, 1, 1) et b1 = ( 1, 3),
b2 = (2, 1). On a

f (a1 ) f (a2 ) f (a3 )


0 1
M (f , A, E) = x11 x12 x13 e1
@ A
x21 x22 x23 e2
106 CHAPTER 7 MATRICES

f (a1 ) = f (1, 0, 1) = (2, 0), f (a2 ) = f (2, 1, 1) = (5, 2), f (a3 ) =


f (0, 1, 1) = (1, 0). 0 1
2 5 1
Ainsi on a M (f , A, E) = @ A.
0 2 0

f (a1 ) f (a2 ) f (a3 )


0 1
M (f , A, B) = x x x b1
@ 11 12 13 A
x21 x22 x23 b2

f (a1 ) = x11 b1 + x21 b2 i.e (2, 0) = x11 ( 1, 3) + x21 (2, 1), d’où
2 6
x11 = et x21 = .
7 7
f (a2 ) = x12 b1 + x22 b2 i.e (5, 2) = x12 ( 1, 3) + x22 (2, 1), d’où
1 17
x12 = et x22 = .
7 7
f (a3 ) = x13 b1 + x23 b2 i.e (1, 0) = x13 ( 1, 3) + x23 (2, 1), d’où
1 3
x13 = et x23 = .
7 7
Ainsi on a
0 1
1@ 2 1 1A
M (f , A, B) = .
7 6 17 3

Soient l’application linéaire

f : R 2 ! R2
(x, y) 7 ! (2x + y, x y)

et A = f(1, 1) , (1, 1)g une base de R2 .


Déterminer M (f , A) la matrice de f relativement à la base A.
Posons a1 = (1, 1), a2 = (1, 1), on a
7.6 MATRICE DE CHANGEMENT DE BASE 107

f (a1 ) f (a2 )
0 1
M (f , A) = x11 x12 a1
@ A
x21 x22 a2

f (a1 ) = x11 a1 + x21 a2 i.e (1, 2) = x11 (1, 1) + x21 (1, 1), d’où

1 3
x11 = et x21 = .
2 2
f (a2 ) = x12 a1 + x22 a2 i.e (3, 0) = x11 (1, 1) + x21 (1, 1), d’où

1 5
x11 = et x21 = .
2 2
Ainsi on a
0 1
1@ 1 1A
M (f , A) = .
2 3 5

7.6 Matrice de changement de base


Dé…nition: Soit E un K-espace vectoriel de dimension n, n 2 N , et soient
A = fa1 , . . . , an g et A0 = fa01 , . . . , a0n g deux bases de E. On appelle matrice
de passage ( ou matrice de changement de base ) de A à A0 la matrice
P = (xij ) 1 i n dont la j-ième colonne est formée des coordonnées de a0j
1 j n
dans la base A. Ainsi

a01 : : : a0n
0 1
x11 : : : x1n a
P = M (id, A0 , A) = B C 1
B .. .. .. C ..
B . . . C .
@ A
xn1 : : : xnn an

Notation:
Nous noterons souvent P (A, A0 ) la matrice de passage M (id, A0 , A)
de A à A0 ;
108 CHAPTER 7 MATRICES

id étant l’application identité.


Exemples: Soient A = f(1, 2) , (1, 0)g et A0 = f( 2, 1) , (3, 2)g deux
bases de R2 ; on note E = fe1 , e2 g la base canonique de R2 .
Déterminer P (E, A0 ), P (A, E) et P (A, A0 ).
On a

a01 a02
0 1
P (E, A0 ) = x11 x12 e1
@ A
x21 x22 e2

d’où
0 1
2 3
P (E, A0 ) = @ A;
1 2

e1 e2
0 1
P (A, E) = x11 x12 a1 ,
@ A
x21 x22 a2
e1 = x11 a1 + x21 a2 i.e (1, 0) = x11 (1, 2) + x21 (1, 0), d’où
x11 = 0 et x21 = 1;
e2 = x12 a1 + x22 a2 i.e (0, 1) = x12 (1, 2) + x22 (1, 0), d’où
1 1
x12 = et x22 = .
2 2
Ainsi on a
0 1
1
0
P (A, E) = @ 2 A.
1
1 2

a01 a02
0 1
P (A, A0 ) = x11 x12 a1 ,
@ A
x21 x22 a2
a01 = x11 a1 + x21 a2 i.e ( 2, 1) = x11 (1, 2) + x21 (1, 0), d’où
7.6 MATRICE DE CHANGEMENT DE BASE 109

1 5
x11 = et x21 = ;
2 2
a02 = x12 a1 + x22 a2 i.e (3, 2) = x12 (1, 2) + x22 (1, 0), d’où

x12 = 1 et x22 = 2.

Ainsi on a
0 1
1
1
P (A, A0 ) = @ 2 A.
5
2
2

Remarque: Soit u 2 E; écrivons


X X
u= xi ai = x0j a0j
1 i n 1 j n

i.e uA = (x1 , . . . , xn ) (coordonnées de u dans la base A) et


uA0 = (x01 , . . . , x0n ) (coordonnées de u dans la base A0 ). On a alors

uA = P (A, A0 ) uA’

En particulier P (A, A0 ) est inversible et son inverse est P (A0 , A); ainsi

uA’ = P (A0 , A) uA .

Exemples: Soient A = f(1, 2) , (1, 0)g et A0 = f( 2, 1) , (3, 2)g deux


bases de R2 , et soient u = (2, 3), vA = ( 1, 1).
Déterminer uA et v. Notons E la base canonique de R2 .
On a uA = P (A, E) u, or dans l’exemple précédent on montré que
0 1
1
0
P (A, E) = @ 2 A,
1
1 2

donc la forme matricielle


0 donne
10 1 0 1
1
0 2 2 3
uA = P (A, E) u = @ A @ A = 1 @ A, et par suite on a
1 12 3 2 1
110 CHAPTER 7 MATRICES

3 1
uA = , .
2 2 0 1
1 1
On a v = P (E, A) vA ; le calcul donne P (E, A) = @ A, d’où
2 0
0 10 1 0 1
1 1 1 0
v=@ A@ A=@ A.
2 0 1 2
Ainsi v = (0, 2).
Théorème: Soit f : E ! F une application linéaire et soient
A = fa1 , . . . , an g et A0 = fa01 , . . . , a0n g deux bases de E, et
B = fb1 , . . . , bm g, B 0 = fb01 , . . . , b0m g deux bases de F ;
notons
A = M (f , A, B) et A0 = M (f , A0 , B 0 ), P = P (A, A0 ) et Q = P (B, B 0 ).
Alors

A0 = Q 1 AP

Démonstration: Considérons la suite d’applications:


id f id
(E, A0 ) !
E F
(E, A) ! (F , B) ! (F , B 0 )

on peut en déduire l’égalité des matrices:

M (f , A0 , B 0 ) = M (idF , B, B 0 ) M (f , A, B) M (idE , A0 , A)

ce qui correspond à l’égalité A0 = Q 1 AP . CQFD


Dé…nition: Le rang d’une matrice A est le rang de la suite de ses vecteurs
colonnes.
Proposition: Soient E, F deux K-espaces vectoriels munis respective-
ment de la base A = fa1 , . . . , an g, B = fb1 , . . . , bp g.
Si f 2 LK (E, F ), alors rg(M (f , A, B)) = rg(f ).
Démonstration: rg(f ) = dim Im f . Or Im f est engendré par ff (a1 ) , . . . , f (an )g
qui s’identi…e dans la base B à la suite des vecteurs colonnes de M (f , A, B).
CQFD
Chapter 8

Déterminants

8.1 dé…nition par récurrence


Dé…nition: Soit A une matrice carrée d’ordre n
0 1
a11 : : : a1n
B C
B . . . C
A = B .. .. .. C 2 Mn (K)
@ A
an1 : : : ann

On dé…nit, par récurrence, une application:

dét: Mn (K) ! K
A 7 ! detA

de la manière suivante:
si n = 1, i.e A = (a), on pose detA = a
si n > 1, notons Aij la matrice obtenue de A en supprimant la i eme
ligne et la j eme colonne ( i.e la ligne et la colonne qui passent par aij ).
On pose alors ( puisque Aij 2 Mn 1 (K) ):

detA = a11 detA11 + : : : + ( 1)k+1 a1k detA1k + : : : + ( 1)n+1 a1n detA1n

Le scalaire detA est appelé déterminant de A et on note

111
112 CHAPTER 8 DÉTERMINANTS

a11 : : : a1n
.. .. ..
. . .
an1 : : : ann
0 1
a11 : : : a1n
B C
B . . . C
le déterminant de la matrice B .. .. .. C.
@ A
an1 : : : ann
Exemples:
4 1
1) = (4 2) + ( 1)3 ( 1) (3) = 11.
3 2
Plus généralement on a:

a c
= ad bc
b d
1 2 3
1 1 2 1 2 1
2) 2 1 1 = (1) + ( 1)3 ( 2) + ( 1)4 (3)
5 1 1 1 1 5
1 5 1
= (6) + (6) + (27) = 39.
Plus généralement on peut appliquer la règle de SARRUS pour le calcul
d’un déterminant d’ordre 3:
Le déterminant d’une matrice d’ordre 3 est la somme de six termes, trois
a¤ectés du signe + et trois du signe :
Les produits a¤ectés du signe + contiennent soit les trois termes de la
diagonale principale, soit deux termes parallèles à cette diagonale.
Pour les produits a¤ectés du signe , on procède de même en changeant
de diagonale.
On peut utiliser les dispositions suivantes:
a) On ajoute à droite les deux premières colonnes:
1 2 3
Calculons 2 1 1 ,
1 5 1
8.1 DÉFINITION PAR RÉCURRENCE 113

1 2 3 1 2
on a 2 1 1 2 1
1 5 1 1 5
d’où

1 2 3
2 1 1 = (1) (1) (1) + ( 2) ( 1) (1) + (3) (2) (5) (1) (1) (3)
1 5 1
(5) ( 1) (1) (1) (2) ( 2) = 39.

b) On ajoute en bas les deux premières lignes:


1 2 3
Calculons 2 1 1 ,
1 5 1
1 2 3
2 1 1
on a 1 5 1 d’où
1 2 3
2 1 1
1 2 3
2 1 1 = (1) (1) (1)+(2) (5) (3)+(1) ( 2) ( 1) (1) (1) (3) (1) (5) ( 1)
1 5 1
(2) ( 2) (1) = 39.
Dé…nition: Soit A = (aij ) 2 Mn (K).
On appelle cofacteur de l’élément aij le scalaire

cof (aij ) = ( 1)i+j detAij


0 1
0 2
Exemples: A = @ A,
1 5
114 CHAPTER 8 DÉTERMINANTS

cof (a11 ) = ( 1)2 (5) = 5, cof (a12 ) = ( 1)3 (1) = 1, cof (a21 ) =
( 1)3 (2)0= 2, cof (a122 ) = ( 1)4 (0) = 0.
1 2 3
B C
B C
B =B2 1 1 C,
@ A
1 5 1
1 2 2 3
cof (b23 ) = ( 1)5 = 7, cof (b31 ) = ( 1)4 = 1.
1 5 1 1
On peut alors reformuler la dé…nition du déterminant de la façon suivante:
Soit A = (aij ) 2 Mn (K), alors:
Le développement du déterminant suivant la i eme ligne est donné
par:

detA = ai1 cof (ai1 ) + ai2 cof (ai2 ) + : : : + ain cof (ain )

Le développement du déterminant suivant la j eme colonne est donné


par:

detA = a1j cof (a1j ) + a2j cof (a2j ) + : : : + anj cof (anj )
0 1
1 1 1
B C
B C
Exemples: Soit A = B 2 0 2 C
@ A
1 3 0
- Développement suivant la 2eme ligne:
1 1 1 1
detA = (2) ( 1)3 + (2) ( 1)5
3 0 1 3
= (2) ( 1) (3) + (2) ( 1) (4) = 14.
- Développement suivant la 3eme colonne:
2 0 1 1
detA = ( 1) ( 1)4 + (2) ( 1)5
1 3 1 3
= ( 1) (1) (6) + (2) ( 1) (4) = 14.
Remarque: Par transposition, les formules précédentes donnent des for-
mules de développement par rapport à une colonne ou à une ligne quelconque:
8.2 FORMES N-LINÉAIRES ALTERNÉES 115
X X
detA = ( 1)i+j aij detAij = ( 1)i+j aij detAij .
1 i n 1 j n

Pour se souvenir des signes de ces deux formules, on peut remarquer que
la distribution des signes + et avec la formule ( 1)i+j est analogue à la
distribution des cases noires et blanches sur un damier:

+ +
+ + :::
+ + :::
+ + :::
.. .. .. .. . .
. . . . .

8.2 Formes n-linéaires alternées


Dé…nition: Soient E un k-espace vectoriel et n 1 un entier, une applica-
tion f : E : : : E ! K est n-linéaire si elle est linéaire par rapport à
chaque variable, i.e si

f (x1 ; : : : ; xi 1 ; yi + xi ; xi+1 ; : : : ; xn ) =
f (x1 ; : : : ; xi 1 ; yi ; xi+1 ; : : : ; xn ) + f (x1 ; : : : ; xi 1 ; xi ; xi+1 ; : : : ; xn )

Elle est symétrique si elle est invariante par permutation des facteurs, et
antisymétrique ou alternée si l’interversion de deux facteurs change le signe,
i.e si

8 (x1 ; : : : ; xn ) 2 E n , 8i < j,
f (x1 ; : : : ; xi ; : : : xj ; : : : ; xn ) = f (x1 ; : : : ; xj ; : : : xi ; : : : ; xn )

Remarques: On déduit de la dé…nition que:


1) si f est alternée, alors f (: : : ; x; : : : ; x; : : :) = 0; et plus généralement
que si xi est combinaison linéaire des autres vecteurs x1 ; : : : ; xi 1 ; xi+1 ; : : : ; xn
alors f (x1 ; : : : ; xn ) = 0.
2) si fe1 ; : : : ; en g est une base de E et si f est une forme n-linéaire
alternée non nulle, alors f (e1 ; : : : ; en ) 6= 0.
Dé…nition: Soit fe1 ; : : : ; en g une base de E, le déterminant par rapport
à la base fe1 ; : : : ; en g est l’unique application n-linéaire alternée
116 CHAPTER 8 DÉTERMINANTS

det : E n ! K

telle que det (e1 ; : : : ; en ) = 1.


La propriété fondamentale du déterminant est:
Théorème: Le déterminant de n vecteurs x1 ; : : : ; xn dans K n est nul si
et seulement si ces vecteurs sont linéairement dépendants.
Démonstration: On sait que si les vecteurs sont linéairement dépendants,
le déterminant est nul; inversement si les vecteurs x1 ; : : : ; xn sont linéairement
indépendants ils forment une base de K n ( puisque dimK n = n ) et donc
det (x1 ; : : : ; xn ) 6= 0. CQFD
Dé…nition: Le déterminant d’une matrice carrée est le déterminant de
ses vecteurs colonnes par rapport à la base canonique de K n .
Le théorème précédent se traduit alors ainsi:
Théorème: Soit A une matrice carrée, alors A est inversible si et seule-
ment si detA 6= 0.
Théorème: Le déterminant des matrices est multiplicatif, i.e si A et B
sont deux matrices carrées de même ordre n on a:

det (A:B) = detA:detB

Démonstration: Soient (x1 ; : : : ; xn ) 2 K n , les applications n-linéaires al-


ternées de K n vers K dé…nies par

(x1 ; : : : ; xn ) 7 ! det (Ax1 ; : : : ; Axn ) et (x1 ; : : : ; xn ) 7 ! det (x1 ; : : : ; xn )

sont proportionnelles; donc det (Ax1 ; : : : ; Axn ) = det (x1 ; : : : ; xn ). En


applicant ceci aux vecteurs de la base canonique, on obtient que = detA.
Ainsi det (Ax1 ; : : : ; Axn ) = detA:det (x1 ; : : : ; xn ). Maitenant on peut cal-
culer:
det (AB) :det (x1 ; : : : ; xn ) = det (ABx1 ; : : : ; ABxn )
= detA:det (Bx1 ; : : : ; Bxn )
= detA:detB:det (x1 ; : : : ; xn )
d’où det(AB) = detA:detB; puisque det (x1 ; : : : ; xn ) 6= 0. CQFD

8.3 Règles de calcul


Soit A une matrice carrée.
8.3 RÈGLES DE CALCUL 117

1) Si l’on échange deux colonnes de A alors detA est transformé en son


opposé. 0 1
1 1 1
B C
B C
Exemple: A = B 2 0 2 C,
@ A
1 3 0
1 1 1
on montre que 2 0 2 = 14 et si on échange par exemple la pre-
1 3 0
1 1 1
mière et la deuxième colonne on obtient 0 2 2 = 14 = detA.
3 1 0
2) detA reste inchangé si l’on ajoute à un vecteur colonne une combinaison
linéaire des autres.
N.B: Cette règle permet de faire apparaître des zéros dans le calcul du
déterminant et de réduire
0 ainsi le 1 nombre de termes, ce qui facilite le calcul.
1 1 1
B C
B C
Exemple: A = B 2 0 2 C, on a
@ A
1 3 0

1 1 1 1 0 0
2 0 2 = 2 2 4
1 3 0 1 4 1
0 1
C2 ! C2 C1 : la deuxiéme colonne est remplacée par
B C
B C
B la même colonne moins la première; C
B C
B C
B et C3 ! C3 + C1 : la troisième colonne est remplacée par C
@ A
la même colonne plus la première.
2 4
= (1) = 14
4 1
118 CHAPTER 8 DÉTERMINANTS

3) detA est nul si l’un des vecteurs colonnes est combinaison linéaire des
autres. En particulier, detA = 0 si un vecteur colonne est nul; detA = 0 si
deux colonnes sont égaux.
0 1
1 2 1 3
B C
B C
B 2 4 2 1C
Exemple: B = B B C, on constate que C3 = C2 C1 i.e la
C
B 1 1 2 1C
@ A
0 2 2 2
troisième colonne est égale à la deuxième moins la première; le calcul donnera
certainement detB = 0.
4) En multipliant par un scalaire toutes les composantes d’un vecteur
colonne quelconque de A, on obtient un déterminant égal à detA. En
d’autres termes

a11 : : : a1(j 1) a1j a1(j+1) : : : a1n


..
.
.. =
.
an1 : : : an(j 1) anj an(j+1) : : : ann
a11 : : : a1(j 1) a1j a1(j+1) : : : a1n
..
.
..
.
an1 : : : an(j 1) anj an(j+1) : : : ann

0 1
1 1 1
B C
B C
Exemple: A = B 2 0 2 C, on a déjà montré dans 1) que detA =
@ A
1 3 0
14; si on multiplie la deuxième colonne ( par exemple ) par 2 le calcul
1 2 1
donne 2 0 2 = 28 = ( 2) detA
1 6 0
8.3 RÈGLES DE CALCUL 119

5) Si toutes les composantes du j ieme vecteur colonne de A sont de


la forme cij = aij + a0ij avec i = 1; : : : ; n, alors detA est la somme de deux
déterminants dont les j iemes colonnes sont composées repectivement des
éléments aij et a0ij , et toutes les autres colonnes sont identiques aux colonnes
correspondantes de detA. En d’autres termes, on a

a11 : : : a1(j 1) a1j + a01j a1(j+1) : : : a1n


..
.
.. =
.
an1 : : : an(j 1) anj + a0nj an(j+1) : : : ann
a11 : : : a1(j 1) a1j a1(j+1) : : : a1n
..
.
.. +
.
an1 : : : an(j 1) anj an(j+1) : : : ann
a11 : : : a1(j 1) a01j a1(j+1) : : : a1n
..
.
..
.
an1 : : : an(j 1) a0nj an(j+1) : : : ann

Exemple:

1 2 1 1 ( 1) + ( 1) 1
2 0 2 = 2 0+0 2
1 6 0 1 ( 4) + ( 2) 0
1 1 1 1 1 1
= 2 0 2 + 2 0 2 = 18 + 10 = 28
1 4 0 1 2 0

Remarque: Les règles de calcul précédentes sont vraies si on remplace


colonne par ligne.
120 CHAPTER 8 DÉTERMINANTS

8.4 Application des déterminants


8.4.1 Rang d’une matrice
Les déterminants peuvent servir à calculer le rang d’une matrice de taille
quelconque.
Dé…nition: Soit r min(m, n), on appelle mineur d’ordre r d’une
matrice m n le déterminant d’une matrice extraite de taille r r.
Exemples: Les mineurs d’ordre 1 sont simplement les coe¢ cients de la
matrice. Les mineurs d’ordre 3 de la matrice
0 1
1 4 5
B C
B C
B 2 2 1C
A=B
B
C
C
B 1 6 4C
@ A
0 1 2

sont

1 4 5 1 4 5 2 2 1
2 2 1 , 1 6 4 , 1 6 4 .
1 6 4 0 1 2 0 1 2

Théorème: Soit A une matrice m n alors rgA = r si et seulement si:


(i) on peut extraire de A un mineur non nul d’ordre r,
(ii) tous les mineurs de A d’ordre r + 1 sont nuls.
Démonstration: Si un mineur d’ordre r est non nul, alors il y a r vecteurs
colonnes indépendants donc rgA r. On a rgA = r dès que (ii) est véri…ée.
Inversement si rgA = r on a évidemment (i) et (ii). CQFD
On voit donc que le rang de A est l’ordre maximal des mineurs non nuls
extraits de A.
Dé…nition: Soient A une matrice et un mineur d’ordre r extrait de A.
On appelle bordant de tout mineur d’ordre r + 1 extrait de A, dont est
un déterminant extrait.
8.4 APPLICATION DES DÉTERMINANTS 121
0 1
B 0 1 4 1 C
B C
B 1 2 3 5 C
B C
Exemple: Soit A = B C, les bordants de
B C
B 3 5 2 6 C
@ A
6 2 1 2

0 1
= sont:
1 2
en bordant avec la 3 ieme ligne
0 1 4 0 1 1
1 2 3 , 1 2 5

3 5 2 3 5 6
en bordant avec la 4 ieme ligne
0 1 4 0 1 1
1 2 3 , 1 2 5

6 2 1 6 2 2
Montrer qu’on retrouve les mêmes bordants de en bordant avec les
colonnes.
On peut reformuler le théorème précédent de la façon suivante:
Théorème: Soit A une matrice m n. Le rang de A est r si et seulement
si on peut extraire de A un mineur d’ordre r non nul et tous les bordants
de dans A sont nuls. 0 1
1 1 0
B C
B C
B 2 1 3C
Exemples: Déterminons le rang de A = B B
C
C
B 1 2 1C
@ A
0 1 1
A 6= O =) rgA 1
1 1
= 3 6= 0 =) rgA 2
2 1
122 CHAPTER 8 DÉTERMINANTS

1 1 0 1 1 0
2 1 3 = 0, 2 1 3 = 0.
1 2 1 0 1 1
Donc rgA = 2.

8.4.2 Caractérisation d’une famille libre


Théorème: Soient fv1 ; : : : ; vr g r vecteurs d’un espace vectoriel E de dimen-
sion n (r n),
et A = jjv1 ; : : : ; vr jj la matrice dont les colonnes sont les composantes des
vecteurs v1 ; : : : ; vr dans une base quelconque de E.
La famille fv1 ; : : : ; vr g est libre si et seulement si on peut extraire de A
un mineur d’ordre r non nul.
Ce théorème résulte du théorème suivant:
Théorème: Soit E un espace vectoriel de dimension n.
La famille fv1 ; : : : ; vn g de vecteurs de E forme une base de E si et seule-
ment si det jjv1 ; : : : ; vr jjfei g 6= 0, où jjv1 ; : : : ; vr jj désigne la matrice dont les
colonnes sont les composantes des vecteurs v1 ; : : : ; vr dans une base fei g de
E.
0 1 0 1 0 1
1 0 1
B C B C B C
B C B C B C
B2C B1C B 5 C
B C B C B C
B C B C B C
Exemple: Les vecteurs v1 = B 3 C, v2 = B 2 C, v3 = B 9 C forment
B C B C B C
B C B C B C
B3C B4C B 2C
@ A @ A @ A
5 0 0
5
une famille libre 0 de R , car dans 1 la matrice
1 0 1
B C
B C
B 2 1 5 C
B C
B C
A=B
B 3 2 9 CC
B C
B 3 4 2 C
B C
@ A
5 0 0

le mineur encadré est non nul.


8.4 APPLICATION DES DÉTERMINANTS 123

8.4.3 Appartenance d’un vecteur à une famille


Théorème: Soient v1 ; : : : ; vr r vecteurs linéairement indépendants,
A = jjv1 ; : : : ; vr jj la matrice dont les colonnes sont les composantes de ces
vecteurs dans une base quelconque, et un mineur non nul d’ordre r extrait
de A.
Pour qu’un vecteur w appartienne à Lin fv1 ; : : : ; vr g, il faut et il su¢ t
que tous les bordants de dans la matrice B = jjv1 ; : : : ; vr ; wjj soient nuls.
Démonstration: Si w 2 Lin fv1 ; : : : ; vr g alors tous les bordants de
dans B sont nuls. En e¤et, si l’un des bordants était non nul, la famille
fv1 ; : : : ; vr ; wg serait libre, ce qui est exclu.
Réciproquement, si tous les bordants de sont nuls, alors les r premiers
vecteurs lignes de B sont indépendants, car 6= 0 et chacun des autres est
lié aux r premiers. Ainsi rgB = r, et comme fv1 ; : : : ; vr g est libre w 2
Lin fv1 ; : : : ; vr g. CQFD 0 1
B C
B C
B2C
Exemple: Pour quelles valeurs de , 2 R le vecteur w = B C
B C
B1C
@ A
0 1 0 1
1 0
B C B C
B C B C
B0C B1C
appartient-il à Lin fv1 ; v2 g avec v1 = B C et v2 = B
B C
B C?
C
B1C B0C
@ A @ A
0 1
0 1 0 1
B 1 0 C 1 0
B C B C
B 0 1 C B C
B C 1 0 B 0 1 2C
On a: A = B C, = B
6= 0 et B = B C
B C C
B 1 0 C 0 1 B1 0 1C
@ A @ A
0 1 0 1

1 0 1 0
Les bordants de sont 41 = 0 1 2 = 1 et 42 = 0 1 2 = 2.
1 0 1 0 1
124 CHAPTER 8 DÉTERMINANTS

Donc w 2 fv1 , v2 g si et seulement si = 1 et = 2.

8.4.4 Détermination de l’inverse d’une matrice in-


versible
Dé…nition: On appelle transposée d’une matrice A = (aij ) 2 Mn (K) la
matrice de Mn (K) notée tA dé…nie par:

tA = (aji ).

On a les propriétés suivantes:


Propriétés:
t(A+B) = tA + tB ; t( A) = tA ( 2 K); t(AB) = tB tA .
Dé…nition et théorème: Soit A 2 Mn (K). On appelle matrice des
cofacteurs de A et on note cof (A), la matrice obtenue de A en remplaçant
chaque élément par son cofacteur. Si A est inversible alors:

1 1
A = tcof (A)
detA

Exemples:0 1
1 2
Soit A = @ A; on a detA = 5 6= 0, donc A est inversible.
1 3

0 1
cof (a11 ) cof (a12 )
cof (A) = @ A
cof (a21 ) cof (a22 )

avec cof (a11 ) = 0


3, cof (a1
12 ) = 1, cof (a21 ) = 2, cof (a22 ) = 1.
3 1
Donc cof (A) = @ A et par suite
2 1

0 1
1 1 3 2
A 1
= tcof (A) = @ A.
detA 5 1 1
8.4 APPLICATION DES DÉTERMINANTS 125

Plus généralement:
0 1
a b
si A = @ A avec ad bc 6= 0, on a:
c d
0 1
1 d b
A 1
= @ A
ad bc c a
0 1
1 2 0
B C
B C
Soit B = B 1 3 0 C, detB = 5 6= 0, donc B est inversible.
@ A
0 1 1
cof (b11 ) = 3, cof (b12 ) = 1, cof (b13 ) = 1,
cof (b21 ) = 2, cof (b22 ) = 1, cof (b23 ) = 1,
cof (b31 ) = 0
0, cof (b32 ) = 0,
1cof (b33 ) = 5. 0 1
3 1 1 3 2 0
B C 1 B C
B C 1 B C
Cof (B) = B 2 1 1 C et B = B 1 1 0 C.
@ A 5@ A
0 0 5 1 1 5
Chapter 9

Systèmes d’équations linéaires

Considérons le système d’équations linéaire suivant:


8
>
> a x + : : : + a1n xn = b1
>
< 11 1
..
S: .
>
>
>
: a x + ::: + a x = b
m1 1 mn n m

On sait que le système S peut s’écrire sous la forme matricielle

AX = B
0 1 0 1 0 1
a11 : : : a1n x1 b1
B C B C B C
B . .. C B .. C B .. C
avec A = B .. . C , X = B . C et B = B . C.
@ A @ A @ A
am1 : : : amn xn bm
On appelle rang du système S le rang de la matrice A associée à S.

9.1 Systèmes de Cramer


Dé…nition: On appelle système de Cramer un système linéaire dont la ma-
trice associée est carrée et inversible.
Il s’agit donc d’un système de n équations en n inconnues de rang n:

127
128 CHAPTER 9 SYSTÈMES D’ÉQUATIONS LINÉAIRES
8
>
> a x + : : : + a1n xn = b1
>
< 11 1
..
. avec detA 6= 0.
>
>
>
: a x + ::: + a x = b
n1 1 nn n n

Sous forme matricielle on a:

1
AX = B () A (AX) = A 1 B () (A 1 A) X = A 1 B

d’où

X = A 1B

Ainsi, un système de Cramer admet une solution unique; ce qui donne


une méthode de résolution du système.

9.1.1 Résolution par une matrice inverse


La formule

X = A 1B

permet de résoudre le système AX8 = B.


< x + 2y = 1
Exemple: Résoudre le système
: x + 3y = 0
Sous 0
forme matricielle
1 le0système
1 s’écrit
0 AX1= B, avec
1 2 x 1
A=@ A, X = @ A, B = @ A;
1 3 y 0
d’où 0 1 0 10 1 0 1
x 3 2 1 3
X = A 1 B i.e @ A= 1@ A@ A = 1 @ A.
y 5 1 1 0 5 1
3 1
La solution du système est donc , .
5 5
9.2 CAS GÉNÉRAL 129

9.1.2 Résolution par les formules de Cramer


En pratique, au lieu de calculer A 1 on se sert des formules de Cramer.
Si D désigne le déterminant de la matrice associée au système, on notera
Dxi le déterminant obtenu de D en remplaçant la colonne des coe¢ cients de
xi par les bi respectifs. Ainsi la solution (x1 , . . . , xn ) du système est donnée
par les formules suivantes dites formules de Cramer:
Dxi
xi = avec i = 1; : : : ; n.
D
Exemple: On considère le système:
8
>
> 2x 5y + 2z = 7
>
<
x + 2y 4z = 3
>
>
>
: 3x 4y 6z = 5

2 5 2
On a D = 1 2 4 = 46
3 4 6

7 5 2 2 7 2
3 2 4 1 3 4

Dx 5 4 6 Dy 3 5 6
x= = = 5, y = = = 1,
D 46 D 46
2 5 7
1 2 3

Dz 3 4 5
z= = = 1.
D 46
La solution du système est donc (5, 1, 1).

9.2 Cas général


Considérons le système de m équations en n inconnes de rang r:
130 CHAPTER 9 SYSTÈMES D’ÉQUATIONS LINÉAIRES
8
>
> a11 x1 + : : : + a1r xr + : : : + a1n xn = b1
>
>
>
> ..
>
> .
>
<
S: ar1 x1 + : : : + arr xr + : : : + arn xn = br
>
>
>
> ..
>
> .
>
>
>
:
am1 x1 + : : : + amr xr + : : : +amn xn = bm

On peut supposer, quitte à changer l’ordre des équations et la numérota-


tion des inconnues, que le mineur encadré est non nul.
a11 : : : a1r
..
Dé…nition: Posons = . , alors les déterminants
ar1 : : : arr

a11 : : : a1r b1
.. ..
. .
4s = s = r + 1; : : : ; m,
ar1 : : : arr br
as1 : : : asr bs

sont appelés déterminants caractéristiques associés à .


Il résulte des théorèmes précédents le théorème suivant:
Théorème de Rouché-Fontené: Soit
8
>
> a11 x1 + : : : + a1r xr + : : : + a1n xn = b1
>
>
>
> ..
>
> .
>
<
S: ar1 x1 + : : : + arr xr + : : : + arn xn = br
>
>
>
> ..
>
> .
>
>
>
:
am1 x1 + : : : + amr xr + : : : +amn xn = bm

un système de m équations en n inconnes de rang r. On extrait de S un


mineur d’ordre non nul (quitte à changer la numérotation, on peut supposer
que est le mineur encadré ):
9.2 CAS GÉNÉRAL 131

a11 : : : a1r
..
= . 6= 0
ar1 : : : arr

1) Le système S est compatible si et seulement si tous les déterminants


caractéristiques associés à sont nuls:

a11 : : : a1r b1
.. ..
. .
4s = = 0, (s = r + 1; : : : ; m).
ar1 : : : arr br
as1 : : : asr bs

2) Si cette condition est réalisée, S est équivalent au système des " équa-
tions principales ":
8
>
> a11 x1 + : : : + a1r xr + : : : + a1n xn = b1
>
<
0 ..
S: .
>
>
>
: ar1 x1 + : : : + arr xr + : : : + arn xn = br

Il admet alors une in…nité de solutions dépendantes de n r paramètres.


Les solutions se calculent en résolvant le système de Cramer obtenu en don-
nant aux " variables libres " xr+1 ; : : : ; xn des valeurs arbitraires:

xr+1 = r+1 ; : : : ; xn = n.

Le système S 0 s’écrit alors:


8
>
> a x + : : : + a1r xr = b1 a1;r+1 ::: a1n
>
< 11 1 r+1 n
..
.
>
>
>
: a x + ::: + a x
r1 1 rr r = br ar;r+1 r+1 ::: arn n

Exemple: Discuter, d’après les valeurs de k, , , 2 R le système:


132 CHAPTER 9 SYSTÈMES D’ÉQUATIONS LINÉAIRES
8
>
> 2x + y z =
>
<
y + 3z =
>
>
>
: 2x + ky + 2z =

On étudie d’abord le rang du système. La matrice associée au système


est:
0 1
B 2 1 1 C
B C
A=B B 0 1 3 CC
@ A
2 k 2

et detA = 6 (2 k).
2 1
Si k 6= 2, rg(A) = 3; si k = 2, rg(A) = 2 car = 2 6= 0.
0 1
Ainsi deux cas se présentent:
a) k 6= 2, le système est alors un système de Cramer.
La solution s’obtient par les formules de Cramer:

Dx Dy Dz
x= ,y= et z = avec D = detA.
D D D
b) k = 2, le système est de rang 2. On étudie alors la compatibilité à
l’aide des déterminants caractéristiques. On extrait un mineur d’ordre 2 non
nul, par exemple:

2 1
=
0 1

Le seul déterminant caractéristique associé à est

2 1
43 = 0 1 = 2( ).
2 2
9.3 CAS DES SYSTÈMES HOMOGÈNES 133

Donc le système est compatible si = + . Les solutions s’obtiennent


alors en résolvant le système des équations principales:
8
>
< 2x + y z=
>
: y +3z =

La
8 variable libre est z. En posant z = , on a:
< 2x+ y = + +4
, d’où x = , y= 3 , z= .
: y = 3 2
En résumé:
(i) si k 6= 2, le système admet une et une seule solution;
(ii) si k = 2, deux cas se présentent:
6= + : le système n’admet pas de solution;
= + : le système admet une in…nité de solutions dépendants
d’un paramètre.

9.3 Cas des systèmes homogènes


Dé…nition: On appelle système homogène, un système de type

AX = 0

c’est-à-dire un système linéaire dont le deuxième membre est nul.


On voit immédiatement qu’un système homogène est toujours compatible:
il admet au moins la solution nulle.
On déduit du paragraphe précédent la proposition suivante:
Proposition: Soit
8
>
>
>
> a11 x1 + : : : + a1r xr + : : : + a1n xn = 0
>
>
>
> ..
>
> .
<
ar1 x1 + : : : + arr xr + : : : + arn xn = 0
>
>
>
> ..
>
> .
>
>
>
>
: a x + : : : + a x + : : : +a x = 0
m1 1 mr r mn n
134 CHAPTER 9 SYSTÈMES D’ÉQUATIONS LINÉAIRES

un système linéaire homogène de rang r. On suppose que le mineur


encadré est non nul.
Puisque les conditions de compatibilité sont trivialement satisfaites ( cf
théorème de Rouché-Fontené ), le système est équivalent au système des
équations principales:
8
>
> a x + ::: + a x
>
> + : : : + a1n xn = 0
< 11 1 1r r
..
.
>
>
>
>
: ar1 x1 + : : : + arr xr + : : : + arn xn = 0

Les solutions forment un espace vectoriel de dimension n r.


Remarques:
Les solutions d’un système linéaire non homogène AX = B avec B 6= 0
ne forment pas un espace vectoriel. En e¤et, si X1 et X2 sont deux solutions,
on a AX1 = B et AX2 = B, d’où A (X1 + X2 ) = 2B 6= B: donc la somme
de deux solutions n’est pas une solution.
Un système homogène
8
>
>
>
> a11 x1 + : : : + a1r xr + : : : + a1n xn = 0
>
>
>
> ..
>
> .
<
ar1 x1 + : : : + arr xr + : : : + arn xn = 0
>
>
>
> ..
>
> .
>
>
>
>
: a x + : : : + a x + : : : +a x = 0
m1 1 mr r mn n

de rang r admet une solution non nulle si et seulement si n > r. C’est le


cas, par exemple, s’il y a plus d’inconnues que d’équations.
Un cas particulièrement important est celui où la matrice A associée au
système linéaire homogène est carrée. Dans ce cas, la condition pour qu’il y
ait des solutions non nulles (n > r) est équivalente à detA = 0.
Ainsi, on a la proposition suivante:
Proposition: Soit AX = 0 un système linéaire homogène où A est
une matrice carrée. Alors le système admet des solutions non nulles si et
seulement si detA = 0.

Vous aimerez peut-être aussi