Vous êtes sur la page 1sur 116

1

Université Paris-Dauphine
DUMI2E
Année 2015-2016

ALGEBRE LINEAIRE 1

Denis Pasquignon

Ce polycopié reprend en grande partie celui écrit par Yannick Viossat pour l’année univer-
sitaire 2010-2011 sur ce même cours.
2
Table des matières

1 Eléments de logique 7
1.1 Les propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Equivalence logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Négation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Sens de ”et”, ”ou” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.4 Implication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Les quantificateurs “pour tout” et “il existe” . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Enoncés avec plusieurs quantificateurs . . . . . . . . . . . . . . . . . . . . 11
1.2.3 Négation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Quelques formes de raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Par contre-exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.2 Par contraposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3 Par l’absurde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.4 Par récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Calcul algébrique 15
2.1 Somme et produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Formules à connaitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Un peu de théorie des ensembles 19


3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Union et intersection de deux ensembles . . . . . . . . . . . . . . . . . . . . . . . 20
3.3 Différence de deux parties, complémentaire d’une partie . . . . . . . . . . . . . . 21
3.4 Produit cartésien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.5 Union et intersection d’un nombre quelconque d’ensembles . . . . . . . . . . . . . 24
3.6 Partitions d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6.2 Relations d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4 Applications 27
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2 Antécédents, image directe, image réciproque . . . . . . . . . . . . . . . . . . . . 29
4.3 Applications injectives, surjectives, bijectives . . . . . . . . . . . . . . . . . . . . 31
4.4 Application réciproque d’une application bijective . . . . . . . . . . . . . . . . . . 32
4.5 Prolongements et restrictions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3
4 TABLE DES MATIÈRES

5 Ensembles finis, ensembles dénombrables 35


5.1 Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.2 Ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

6 Les nombres complexes 41


6.1 Définitions élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.2 Conjugué d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.3 Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.4 Argument d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.5 Racines nièmes d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . 48
6.6 Equation du second degré dans C I . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.7 Géométrie dans le plan complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

7 Les nombres entiers et les nombres rationnels 53


7.1 Le principe de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7.2 La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
7.3 Le ppcm d’une famille d’entiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
7.4 Le pgcd d’une famille d’entiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7.5 Nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.6 Nombres premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.7 Décomposition d’un entier en facteurs premiers . . . . . . . . . . . . . . . . . . . 64

8 Les polynômes 67
8.1 Définitions et vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
8.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.3 Le ppcm d’un famille de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . 70
8.4 Le pgcd d’une famille de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . 71
8.5 Polynômes premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
8.6 Polynômes premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
8.7 Décomposition d’un polynôme en facteurs premiers . . . . . . . . . . . . . . . . . 77
8.8 Racine d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.9 Dérivée d’un polynôme et formule de Taylor . . . . . . . . . . . . . . . . . . . . . 81
8.10 Multiplicité d’une racine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.11 Applications aux fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . 84

9 Matrices 87
9.1 Définitions et terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
9.1.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
9.1.2 Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
9.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
9.2.1 Egalité de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
9.2.2 Somme de deux matrices de Mn,p . . . . . . . . . . . . . . . . . . . . . . . 89
9.2.3 Multiplication d’une matrice de Mn,p par un scalaire . . . . . . . . . . . 90
9.2.4 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
9.2.5 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.3 Les matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
9.3.1 Quelques matrices carrées particulières . . . . . . . . . . . . . . . . . . . 96
9.3.2 Opérations dans Mn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.3.3 Puissances d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . 97
9.3.4 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
TABLE DES MATIÈRES 5

10 systèmes linéaires 101


10.1 Définitions et écriture matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
10.2 Systèmes faciles à résoudre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
10.2.1 Systèmes triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
10.2.2 Systèmes échelonnés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
10.3 Opérations élémentaires sur les lignes . . . . . . . . . . . . . . . . . . . . . . . . . 104
10.3.1 Définition et propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
10.3.2 Disposition pratique des calculs . . . . . . . . . . . . . . . . . . . . . . . 105
10.4 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
10.4.1 Exposé de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
10.4.2 Réduite de Gauss d’une matrice A . . . . . . . . . . . . . . . . . . . . . . 107
10.4.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
10.4.4 Choix des pivots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
10.4.5 Cas général : résolution du système . . . . . . . . . . . . . . . . . . . . . 111
10.4.6 Solutions d’un système linéaire quelconque . . . . . . . . . . . . . . . . . 112
10.5 Matrices et systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
10.5.1 Interprétation matricielle des opérations élémentaires . . . . . . . . . . . . 113
10.5.2 Calcul de l’inverse d’une matrice par la méthode du pivot . . . . . . . . . 115
6 TABLE DES MATIÈRES

Notations

Dans toute le polycopié, nous utiliserons les notations suivantes :


— IN désigne l’ensemble des entiers naturels, IN ∗ l’ensemble des entiers naturels non nuls,
— ZZ désigne l’ensemble des entiers relatifs, ZZ ∗ l’ensemble des entiers relatifs non nuls,
— Q désigne l’ensemble des rationnels, Q∗ l’ensemble des rationnels non nuls,
— IR désigne l’ensemble des réels, IR∗ l’ensemble des réels non nuls,
— CI désigne l’ensemble des nombres complexes, C I ∗ l’ensemble des nombres complexes non
nuls,
— IR[X] désigne l’ensemble des polynômes à coefficients réels,
— CI[X] désigne l’ensemble des polynômes à coefficients complexes.
— Si z est un nombre complexe, Re(z) désigne sa partie réelle tandis que Im(z) désigne sa
partie imaginaire.

Quelques lettres grecques fréquemment utilisées en mathématiques :

Minuscule Majuscule
alpha α A
bêta β B
gamma γ Γ
delta δ ∆
epsilon  E
zéta ζ Z
éta η N
théta θ Θ
kappa κ K
lambda λ Λ
mu µ M
nu ν N
xi ξ Ξ
pi π Π
rhô ρ R
sigma σ Σ
tau τ T
phi φ Φ
khi χ X
psi ψ Ψ
omega ω Ω
Chapitre 1

Eléments de logique

Le lecteur pourra consulter également le chapitre ”S’exprimer en mathématiques” dans le cours


d’Algébre 1ére année de D. Liret et F. Martinais, chez Dunod.

1.1 Les propositions


Une proposition est un énoncé mathématique complet qui est soit vrai soit faux. Par exemple,
”23 ≥ 10” est une proposition fausse ; ”Dans tout triangle rectangle, le carré de l’hypothénuse
est égal à la somme des carrés des deux autres cités” est une proposition vraie. Un axiome
est une proposition dont on admet qu’elle est vraie. Un théorème est une proposition dont on
démontre qu’elle est vraie, à l’aide des axiomes, des théorèmes déjà démontrés, et des règles de
logique que nous allons étudier.
A partir de propositions existantes et d’expression comme ”non”, ”et”, ”ou”, ”implique”,...,
on peut former de nouvelles propositions. Dans la suite, les lettres P, Q, R désignent des
propositions.

1.1.1 Equivalence logique

Définition 1.1.1 Les propositions P et Q sont équivalentes si elles sont vraies simultanément
et fausses simultanément et on note
P ⇔ Q.
On dit que P est vraie si et seulement si Q est vraie.

On dit que deux propositions équivalentes sont deux propositions ayant les mêmes valeurs
de vérité. Pour prouver que P et Q sont équivalentes, on construit un tableau appelé table de
vérité dans lequel on fait apparaı̂tre les différentes valeurs de vérité possibles pour le couple (P,
Q) (Vrai et Vrai, Vrai et Faux, ...) et, en correspondance, les valeurs de vérité de la proposition
P ⇔ Q. Ainsi, la table de vérité de l’équivalence logique P ⇔ Q est :

P Q P⇔Q
V V V
V F F
F V F
F F V

7
8 CHAPITRE 1. ELÉMENTS DE LOGIQUE

La première ligne de ce tableau signifie que si les propositions P et Q sont vraies, la pro-
position P ⇔ Q est vraie. La deuxième ligne signifie que si P est vraie et Q fausse alors la
proposition P ⇔ Q est fausse.

Exemple 1.1.2 Pour tout réel x,

x2 ≤ 4 ⇔ |x| ≤ 2 ⇔ −2 ≤ x ≤ 2.

1.1.2 Négation

Définition 1.1.3 La proposition ”non P”, appelée négation de P, veut dire : ”P est fausse”.
La proposition ”non P” est fausse si P est vraie, et vraie si P est fausse.
La table de vérité de non P est

P non P
V F
F V

Proposition 1.1.4 Soit P une proposition, on a

P ⇔ non(nonP ).

preuve : Il est clair que P et non(non P) ont les mêmes valeurs de vérité.

Exemple 1.1.5 Soit x un réel, la négation de x > 3 est x ≤ 3.

1.1.3 Sens de ”et”, ”ou”

Définition 1.1.6 La proposition ”P et Q” est vraie si et seulement si les propositions P et Q


sont toutes les deux vraies.
La proposition ”P ou Q” est vraie si et seulement si au moins l’une des propositions P et Q est
vraie.
Les tables de vérité de ”et” et du ”ou” :

P Q P et Q P ou Q
V V V V
V F F V
F V F V
F F F F

A noter : en mathématiques, “P ou Q” ne veut pas dire “soit P, soit Q” (comme dans “fro-
mage ou dessert” ) mais “soit P, soit Q, soit les deux” . On dit que le “ou” est inclusif.
1.1. LES PROPOSITIONS 9

On peut combiner plusieurs de ces expressions. Par exemple, la proposition ”(non P) ou Q”


veut dire : ”non P est vraie ou Q est vraie”, c’est à dire : ”P est fausse ou Q est vraie”. Elle
est vraie dans les trois cas suivants : ”P fausse, Q fausse”, ”P fausse, Q vraie” et ”P vraie, Q
vraie”. Elle est fausse dans le quatriéme et dernier cas possible : ”P vraie, Q fausse”.
On prouve avec des tables de vérité les propositions suivantes :

Proposition 1.1.7 Lois de Morgan Soit P et Q deux propositions, on a

non (P ou Q) ⇔ (non P et non Q)

et
non (P et Q) ⇔ (non P ou non Q).

Proposition 1.1.8 commutativité, associativité et distributivité Soit P, Q et R trois


propositions, on a
— (P et Q) ⇔ (Q et P)
— (P ou Q) ⇔ (Q ou P)
— ((P et Q) et R) ⇔ (P et (Q et R))
— ((P ou Q) ou R) ⇔ (P ou (Q ou R))
— ((P et Q) ou R) ⇔ ((P ou R) et (Q ou R))
— ((P ou Q) et R) ⇔ ((P et R) ou (Q et R))

Remarque 1.1.9 En général, la place des parenthéses est importante. Par exemple, ”(non P)
ou Q” ne veut pas dire la même chose que ”non (P ou Q)” : si P et Q sont toutes les deux
vraies, la première proposition est vraie, mais la seconde est fausse.
Exemple 1.1.10 Soit P un polynôme de IR[X],
non(P (0) = 0 ou P (1) = 0) ⇔ P (0) 6= 0 et P (1) 6= 0.

1.1.4 Implication

Définition 1.1.11 Soit P et Q deux propositions, la proposition P implique Q ,notée P ⇒ Q,


est définie par sa table de vérité
P Q P⇒ Q
V V V
V F F
F V V
F F V

L’implication P ⇒ Q exprime que si P est vraie alors Q est vraie. On dit que Q est une
condition nécessaire pour que P soit vraie et P est une condition suffisante pour que Q
soit vraie.

Proposition 1.1.12 Soit P une proposition, on a

non (P ⇒ Q) ⇔ (P et non Q).


10 CHAPITRE 1. ELÉMENTS DE LOGIQUE

preuve : P ⇒ Q est fausse dans l’unique cas où P est vraie et Q fausse c’est-à-dire P est vraie et
non Q vraie.

Avec des tables de vérité, on prouve la proposition suivante :

Proposition 1.1.13 Soit P, Q et R trois propositions, on a


1. transitivité de l’implication

((P ⇒ Q) et (Q ⇒ R)) ⇒ (P ⇒ R).

2. équivalence
((P ⇒ Q) et (Q ⇒ P )) ⇔ (P ⇔ Q).
3. contraposée
(P ⇒ Q) ⇔ (non Q ⇒ non P ).

1.2 Les quantificateurs “pour tout” et “il existe”

1.2.1 Définitions

Soit x un réel, on définit une proposition qui dépend de x et on la note P (x). Par exemple,
on considère la proposition P (x) qui est x2 + x + 1 ≥ 0. Cette proposition peut être vraie que
pour certains réels x, ou pour tous ou aucun. Pour exprimer que P (x) est vraie pour tout réel
x, on utilise un quantificateur ”pour tout ”, noté ∀, on écrit alors

∀x ∈ IR, x2 + x + 1 ≥ 0

Aprés ∀, la virgule se lit “on a” ou ne se lit pas.

De même, pour exprimer qu’il existe un réel x tel que P (x) soit vraie, on utilise un quanti-
ficateur ”il existe”, noté ∃, on écrit alors

∃x ∈ IR, x2 + x + 1 ≥ 0

Aprés ∃, la virgule se lit ”tel que”.

Plus généralement, soit E un ensemble et P (x) un énoncé qui, pour toute valeur donnée à
x dans E est soit vrai soit faux.
1.2. LES QUANTIFICATEURS “POUR TOUT” ET “IL EXISTE” 11

Définition 1.2.1 On a
— La proposition :  Pour tous les éléments x de E, la proposition P (x) est vraie  s’écrit :

∀x ∈ E, P (x).

— La proposition :  il existe au moins un élément x de E tel que la proposition P (x) est


vraie  s’écrit :
∃x ∈ E, P (x).
— La proposition :  il existe un et un seul élément x de E tel que la proposition P (x) est
vraie  s’écrit :
∃!x ∈ E, P (x).
∀ s’appelle le quantificateur universel et ∃ s’appelle le quantificateur existentiel.

1.2.2 Enoncés avec plusieurs quantificateurs


Importance de l’ordre : dans un énoncé comprenant plusieurs quantificateurs, l’ordre dans
lequel ils interviennent est important. Considérons les deux propositions suivantes :

P1 : “Pour tout réel x, il existe un entier naturel n tel que x ≤ n”.


P2 : “Il existe un entier naturel n tel que, pour tout réel x, x ≤ n”

La première proposition est vraie : pour n’importe quel réel donné, on peut trouver un entier
naturel qui est plus grand que ce réel. En revanche, la seconde proposition est fausse : il n’existe
pas d’entier naturel qui soit plus grand que tous les réels (si je fixe un entier naturel n, il y aura
toujours des réels x tels que x > n, par exemple x = n + 1). Le problème vient du fait que dans
la première proposition, n peut dépendre de x, alors que dans la deuxième proposition, le n ne
dépend pas de x.

1.2.3 Négation

Proposition 1.2.2 On a
— La négation de ”Pour tout élément x de E, P (x) est vraie” est : ”Il existe un élément x
de E tel que P (x) est fausse” soit

non(∀x ∈ E, P (x)) ⇔ (∃x ∈ E, non(P (x))).

— La négation de ”Il existe un élément x de E tel que P (x) est vraie” est ”Pour tout
élément x de E, P (x) est fausse” soit

non(∃x ∈ E, P (x)) ⇔ (∀x ∈ E, non(P (x))).

Pour former la négation d’une proposition comportant plusieurs quantificateurs, il suffit


d’appliquer les régles précédentes plusieurs fois de suite. En pratique, cela revient à appliquer
la régle suivante : pour former la négation d’une proposition comportant un ou plusieurs quanti-
ficateurs, on inverse les quantificateurs et on nie la conclusion. Inverser les quantificateurs veut
dire changer les ”pour tout” en ”il existe” et les ”il existe” en ”pour tout”. Si la proposition
est écrite de maniére formelle (avec ∃, ∀, etc.), on change les ∀ en ∃, les ∃ en ∀, et on nie la
conclusion.
12 CHAPITRE 1. ELÉMENTS DE LOGIQUE

Exemple 1.2.3 soit P la proposition suivante (qui affirme l’existence du quotient et du reste
dans la division euclidienne d’un entier naturel par un entier naturel non nul ; la division
euclidienne est celle qu’on vous a apprise en primaire) :

∀a ∈ IN, ∀b ∈ IN ∗ , ∃q ∈ IN, ∃r ∈ IN, (a = bq + r et r < b)


Celle de non P est :

∃a ∈ IN, ∃b ∈ IN ∗ , ∀q ∈ IN, ∀r ∈ IN, non(a = bq + r et r < b)

ce qui donne finalement

∃a ∈ IN, ∃b ∈ IN ∗ , ∀q ∈ IN, ∀r ∈ IN, (a 6= bq + r ou r ≥ b)

1.3 Quelques formes de raisonnement


1.3.1 Par contre-exemple
On utilise un contre-exemple pour infirmer une propriété présentée comme générale. Par
exemple soit P la proposition
√ √ √
∀(x, y) ∈ IR+ , x + y = x + y.
√ √ √ √
Cette proposition est fausse puisque pour x = 4 et y = 9, x + y = 5 et x + y = 13.

1.3.2 Par contraposée


Soient P et Q deux propositions. Pour montrer la proposition “P ⇒ Q”, il suffit de montrer
“(N on Q) ⇒ (N on P )” : en effet les propositions “P ⇒ Q” et “(N on Q) ⇒ (N on P )” sont
équivalentes.

Ce type de raisonnement est fréquemment utilisé lorsque P et Q sont des propositions


complexes. Illustrons-le ici par un exemple élémentaire. Si P=“le sol est sec” et Q=“il n’a pas
plu”. Dire que “P ⇒ Q” peut se démontrer en disant que si N on Q (c’est-à-dire, “s’il a plu”),
alors N on P (c’est-à-dire “le sol est mouillé”).
Un autre exemple, soit x un réel fixé, on considére la proposition

(∀ > 0, |x| < ) ⇒ x = 0.

On note P la proposition ∀ > 0, |x| <  et Q la proposition x = 0. La négation de P est


∃ > 0, |x| ≥  et la négation de Q est x 6= 0. La contraposée de P ⇒ Q est

x 6= 0 ⇒ (∃ > 0, |x| ≥ ).

Or si x est non nul, |x| est strictement positif. On pose  = |x|, ce réel  est strictement positif
et on a bien l’inégalité donc non Q est vraie. La contraposée est vraie donc P ⇒ Q est vraie.

1.3.3 Par l’absurde


Pour montrer une proposition P, on suppose que P est fausse, et on cherche à aboutir à
une contradiction (d’un point de vue raisonnement, on utilise ici le fait que les propositions
“N on(N on P )” et “P ” sont équivalentes).
1.3. QUELQUES FORMES DE RAISONNEMENT 13

Par exemple, pour montrer la proposition P= “il y a une infinité de nombre premiers”, on
peut raisonner par l’absurde en supposant Non P= “il y en a qu’un nombre fini de nombres
premiers”. Soit alors p le plus grand nombre premier. Définissons q comme étant le nombre
q = p! + 1 = 1 × 2 × . . . × p + 1. Alors il est facile de voir que tout nombre premier r divisant q
est strictement plus grand que p. Comme il existe toujours un tel nombre premier r, on abouti
à une contradiction.

1.3.4 Par récurrence


On se sert du raisonnement par récurrence pour montrer qu’une famille de propositions
P (n), indexée par des entiers naturels n ∈ IN , est vraie pour tout entier n. Le principe est de
montrer pour un entier n0
1. Initialisation : P (n0 ) est vraie,
2. Hérédité : Soit un entier n ≥ n0 , on suppose que si P (n) est vraie (hypothése de
récurrence), alors P (n + 1) est vraie également.
Si l’on arrive à montrer que (1) et (2) sont vraies, alors la méthode de récurrence permet
d’affirmer que P (n) est vrai pour tout entier n ≥ n0 .

Exemple 1.3.1 on veut montrer que la somme Sn des n premiers entiers naturels est égale
à n(n + 1)/2. Appelons P (n) cette proposition. Il est clair que P(1) est vraie, puisque S1 =
1 = 1(1 + 1)/2. Supposons que P(n) soit vrai pour un certain n ≥ 1 (hypothése de récurrence),
et montrons que P(n+1) l’est aussi. Comme Sn+1 = Sn + (n + 1), on a, par hypothése de
récurrence,

n(n + 1) n(n + 1) + 2(n + 1) (n + 1)((n + 1) + 1)


Sn+1 = Sn + (n + 1) = + (n + 1) = =
2 2 2
Donc P(n+1) est vrai. Par récurrence on en déduit que P(n) est vrai pour tout n, c’est-à-dire
que Sn = n(n+1)
2 pour tout n ∈ IN ∗ .

Exemple 1.3.2 Dans cet exemple, nous montrons que l’hérédité ne suffit pas c’est-à-dire on
peut avoir P (n) implique P (n + 1) vrai pour tout entier n et pourtant P (n) est fausse. On
considére la propriété
∀n ∈ IN, P (n) : 3 divise 4n + 1.
Soit un entier n, on suppose que P (n) est vrai. On a

4n+1 + 1 = 4 × 4n + 4 − 3 = 4(4n + 1) + 3,

or par hypothése de récurrence, 3 divise 4n + 1 donc 4(4n + 1) + 3 donc P (n + 1) est vraie. Par
contre P (0) est fausse car 3 ne divise pas 5. On peut montrer que pour tout entier n, P (n) est
fausse.
14 CHAPITRE 1. ELÉMENTS DE LOGIQUE
Chapitre 2

Calcul algébrique

L’objectif de ce chapitre est essentiellement pratique : savoir calculer avec des formules
contenant des indices utilisant les symboles Σ pour somme et Π pour produit.

2.1 Somme et produit


L’écriture
5
X
2k
k=0
k
se lit ” somme pour k allant de 0 à 5 de 2 ” ce qui revient à
5
X
2k = 20 + 21 + 22 + 23 + 24 + 25 .
k=0

La lettre k est un indice de sommation, on peut choisir i comme indice sans modifier la
valeur de la somme, on dit que k est une variable muette :
5
X 5
X
2i = 2k = 20 + 21 + 22 + 23 + 24 + 25 .
i=0 k=0

On rappelle que par convention, a0 = 1 pour tout réel a. Le nombre de termes de cette
somme est 5 − 0 + 1 = 6, on reconnait la somme des termes d’une suite géométrique donc
5
X 1 − 26
2k = 1 × = 63.
1−2
k=0

On peut aussi écrire une somme allant de k = 0 à k = n où n est un entier naturel
quelconque, on a
Xn
2k = 20 + 21 + 22 + 23 + 24 + · · · + 2n .
k=0

Le nombre de terme de cette somme est n + 1 et on a


n
X 1 − 2n+1
2k = 1 × = 2n+1 − 1.
1−2
k=0

15
16 CHAPITRE 2. CALCUL ALGÉBRIQUE

Lorsque la quantité à sommer de dépend pas de l’indice de sommation, le calcul de la somme


revient à compter les termes de la somme, ainsi pour tout réel a :
10
X
a = a + a + · · · + a = 10 × a
k=1

Par contre
10
X
a = 11 × a.
k=0

Cet exemple montre que la valeur d’une somme dépend de l’indice de départ et de celui d’arrivée.
Dans certaine somme, il peut être astucieux de faire un changement d’indice, par exemple
on pose i = k − 1 et on obtient
3
X 2
X 2
X
2k = 2i+1 = 2 2i = 2(1 + 2 + 22 ) = 14
k=1 k=0 k=0

Considérons le cas d’une somme double


2 X
X 1
S= 2ij .
i=0 j=0

On a
2
X
S= (1 + 2i ) = (1 + 1) + (1 + 2) + (1 + 4) = 10.
i=0

Cette opération revient à additionner tous les termes 2ij lorsque i varient de 0 à 2 et j de 0 à
1. On peut disposer ces valeurs dans un tableau

i/j 0 1
0 1 1 2
1 1 2 3
2 1 4 5
3 7 S = 10

Sur ce tableau, pour calculer S on peut soit additionner les termes par lignes puis additionner
les résultats ou encore additionner les colonnes puis additionner les résultats. Ainsi
1 X
X 2
S = (1 + 1 + 1) + (1 + 2 + 4) = 2ij .
j=0 i=0

On a ainsi réalisé une interversion des deux sommes.


De manière générale, on a toujours pour n et p deux entiers et (aij ) np réels ou complexes

X p
n X p X
X n
aij = aij .
i=0 j=0 j=0 i=0

Une situation plus difficile apparait lorsque les indices i et j sont liés, par exemple on impose
j ≤ i alors intervertir les deux sommes nécessite de respecter cette condition

X n X
X i n
X n
X
aij = aij = aij .
0≤j≤i≤n i=0 j=0 j=0 i=j+1
2.1. SOMME ET PRODUIT 17

Par exemple

5 5 5 X j
X i XX i X i
= = ,
j i=1 j=i
j j=1 i=1
j
1≤i≤j≤5
5 j
X 1X
= i,
j=1
j i=1
5
X 1 j(j + 1)
= ,
j=1
j 2
5
1X
= j + 1,
2 j=1
5 5
1 X X
= ( j+ 1),
2 j=1 j=1
1
= (15 + 5) = 10.
2

Pour comprendre l’interversion, on dispose les nombres i/j dans un tableau

i/j 1 2 3 4 5
1 1 1/2 1/3 1/4 1/5
2 2 1 2/3 2/4 2/5
3 3 3/2 1 3/4 3/5
4 4 2 4/3 1 4/5
5 5 5/2 5/3 5/4 1

Dans ce tableau, les cases qui vérifient la condition i ≤ j correspond aux nombres au dessus
de la diagonale de 1, c’est-à-dire aux nombres représentés en gras. La double somme signifie
que l’on additionne tous les nombres en gras. Or il y a deux façons de faire : Dans la première
double somme écrite, on somme sur i ce qui signifie que l’on fixe une ligne i puis on additionne
tous les termes en gras de cette ligne, puis tous ces termes sont additionnés. Mais on peut aussi
fixer j c’est-à-dire fixer une colonne puis sommer tous les nombres en gras de cette colonne, puis
tous ces termes sont additionnés. Ces deux méthodes donnent bien entendu le même résultat.
On procède de la même manière pour les produits, on a
n
Y
ak = a1 × · · · × an .
k=1

Par exemple, on a par définition du factoriel d’un entier.


n
Y
k = k!.
k=1

et aussi
n
Y
= 2 · · · 2 = 2n .
k=1
18 CHAPITRE 2. CALCUL ALGÉBRIQUE

2.2 Formules à connaitre


Somme des n premiers entiers Pour tout entier n, on a
n
X n(n + 1)
k= .
2
k=1

Somme des termes d’une suite géométrique de raison q Pour tout entier n,
n
(
1−q n+1
X
k si q 6= 1,
q = 1−q .
k=0
n + 1 si q = 1.

Formule du binôme de Newton Pour tout entier n, pour tout complexe a et b


n  
X n
(a + b)n = ak bn−k .
k
k=0
Chapitre 3

Un peu de théorie des ensembles

3.1 Définitions

Définition 3.1.1 Un ensemble est une collection d’objets. Ces objets sont appelés éléments de
l’ensemble.
L’ensemble qui n’a aucun élément s’appelle ensemble vide. On le note ∅.
Pour dire que x est un élément de l’ensemble E, on écrit x ∈ E. Pour dire que x n’est pas un
élément de E, on écrit x ∈
/ E.
Deux ensembles A et B sont égaux s’ils ont les mêmes éléments. On note alors A = B.

Exemple 3.1.2 {n ∈ IN, n ≤ 5} se lit : “l’ensemble des n de IN tel que n ≤ 5”. On peut aussi
écrire {n ∈ IN | n ≤ 5}, et {n ∈ IN : n ≤ 5}.
I, IR+ , IN ∗ , {1, 2, 3}.
Exemple 3.1.3 Les ensembles de nombres : IN , ZZ, Q, IR, C

Définition 3.1.4 Inclusion

Soit A et B deux sous ensemble de E. On dit que l’ensemble A est inclus dans l’ensemble B si
tout élément de A est un élément de B. On note alors A ⊂ B :

[A ⊂ B] ⇔ [∀x ∈ E, x ∈ A ⇒ x ∈ B].

Exemple 3.1.5 L’ensemble vide est inclus dans tout ensemble : pour tout ensemble B, ∅ ⊂ B
(en effet, puisque ∅ n’a pas d’éléments, il n’est pas possible de trouver un élément de ∅ qui ne
soit pas dans B).
De plus, tout ensemble est inclus dans lui-même : pour tout ensemble B, B ⊂ B.
La méthode la plus courante pour montrer que deux ensembles sont égaux est de procéder
par “double inclusion”, c’est à dire de montrer d’abord que A est inclus dans B, puis que B est
inclus dans A.

Proposition 3.1.6 Deux ensembles A et B sont égaux si et seulement si A est inclus dans B
et B est inclus dans A :
[A = B] ⇔ [A ⊂ B et B ⊂ A]

19
20 CHAPITRE 3. UN PEU DE THÉORIE DES ENSEMBLES

Définition 3.1.7 Ensemble des parties


L’ensemble des parties de B se note P(B).

Exemple 3.1.8 soit B = {1, 2, 3}. Quels sont les parties de B ? Ce sont les ensembles inclus
dans B. C’est à dire : ∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, et {1, 2, 3} = B. On a donc :

P(B) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, B}

3.2 Union et intersection de deux ensembles


Dans tout ce qui suit, A et B désignent des ensembles.

Définition 3.2.1 Union, Intersection


L’union des ensembles A et B est l’ensemble des éléments qui appartiennent à A ou à B. On
la note A ∪ B. Formellement,

[x ∈ A ∪ B] ⇔ [x ∈ A ou x ∈ B] .

L’intersection des ensembles A et B est l’ensemble des éléments qui appartiennent à la fois à
A et à B. On la note A ∩ B. Formellement,

[x ∈ A ∩ B] ⇔ [x ∈ A et x ∈ B] .

Exemple 3.2.2 A = {2, 5, 7} et B = {1, 5, 7, 9}, on a A ∪ B = {1, 2, 5, 7, 9}, et A ∩ B = {5, 7}.

Proposition 3.2.3 On a

A ⊂ B ⇔ A ∪ B = B ⇔ A ∩ B = A.

Définition 3.2.4 Ensembles disjoints


Deux ensembles A et B sont dits disjoints si A ∩ B = ∅. Des ensembles A1 ,A2 ,...,An sont deux
à deux disjoints si pour tous i et j dans {1, 2, ..., n},

i 6= j ⇒ Ai ∩ Aj = ∅
3.3. DIFFÉRENCE DE DEUX PARTIES, COMPLÉMENTAIRE D’UNE PARTIE 21

Proposition 3.2.5 Commutativité, associativité, distributivité


Soit A, B, C des ensembles quelconques. On a
— A ∪ B = B ∪ A et A ∩ B = B ∩ A. On dit que l’union et l’intersection sont des opérations
commutatives.

A ∪ (B ∪ C) = (A ∪ B) ∪ C et A ∩ (B ∩ C) = (A ∩ B) ∩ C
On dit que l’union et l’intersection sont des opérations associatives.

A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) et A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
On dit que l’union est distributive sur l’intersection et que l’intersection est distributive
sur l’union.

Exercice 1 Démontrer la commutativité et l’associativité de l’union (respectivement, de l’in-


tersection) en utilisant la commutativité et l’associativité du OU (respectivement, du ET). De
même, démontrer que l’union est distributive sur l’intersection, et que l’intersection est distri-
butive sur l’union, en utilisant la distributivité du OU sur le ET, et la distributivité du ET sur
le OU.

Remarque 3.2.6 Une conséquence de l’associativité de l’union et de l’intersection est que les
expressions A ∪ B ∪ C et A ∩ B ∩ C ne sont pas ambigues (on n’a pas besoin de parenthèses). La
première désigne l’ensemble des éléments qui appartiennent à au moins l’un des trois ensemble
A, B, C. La seconde désigne l’ensemble des éléments qui appartiennent aux trois ensembles à
la fois.

Exercice 2 Soient A = {2, 5, 7}, B = {1, 5, 7, 9} et C = {2, 7, 9, 10}. Donner la liste des
éléments de A ∪ B ∪ C et de A ∩ B ∩ C.

3.3 Différence de deux parties, complémentaire d’une par-


tie

Définition 3.3.1 Ensemble ”A moins B”


Soient A et B deux ensembles. On appelle ”A moins B”, et on note A \ B, l’ensemble des
éléments de A qui ne sont pas dans B. On a donc :

x ∈ A \ B ⇔ (x ∈ A et x ∈
/ B)

Exercice 3 si A = {2, 5, 7} et B = {1, 5, 7, 9}, on a A \ B = {2} et B \ A = {1, 9}.

Proposition 3.3.2 Pour tout ensemble A, on a A \ ∅ = A, et A \ A = ∅. De plus, pour tous


ensembles A et B, on a A ⊂ B ⇔ A \ B = ∅.
22 CHAPITRE 3. UN PEU DE THÉORIE DES ENSEMBLES

Définition 3.3.3 Complémentaire Soit E un ensemble. Si A est une partie de E, l’ensemble


E\A s’appelle aussi complémentaire de A dans E. On le note CE (A). Quand il n’y a pas
ambiguité sur E, on le note plus simplement Ac ou Ā. D’une maniére générale on a

[x ∈ CE (A)] ⇔ [x ∈ E et x ∈
/ A].

Exemple 3.3.4 Soit E = {1, 2, 3, 4, 5}. Soit A = {2, 3}. On a CE (A) = {1, 4, 5}. Soit B =
CE (A). On a CE (B) = {2, 3} = A.

Exemple 3.3.5 Soit E = IR. Soit A = [0, 1]. On a CIR (A) = {x ∈ IR, x ∈
/ [0, 1]} =] −
∞, 0[∪]1, +∞[. Soit B = CE (A). On a CE (B) = [0, 1] = A

Proposition 3.3.6 Le complémentaire dans E de l’ensemble vide est l’ensemble E tout entier.
Le complémentaire dans E de E lui-même est l’ensemble vide : CE (∅) = E, CE (E) = ∅.

Proposition 3.3.7 Soit E un ensemble et A ⊂ E. On a : CE (CE (A)) = A. Ainsi le


complémentaire du complémentaire de A est A.

preuve Soit x ∈ E. On a x ∈ CE (CE (A)) ssi non(x ∈ CE (A)). Mais comme x ∈ E, x ∈ CE (A)
ssi non(x ∈ A). On obtient donc x ∈ CE (CE (A)) ssi non(non(x ∈ A)), c’est à dire ssi x ∈ A puisqu’une
double négation est équivalente à une absence de négation. Les ensembles CE (CE (A)) et A ont donc
bien les mêmes éléments : ils sont donc égaux.

Proposition 3.3.8 Soit E un ensemble. Soient A et B des parties de E. On a alors :

[A ⊂ B] ⇔ [CE (B) ⊂ CE (A)]

preuve On donne deux preuves


— Preuve 1 (par double implication) Supposons A ⊂ B. Montrons CE (B) ⊂ CE (A). Soit x dans
CE (B). On a donc x ∈ E et x ∈ / B. Comme A ⊂ B et x ∈ / B, il s’ensuit que x ∈ / A. Or x ∈ E.
Donc x ∈ CE (A). Donc CE (B) ⊂ CE (A). Réciproquement, supposons CE (B) ⊂ CE (A). Notons
A0 = CE (B) et B 0 = CE (A). A0 et B 0 sont deux parties de E telles que A0 ⊂ B 0 . D’aprés la
démonstration qui vient d’être faite, on a donc CE (B 0 ) ⊂ CE (A0 ). Or CE (B 0 ) = CE (CE (A)) = A
et de même CE (A0 ) = B. Donc A ⊂ B.
— Preuve 2 (en utilisant qu’une implication est équivalente à sa contraposée). Par définition,
CE (B) ⊂ CE (A) ssi pour tout x ∈ E tel que x ∈ / B, on a (x ∈ E et x ∈ / A), c’est à dire ssi pour
tout x de E, si x ∈/ B, alors x ∈ / A. Or l’implication ”si x ∈ / B, alors x ∈ / A” est équivalente à
sa contraposée ”si non (x ∈/ A) alors non (x ∈ / B)”, c’est à dire : ”si x ∈ A alors x ∈ B”. Donc
CE (B) ⊂ CE (A) ssi pour tout x de E, si x ∈ A alors x ∈ B, donc ssi pour tout x de A ∩ E, on
a x ∈ B. Comme A ⊂ E, c’est équivalent à A ⊂ B.
3.4. PRODUIT CARTÉSIEN 23

Proposition 3.3.9 Complémentaire de l’union, complémentaire de l’intersection.


Soient E un ensemble, et A et B deux sous-ensembles de E. On a :
(i) CE (A ∪ B) = CE (A) ∩ CE (B).
(ii) CE (A ∩ B) = CE (A) ∪ CE (B)
Ainsi le complémentaire de l’union est l’intersection des complémentaires et le complémentaire
de l’intersection est l’union des complémentaires.

preuve Les résultats de la proposition sont intuitivement évidents : le (i) dit qu’un objet n’est pas
dans l’union de A et de B s’il n’est ni dans A ni dans B ; le (ii) qu’un objet n’est pas dans l’intersection
de A et de B s’il n’est pas dans A ou s’il n’est pas dans B. Voici toutefois une preuve rigoureuse du (i).
Soit x ∈ (A ∪ B)c . On a d’une part x ∈ E, et d’autre part non(x ∈ A ou x ∈ B), donc non(x ∈ A) et
non(x ∈ B). Donc x ∈ Ac et x ∈ B c , donc x ∈ Ac ∩B c . On a donc (A∪B)c ⊂ Ac ∩B c . Réciproquement,
soit x ∈ Ac ∩ B c . On a d’une part x ∈ E, et d’autre part (x ∈ Ac ) et (x ∈ B c ), donc non(x ∈ A)
et non(x ∈ B), donc non(x ∈ A ou x ∈ B), donc non(x ∈ A ∪ B). Donc x ∈ (A ∪ B)c . On a donc
Ac ∩ B c ⊂ (A ∪ B)c . Donc par double inclusion (A ∪ B)c = Ac ∩ B c .
La preuve du (ii) est similaire à celle du (i) et laissée en exercice.

Remarque 3.3.10 Il y a des liens entre les expressions utilisées en logique (et, ou, etc.) et
les opérations sur les ensembles (intersection, union, etc.), mais il ne faut pas mélanger. Les
expressions ”et”, ”ou”, ”implique”, etc. sont à placer entre des propositions, pas entre des
ensembles. Les signes ∩, ∪, ⊂, etc. sont à placer entre des ensembles, pas entre des propositions.
En d’autres termes, si P et Q sont des propositions, ”P et Q” a un sens, mais ”P ∩ Q” n’en a
pas. Si A et B sont des ensembles, ”A ∩ B” a un sens, mais ”A et B” n’en a pas.

3.4 Produit cartésien


Un couple est la donnée de deux objets dans un certain ordre. Bien noter que dans un
couple, l’ordre compte : (1, 3) 6= (3, 1). Un triplet (resp. quadruplet, quintuplet) est la donnée
de trois (resp. quatre, cinq) objets dans un certain ordre. Soit n un entier naturel non nul. Un
n-uplet est la donnée de n objets dans un certain ordre.

Définition 3.4.1 Produit Cartésien On considére un nombre fini d’ensembles A1 , A2 ,...,An ,


le produit cartésien des ensembles A1 , A2 ,...,An , noté A1 × A2 × · · · × An , est constitués des
n-uplets (a1 , a2 · · · , an ) tels que ai ∈ Ai pour tout i dans {1, 2, ..., n}.

A1 × A2 × · · · × An = {(a1 , a2 · · · , an ), tel que ai ∈ Ai pour tout 1 ≤ i ≤ n}


Cas particulier : A × A se note A2 , A × · · · × A se note An .
| {z }
n fois

Exemple 3.4.2 si A = {1, 2, 3} et B = {1, 7}, alors

A × B = {(1, 1), (1, 7), (2, 1), (2, 7), (3, 1), (3, 7)

et
B × A = {(1, 1), (1, 2), (1, 3), (7, 1), (7, 2), (7, 3)}
24 CHAPITRE 3. UN PEU DE THÉORIE DES ENSEMBLES

Exemple 3.4.3 si A = {saumon, poulet} et B = {banane, orange}, alors

A × B = { (saumon, banane), (saumon, orange), (poulet, banane), (poulet, orange) }

Exemple 3.4.4 on note IN 2 l’ensemble des couples d’entiers naturels et IR2 l’ensemble des
couples de réels.

Exercice 4 Soient A et B les intervalles : A = [0, 1] et B = [2, 5]. Dessiner dans le plan IR2
les ensembles A × B et B × A. Bien noter que A × B 6= B × A.

3.5 Union et intersection d’un nombre quelconque d’en-


sembles

Définition 3.5.1 Soit I est un ensemble quelconque (en particulier, pas forcément fini, et pas
forcément un sous-ensemble de IN ), et si pour tout i ∈ I, Ai est un ensemble,
[
Ai
i∈I

désigne l’ensemble des éléments qui appartiennent à au moins l’un des ensembles Ai :
[
x∈ Ai ⇔ ∃i ∈ I, x ∈ Ai .
i∈I
\
De même, Ai désigne l’ensemble des éléments qui appartiennent à tous les Ai :
i∈I
\
x∈ Ai ⇔ ∀i ∈ I, x ∈ Ai .
i∈I

[ [
Remarque 3.5.2 La variable i est muette : les ensembles Ai et Ak sont les mêmes.
1≤i≤n 1≤k≤n

Proposition 3.5.3 si I est un ensemble d’indices quelconque et pour tout i dans I, Bi est un
ensemble : ! !
\ \ [ [
A∪ Bi = (A ∪ Bi ) et A ∩ Bi = (A ∩ Bi )
i∈I i∈I i∈I i∈I

De même, si E est un ensemble et pour tout i dans I, Ai ⊂ E :


! !
[ \ \ [
CE Ai = CE (Ai ) et CE Ai = CE (Ai )
i∈I i∈I i∈I i∈I

[ n
[
Remarque 3.5.4 L’union des ensembles A1 , A2 ,..., An peut aussi s’écrire Ai ou Ai .
1≤i≤n i=1
Les mêmes notations sont utilisées pour l’intersection.
3.6. PARTITIONS D’UN ENSEMBLE 25

3.6 Partitions d’un ensemble


3.6.1 Définition

Définition 3.6.1 Soit E un ensemble. On appelle partition de E une famille finie ou non
(Ai )i∈I de parties de E telles que
— ∀i ∈ I, Ai 6= ∅,
— S ∀i 6= j, Ai ∩ Aj = ∅,
— i∈I Ai = E.

La notion de partition est liée à celle de relation d’équivalence.

3.6.2 Relations d’équivalence

Définition 3.6.2 Une relation binaire R est définie par un ensemble E et par une partie G de
E × E. On dit alors que R est une relation binaire sur E. On dit que x est en relation avec y
et on note x R y si et seulement si (x, y) ∈ G.

En pratique, une relation est en général définie par une propriété commune aux couples
(x, y), par exemple la relation R sur IR telle que : ∀x ∈ IR, ∀y ∈ IR, x R y ⇔ x − y = 1.
Nous ne nous intéresserons ici qu’aux relations d’équivalence (les relations d’ordre, qui
forment une autre grande classe de relations, sont hors programme).

Définition 3.6.3 Une relation R sur un ensemble E est une relation d’équivalence si elle
vérifie les trois propriétés suivantes :
— réflexivité : pour tout x de E, x R x ; on dit que R est réflexive ;
— symétrie : pour tous x et y de E, si x R y alors y R x ; on dit que R est symétrique ;
— transitivité : pour tous x, y et z de E, si x R y et y R z, alors x R z ; on dit que R est
transitive.

Exemple 3.6.4 Sur ZZ, la relation de congruence modulo n (où n ∈ IN ∗ ) : si p, q et n sont


des entiers relatifs, on dit que p est congru à q modulo n si p − q est un multiple de n. C’est
une relation d’équivalence.

Exemple 3.6.5 Soit E et F des ensembles, et f : E → F une application. Soit R la relation


sur E définie par, pour tous x et y dans E, xRy si et seulement si f (x) = f (y). C’est une
relation d’équivalence.

Définition 3.6.6 Classes d’équivalence. Une relation d’équivalence permet de regrouper les
éléments d’un ensemble en classes d’équivalence ; la classe de l’élément a, notée cl(a) ou ā, est
l’ensemble de tous les éléments x tels que x R a ; ces éléments sont dits équivalents à a.
26 CHAPITRE 3. UN PEU DE THÉORIE DES ENSEMBLES

Proposition 3.6.7 Lorsque R est une relation d’équivalence sur un ensemble E, l’ensemble
des classes d’équivalences est appelé ensemble quotient de E par R, et noté E/R.
L’ensemble E/R possède trois propriétés remarquables :
— aucune classe d’équivalence n’est vide,
— deux classes distinctes sont disjointes,
— l’union de toutes les classes d’équivalence est l’ensemble E.
Les classes d’équivalence forment donc une partition de E.
Chapitre 4

Applications

4.1 Généralités
Notations : dans tout le chapitre, E, F , G et H désignent des ensembles.

Définition 4.1.1 Une application f est la donnée d’un ensemble de départ, d’un ensemble
d’arrivée, et d’une régle de calcul qui associe à tout élément x de l’ensemble de départ un unique
élément de l’ensemble d’arrivée, noté f (x) et appelé image de x par f . La régle de calcul est
notée x 7→ f (x).
L’ensemble des applications de E dans F se note F(E, F ) ou F E .

Définition 4.1.2 Egalité de deux applications. Si E, E 0 , F , F 0 sont des ensembles, deux


applications f : E → F et g : E 0 → F 0 sont égales si et seulement si elles ont même ensemble
de départ (E = E 0 ), même ensemble d’arrivée (F = F 0 ) et même régle de calcul (f (x) = g(x)
pour tout x dans E).

Exemple 4.1.3 Soient f1 , f2 , f3 , f4 les applications suivantes :

f1 : IR → IR f2 : IR+ → IR f3 : IR → IR+ f4 : IR+ → IR+


x 7 → x2 x 7 → x2 x 7→ x2 x 7→ x2

Bien qu’elles aient en commun la régle de calcul x 7→ x2 , ces applications sont toutes
différentes. Par exemple, f1 et f2 sont différentes car elles n’ont pas le même ensemble de
départ ; f1 et f3 sont différentes, car elles n’ont pas le même ensemble d’arrivée. Ces applications
n’ont d’ailleurs pas les mêmes propriétés. Par exemple, f2 et f4 sont croissantes, alors que f1
et f3 ne le sont pas.

Exemple 4.1.4 Soient f , g et h définies par

f : IR → IR g : IR∗ → ]0, +∞[ h: [1, 2] → [0, 5]


x 7 → 1/x x 7→ 1/x x 7→ x2

On dit que f n’est pas une application bien définie ce qui signife que f n’est pas une application
car 0 appartient à l’ensemble de départ, mais f (0) n’est pas défini. De même g n’est pas bien
définie puisque par exemple, −2 appartient à l’ensemble de départ, mais 1/(−2) n’appartient

27
28 CHAPITRE 4. APPLICATIONS

pas à l’ensemble d’arrivée. En revanche, h est bien une application, bien que ses ensembles de
départ et d’arrivée ne soient pas particuliérement naturels. On dit que h est une application
bien définie.

Définition 4.1.5 Graphe : Soit f : E → F une application. Le graphe de f est l’ensemble


des couples (x, f (x)), c’est une partie de E × F .

Définition 4.1.6 Composition : soient E, F , F 0 et G des ensembles. Soient f : E → F et


g : F 0 → G des applications. Si F ⊂ F 0 , on peut définir la composée de f et g, notée g ◦ f (” g
rond f ”). C’est l’application de E dans G telle que g ◦ f (x) = g(f (x)) pour tout x dans E.

Exemple 4.1.7 Soient

f: ]2, +∞[ → IR\{5} g: IR → IR\{5}


et 1
x 7→ x2 + 1 x 7→ x−5

Pour tout x dans ]2, +∞[, f (x) ∈ IR\{5}. On peut donc définir g ◦ f et on a, pour tout x dans
]2, +∞[ :
1 1
g ◦ f (x) = 2 = 2
(x + 1) − 5 x −4

Proposition 4.1.8 Soient f : E → F , g : F → G, et h : G → H des applications. On a


h ◦ (g ◦ f ) = (h ◦ g) ◦ f (on dit que la composition des applications est une opération associative).

preuve Les applications h ◦ (g ◦ f ) et (h ◦ g) ◦ f sont toutes deux égales à l’application de E dans H


qui à x associe h(g(f (x))).

Définition 4.1.9 Application identité : soit E un ensemble. On note IdE et on appelle


application identité de E l’application :

IdE : E → E
x 7 → x

Proposition 4.1.10 Pour toute application f : E → F , on a IdF ◦ f = f = f ◦ IdE .

preuve Ces trois applications vont de E dans F . De plus, pour tout x dans E, IdF ◦f (x) = IdF (f (x)) =
f (x) et f ◦ IdE (x) = f (IdE (x)) = f (x).
4.2. ANTÉCÉDENTS, IMAGE DIRECTE, IMAGE RÉCIPROQUE 29

4.2 Antécédents, image directe, image réciproque

Définition 4.2.1 Antécédents : soit f : E → F une application. Soient x ∈ E et z ∈ F . Si


z est l’image de x par f (i.e. f (x) = z), on dit que x est un antécédent de z par f .

Remarque 4.2.2 Un élément de l’ensemble de départ a exactement une image. En revanche,


un élément de l’ensemble d’arrivée peut avoir 0, 1 ou plusieurs antécédents.
2
Exemple 4.2.3 Soit f1 : IR → IR qui à x associe x√ √ −1 n’a pas d’antécédents par f1 ,
. Le réel
0 en a exactement un (lui-même), et 3 en a deux : 3 et − 3. √
2
√Soit f2 : IR+ → IR qui à x associe x . Le réel 3 a un unique antécédent par f2 : 3, car
− 3 n’appartient pas à l’ensemble de départ de f2 .
Soit g : IR → IR qui à x associe g(x) = sin x. Les réels n’appartenant pas à l’intervalle
[−1, 1] n’ont pas d’antécédents par g. Les réels appartenant à [−1, 1] en ont une infinité.

Remarque 4.2.4 Dans le cas des applications de IR dans IR, l’image et les antécédents d’un
réel se lisent facilement sur le graphe.

Définition 4.2.5 Image directe et image réciproque


Soit f : E → F une application. Soient A ⊂ E et B ⊂ F .
L’image (directe) de A par f est la partie de F formée des images de tous les éléments de
A. On la note f (A). On a donc :

f (A) = {f (x), x ∈ A} = {y ∈ F, ∃x ∈ A, y = f (x)}

L’image réciproque de B par f est l’ensemble des éléments de E dont l’image est dans B.
En d’autre termes, c’est l’ensemble des antécédent des éléments de B. On la note f −1 (B). On
a donc
f −1 (B) = {x ∈ E, f (x) ∈ B} = {x ∈ E, ∃z ∈ B, f (x) = z}

Exemple 4.2.6 Le tableau suivant donne des exemples d’images directes par les applications
f1 ,...,f4 de l’exemple 3.1.3. Pour mémoire, ces applications ont toutes la régle de calcul x 7→ x2
mais différent par leurs ensembles de départ et d’arrivée. Ces derniers sont rappelés sur la
premiére ligne du tableau. ”ND” veut dire ”Non défini”.

IR → IR IR+ → IR IR → IR+ IR+ → IR+


A f1 (A) f2 (A) f3 (A) f4 (A)
{2} {4} {4} {4} {4}
{−2, 2} {4} ND {4} ND
[−1, 3] [0, 9] ND [0, 9] ND
[−1, 0] ∪ [1, 3] [0, 9] ND [0, 9] ND
IR+ IR+ IR+ IR+ IR+
IR IR+ ND IR+ ND
La raison pour laquelle, par exemple, f2 (IR) n’est pas défini, est que IR n’est pas inclus dans
l’ensemble de départ de f2 .
Le tableau suivant donne des exemples d’images réciproques pour les mêmes applications.
On remarquera que l’image réciproque d’un ensemble non vide peut être vide.
30 CHAPITRE 4. APPLICATIONS

IR → IR IR+ → IR IR → IR+ IR+ → IR+


−1
B f√
1 (B)
√ f2−1√(B)
−1
f√
3 (B)√ f4−1
√(B)
{2} { −√2, √2 } { √2 } { − 2, 2 } { 2}
{−1, 2} { −√2, √2 } { √2 }  √ N D√   N√ D 
[0, 3]  −√3, √3   0, √3  − 3, 3 0, 3
[ −1, 3 ]  √ − 3, 3  √  0, 3√  ND ND
[−1, 0] ∪ [1, 3] {0} ∪ − 3, −1 ∪ 1, 3 {0} ∪ 1, 3 ND ND
IR+ IR IR+ IR IR+

IR− ∅ ∅ ND ND
IR IR IR+ ND ND

La raison pour laquelle, par exemple, l’image réciproque de IR par f3 n’est pas définie est
que IR n’est pas inclus dans l’ensemble d’arrivée de f3 .

Proposition 4.2.7 Soit f : E −→ F une application. Soient A et A0 des parties de E, et B et


B 0 des parties de F .
— Si A ⊂ A0 alors f (A) ⊂ f (A0 ).
— Si B ⊂ B 0 , alors f −1 (B) ⊂ f −1 (B 0 ).

Preuve Laissée au lecteur.

Proposition 4.2.8 Soit f : E −→ F une application. Soient A et A0 des parties de E, et B et


B 0 des parties de F . Alors :

1) A ⊂ f −1 (f (A)) 2) f (f −1 (B)) ⊂ B
3) f (A ∪ A0 ) = f (A) ∪ f (A0 ) 4) f (A ∩ A0 ) ⊂ f (A) ∩ f (A0 )
5)f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 ) 6) f −1 (B ∩ B 0 ) = f −1 (B) ∩ f −1 (B 0 )

7) En général, les réciproques du 1), du 2) et du 4) sont fausses.

Preuve
1) Soit x ∈ A. Posons B = f (A). On a f (x) ∈ B donc x ∈ f −1 (B) = f −1 (f (A)).
2) Soit y ∈ f (f −1 (B)). Posons A = f −1 (B). On a y ∈ f (A), donc il existe x ∈ A tel que f (x) = y.
Comme x ∈ A = f −1 (B), on a f (x) ∈ B. Donc y ∈ B. Donc f (f −1 (B)) ⊂ B.
3) Par double inclusion. Montrons tout d’abord f (A ∪ A0 ) ⊂ f (A) ∪ f (A0 ). Soit y ∈ f (A ∪ A0 ).
Il existe x ∈ A ∪ A0 tel que f (x) = y. Comme x ∈ A ∪ A0 , on a x ∈ A ou x ∈ A0 . Si x ∈ A,
f (x) ∈ f (A) donc y ∈ f (A) donc y ∈ f (A) ∪ f (A0 ). Sinon, x ∈ A0 , et de même y ∈ f (A) ∪ f (A0 ).
Donc f (A ∪ A0 ) ⊂ f (A) ∪ f (A0 ). Montrons maintenant f (A) ∪ f (A0 ) ⊂ f (A ∪ A0 ). On a A ⊂ A ∪ A0
donc f (A) ⊂ f (A ∪ A0 ). De même, f (A0 ) ⊂ f (A ∪ A0 ). Donc f (A) ∪ f (A0 ) ⊂ f (A ∪ A0 ), et par double
inclusion on a l’égalité.
4) A ∩ A0 ⊂ A donc f (A ∩ A0 ) ⊂ f (A). De même f (A ∩ A0 ) ⊂ f (A0 ), donc f (A ∩ A0 ) ⊂ f (A) ∩ f (A0 ).
5) Soit x ∈ E. On a : x ∈ f −1 (B ∪ B 0 ) ssi f (x) ∈ B ∪ B 0 donc ssi (f (x) ∈ B ou f (x) ∈ B 0 ), donc ssi
(x ∈ f −1 (B) ou x ∈ f −1 (B 0 )), donc ssi x ∈ f −1 (B) ∪ f −1 (B 0 ). Donc f −1 (B ∪ B 0 ) = f −1 (B) ∪ f −1 (B 0 ).
6) Identique à la preuve du 5) en remplaçant ∪ par ∩, et ”ou” par ”et”.
7) Pour voir que les réciproques du 1), du 2) et du 4) sont fausses, considérons l’application f : IR →
IR qui à x associe x2 . Posons A = B = IR− et A0 = IR+ . On a f (A) = IR+ , donc f −1 (f (A)) = IR 6= A.
4.3. APPLICATIONS INJECTIVES, SURJECTIVES, BIJECTIVES 31

Donc la réciproque du 1) est fausse. On a f −1 (B) = {0}, donc f (f −1 (B)) = {0} = 6 B, donc la
réciproque du 3) est fausse. Enfin, f (A0 ) = R+ = f (A), donc f (A) ∩ f (A0 ) = IR+ , mais A ∩ A0 = {0},
donc f (A ∩ A0 ) = {0} =6 f (A) ∩ f (A0 ). Donc la réciproque du 4) est fausse.

4.3 Applications injectives, surjectives, bijectives

Définition 4.3.1 Soit f une application.


— f est injective si tout élément de l’ensemble d’arrivée a au plus un antécédent par f .
— f est surjective si tout élément de l’ensemble d’arrivée a au moins un antécédent.
— f est bijective si tout élément de l’ensemble d’arrivée a un unique antécédent.
Une application injective (respectivement surjective, bijective) est aussi appelée une injection
(respectivement surjection, bijection).

Exemple 4.3.2 Soient f1 : IR → IR, f2 : IR+ → IR, f3 : IR → IR+ et f4 : IR+ → IR+


qui à x associent x2 . L’application f1 n’est ni injective ni surjective ; f2 est injective mais pas
surjective ; f3 est surjective mais pas injective ; f4 est bijective.

Exemple 4.3.3 Soit E un ensemble. L’application identité de E est bijective.

Proposition 4.3.4 Soit f : E → F une application. Les propriétés suivantes sont


équivalentes :
1. f est injective.
2. Pour tous x et x0 dans E, si f (x) = f (x0 ) alors x = x0 .
3. Pour tous x et x0 dans E, si x 6= x0 , alors f (x) 6= f (x0 ).

Preuve
Faisons une preuve cyclique. 1) ⇒ 2) : Supposons f injective. Soient x et x0 dans E tels que
f (x) = f (x0 ). Soit z = f (x). Si x 6= x0 , z a au moins deux antécédents distincts, ce qui est impossible
car f est injective. Donc x = x0 et 2) est vérifié.
2) ⇒ 3) : évident car une implication et sa contraposée sont équivalentes.
3) ⇒ 1) : soit z dans F . Si z a deux antécédents distincts x et x0 alors x 6= x0 mais f (x) = z = f (x0 ),
ce qui contredit 3). Donc z a au plus un antécédent, donc f est injective.

Proposition 4.3.5 Soit f : E → F une application. f est surjective si et seulement si f (E) =


F.

Preuve
f (E) est l’ensemble des images des éléments de E. C’est donc l’ensemble des éléments de F qui ont
au moins un antécédent. Donc f (E) = F ssi tout élément de F a au moins un antécédent par f , c’est
à dire ssi f est surjective.
32 CHAPITRE 4. APPLICATIONS

Proposition 4.3.6 Soient f : E → F et g : F → G des applications. On a :


1. si f et g sont injectives, alors g ◦ f est injective.
2. si f et g sont surjectives, alors g ◦ f est surjective.
3. si g ◦ f est injective, alors f est injective.
4. si g ◦ f est surjective, alors g est surjective.
Les réciproques des assertions précédentes sont fausses en général.

Preuve
1) Supposons f et g injectives. Soient x et x0 dans E tels que g ◦ f (x) = g ◦ f (x0 ). On a g(f (x)) =
g(f (x0 )) donc par injectivité de g, f (x) = f (x0 ), donc par injectivité de f , x = x0 . L’application g ◦ f
est donc bien injective.
2) Supposons f et g surjectives. Soit z ∈ G. Comme g est surjective, il existe y ∈ F tel que z = g(y).
De plus, comme f est surjective, il existe x ∈ E tel que y = f (x). On a donc z = g(f (x)) = g ◦ f (x),
donc z a au moins un antécédent par g ◦ f . Donc g ◦ f est bien surjective.
3) Supposons g ◦ f injective. Soient x et x0 dans E tels que f (x) = f (x0 ). On a donc g(f (x)) =
g(f (x0 )), donc par injectivité de g ◦ f , x = x0 . Donc f est injective. On peut aussi faire une preuve
par contraposée : si f n’est pas injective il existe x 6= x0 dans E tels que f (x) = f (x0 ). Mais alors
g(f (x)) = g(f (x0 )), donc g ◦ f n’est pas injective.
4) Supposons g ◦ f surjective. Soit z ∈ G. Comme g ◦ f est surjective, il existe x dans E tel que
z = g ◦ f (x). Posons y = f (x) (c’est à dire : appelons y l’image de x par f ). On a y ∈ F et z = g(y),
donc z a au moins un antécédent par g, donc g est surjective.
5) Montrons que les réciproques de 1) et 2) sont fausses : soit f : IN → IN qui à tout entier naturel
n associe n + 1. Soit g : IN → IN qui à tout entier naturel n associe n − 1 si n 6= 0 et qui à 0 associe
0. Pour tout entier naturel n, on a g ◦ f (n) = g(n + 1) = (n + 1) − 1 = n (on a utilisé n + 1 6= 0 pour
calculer g(n + 1)). On a donc g ◦ f = IdIN . L’application g ◦ f est donc bijective, donc injective et
surjective. Pourtant f n’est pas surjective (car 0 n’a pas d’antécédents par f ) et g n’est pas injective
(car 0 a deux antécédents par g : 1 et 0).
Montrons maintenant que les réciproques de 3) et de 4) sont fausses. Soient f = IdIR et g l’appli-
cation de IR dans IR qui à tout réel x associe 0. L’application g est donc constante. Pour tout réel x,
g ◦ f (x) = g(x) = 0. L’application g ◦ f n’est donc pas injective, bien que f le soit. Le lecteur vérifiera
que, de même, l’application f ◦ g n’est pas surjective, bien que f le soit.

Exercice 5 Soit f : E → F une application, soit b ∈ F , on veut résoudre dans E l’équation

f (x) = b.

1. Montrer que si b ∈
/ f (E), alors il n’y a pas de solutions dans E.
2. Montrer que si b ∈ f (E) et si f est injective, alors il existe une unique solution.

4.4 Application réciproque d’une application bijective

Définition 4.4.1 Soit f : E → F une application bijective. On appelle application réciproque


de f l’application g : F → E telle que pour tout y dans F , g(y) est l’unique antécédent de y
par f . On la note f −1 .
4.4. APPLICATION RÉCIPROQUE D’UNE APPLICATION BIJECTIVE 33

Proposition 4.4.2 Soit f : E → F . Si f est bijective, alors

∀x ∈ E, ∀y ∈ F, (y = f (x)) ⇔ (x = f −1 (y)).

Preuve
Soit x ∈ E et y ∈ F . Si y = f (x) alors x est un antécédent de y. Mais f −1 (y) est l’unique antécédent
de y par f , donc f −1 (y) = x. Réciproquement, si x = f −1 (y), alors x est l’unique antécédent de y par
f ; en particulier, x est un antécédent de y, donc f (x) = y.

Proposition 4.4.3 Soit f : E → F une application.


1. si f est bijective, alors f −1 ◦ f = IdE et f ◦ f −1 = IdF .
2. S’il existe une application g de F vers E telle que g ◦ f = IdE et f ◦ g = IdF , alors f
est bijective et g = f −1 .
3. si f est bijective, alors sa réciproque f −1 aussi et (f −1 )−1 = f .
4. Soit g : F → G. Si f et g sont bijectives, alors g ◦ f est bijective et (g ◦ f )−1 = f −1 ◦ g −1 .

Preuve
1) Supposons f bijective. Soit x ∈ E. Posons y = f (x). D’aprés la proposition 4.4.2, f −1 (y) = x
donc f −1 (f (x)) = x, donc f −1 ◦ f = IdE . Le lecteur vérifiera que, de même, f ◦ f −1 = IdF .
2) Supposons g ◦ f = IdE et f ◦ g = IdF . On a donc g ◦ f et f ◦ g bijectives. En particulier, g ◦ f est
injective, donc f est injective d’aprés le point 3) de la proposition 4.3.6. De même, f ◦ g est surjective,
donc f est surjective. L’application f est donc bijective, donc sa réciproque f −1 existe et d’aprés 1),
f −1 ◦ f = IdF . En composant l’égalité f ◦ g = IdF par f −1 , on obtient f −1 ◦ f ◦ g = f −1 ◦ IdF = f −1 ,
donc g = IdF ◦ g = (f −1 ◦ f ) ◦ g = f −1 .
3) Supposons f bijective. Pour mieux comprendre la façon dont nous allons utiliser le 2), posons
g = f −1 , Ẽ = F et F̃ = E. On a d’aprés le 1), g ◦ f = IdF̃ et f ◦ g = Idẽ . D’aprés le 2), on a donc g
−1
bijective et g −1 = f , c’est à dire f −1 bijective et f −1 =f
4) Supposons f et g bijectives. Leur réciproques f −1 et g −1 existent donc. De plus, (g ◦ f ) ◦ (f −1 ◦
g ) = g ◦ (f ◦ f −1 ) ◦ g −1 = g ◦ IdF ◦ g −1 = g ◦ g −1 = IdG . De même, (f −1 ◦ g −1 ) ◦ (g ◦ f ) = IdE , donc
−1

d’aprés le 2), g ◦ f est bijective et (g ◦ f )−1 = f −1 ◦ g −1 .

Exercice 6 Soit f : E → F une application. Supposons qu’il existe une application g : F → E


telle que, pour tout x dans E et tout y dans F , y = f (x) ⇔ x = g(y). Alors f est bijective et
f −1 = g.

Remarque 4.4.4 Si f n’est pas bijective, son application réciproque n’existe pas. La nota-
tion f −1 (B) ne désigne alors pas l’image de B par l’application f −1 (puisque cette application
n’existe pas !), mais uniquement l’image réciproque de B par f . En particulier, ce n’est pas parce
que la notation f −1 (B) apparait dans un énoncé qu’on a supposé que f était bijective.
34 CHAPITRE 4. APPLICATIONS

4.5 Prolongements et restrictions

Proposition 4.5.1 Soit f : E → F une application. Soit A ⊂ E et B ⊂ F tel que f (A) ⊂ B.


On appelle restriction de f à A comme ensemble de départ et B comme ensemble d’arrivée, et
on note f|A→B , l’application de A dans B qui à tout x dans A associe f (x). Cette application
a la même régle de calcul que f , seuls changent les ensembles de départ et d’arrivée.
Notation : quand on restreint uniquement l’ensemble de départ (B = F : cas courant), on utilise
aussi la notation f|A pour f|A→F .
Soient f et g des applications. On dit que f est un prolongement de g si g est une restriction
de f .

Exemple 4.5.2 Soit f : IR → IR qui à x associe x2 . Soit g = f|IR+ →IR+ , c’est à dire soit
g : IR+ → IR+ qui à x associe x2 . L’application g est une restriction de f . Elle a l’avantage
d’être croissante et bijective, alors que f ne l’est pas.

Exemple 4.5.3 Soit g : IR∗ → IR qui à x associe (sin x)/x. Soit f : IR → IR qui à x associe
(sin x)/x si x 6= 0, et qui à 0 associe 1. L’application f est un prolongement de g (on a
g = f|IR∗ ). De plus, on peut montrer que f est continue sur IR. On dit que f est le prolongement
par continuité de g. L’avantage de considérer f plutôt que g est qu’on peut appliquer à f les
théorémes sur les fonctions continues sur IR tout entier (par exemple, avec f on peut utiliser le
théoréme des valeurs intermédiaires sur un intervalle contenant 0, alors qu’on ne pourrait pas
le faire avec g).

Proposition 4.5.4 Soit f : E → F une application.


a) La restriction de f à E comme ensemble de départ et f (E) comme ensemble d’arrivée est
surjective.
b) Si f est injective, toutes ses restrictions le sont.
c) Si f est injective, la restriction de f à E comme ensemble de départ et f (E) comme ensemble
d’arrivée est bijective (on dit que f induit une bijection de E sur f (E)).

Preuve
a) Notons g cette restriction (g = f|E→f (E) ). Soit y ∈ f (E). Il existe x ∈ E tel que y = f (x). Mais
g(x) = f (x). Donc g(x) = y et y a au moins un antécédent par g. Ceci est vrai pour tout y dans f (E),
donc pour tout y dans l’ensemble d’arrivée de g, donc g est surjective.
b) Supposons f injective. Soient A ⊂ E et B ⊂ F tels que f (A) ⊂ B. Soit g la restriction de f à
A comme ensemble de départ et B comme ensemble d’arrivée. Soient x et x0 dans A. Si g(x) = g(x0 )
alors f (x) = f (x0 ) par définition de g, donc x = x0 par injectivité de f . Donc g est injective.
c) Conséquence directe de a) et b).
Chapitre 5

Ensembles finis, ensembles


dénombrables

5.1 Ensembles finis


Pour tout entier n ≥ 1, on note [[1, n]] l’intervalle des entiers compris entre 1 et n.

Définition 5.1.1 Un ensemble E est fini s’il est vide ou s’il existe un entier n ∈ IN ∗ et une
bijection de E dans [[1, n]].

Proposition 5.1.2 Soit E un ensemble fini non vide, et n et p des entiers naturels. S’il existe
une bijection de E dans [[1, n]] et une bijection de E dans [[1, p]] alors n = p. Le cardinal d’un
ensemble fini est donc cet unique entier n.
Par convention, Card ∅ = 0.

La démonstration de la proposition repose sur le lemme un peu technique suivant :

Lemme 5.1.3 Pour tout entier n ≥ 1, s’il existe un entier p ∈ IN ∗ et une application injective
de [[1, n]] dans [[1, p]], alors n ≤ p.

Preuve Elle se fait par récurrence sur n.


La propriété est évidente pour n = 1.
Supposons maintenant que le résultat soit vrai pour n ≥ 1 : s’il existe une injection de [[1, n]] dans
[[1, p]], alors n ≤ p. Soit f une injection de [[1, n + 1]] dans [[1, p]] où p est un entier non nul . Puisque f est
injective, a = f (n + 1) n’appartient pas à f ([[1, n]]) donc p ≥ 2. On construit une nouvelle application
g de [[1, n]] dans [[1, p − 1]] par

g: [[1, n]] →  [[1, p − 1]]


f (i) si f (i) ≤ p − 1,
i 7→ g(i) =
a si f (i) = p.

Il est clair que g est injective donc d’après l’hypothèse de récurrence n ≤ p − 1 soit n + 1 ≤ p.

35
36 CHAPITRE 5. ENSEMBLES FINIS, ENSEMBLES DÉNOMBRABLES

Preuve de la proposition 5.1.2 Si f est une bijection de E dans [[1, n]] et g une bijection
de E dans [[1, p]], alors g ◦ f −1 est une bijection de [[1, n]] dans [[1, p]]. Donc n ≤ p d’après le lemme
précédent. De plus, f ◦ g −1 est une bijection de [[1, p]] dans [[1, n]], donc p ≤ n toujours grâce au lemme.
En conclusion, p = n.

La proposition suivante sera souvent utiliser pour déterminer le cardinal d’un ensemble fini
E : plutôt que de construire une bijection de E sur un intervalle d’entier [[1, n]], on met en
évidence une bijection de E sur un ensemble F dont le cardinal est connu.

Proposition 5.1.4 Si E et F sont deux ensembles finis de même cardinal, alors il existe une
bijection de E sur F . Réciproquement si E est un ensemble et si F est un ensemble fini en
bijection avec E, alors E est un ensemble fini et Card E = Card F .

Preuve On admet qu’il existe une bijection de l’ensemble vide sur lui-même. D’autre part, l’en-
semble vide ne peut être en bijection avec un ensemble non vide donc on se limite au cas où E et F sont
non vides. Soit n le cardinal de E et de F , il existe une bijection f de [[1, n]] dans E et g une bijection
de [[1, n]] dans F , alors g ◦ f −1 est une bijection de E dans F . Réciproquement, soit g une bijection de
[[1, n]] dans F et f une bijection de F dans E. Alors l’application f ◦ g est une bijection de [[1, n]] dans
E, ce qui prouve que E est fini de cardinal n.

Proposition 5.1.5 Toute partie A d’un ensemble fini E est un ensemble fini et Card A ≤
Card E. De plus Card A = Card E si et seulement si A = E.

Preuve Si E est l’ensemble vide, le résultat est immédiat. On suppose E non vide, il existe un entier
n ≥ 1 tel que Card E = n. On se place dans le cas où E = [[1, n]] et A est une partie de E. On raisonne
par récurrence sur n :
— si n = 1, A est soit vide soit {1} et la propriété est vraie.
— soit n ≥ 1 tel que la propriété soit vraie. Si A est strictement incluse dans E, il existe a de E
qui n’appartient pas à A. On construit une application f telle que
f: [[1, n + 1]] → [[1, n + 1]]
i si i 6= a et i 6= n + 1,
(
i 7→ f (i) = n+1 si i = a,
a si i = n + 1.
f est une bijection et f (A) ⊂ [[1, n]]. On applique l’hypothèse de récurrence donc Card A =
Card f (A) ≤ n < n + 1. L’égalité est impossible si A est strictement inclus dans E. Enfin si
A = E, le résultat est immédiat.
Pour conclure dans le cas général, soit f une bijection de E dans [[1, n]], f (A) est en bijection avec A
et c’est une partie de [[1, n]] d’où la conclusion.

Remarque 5.1.6 Un ensemble E de cardinal n ≥ 1 est un ensemble dont on peut numéroter


les éléments de 1 à n ;en effet, si f est une bijection de [[1, n]] dans E, on pose
∀i ∈ [[1, n]], xi = f (i).
On a donc
E = {x1 , · · · , xn }.
Pour n ≥ 2, la numérotation n’est pas unique.
5.2. ENSEMBLES DÉNOMBRABLES 37

Proposition 5.1.7 Soient A et B deux parties finies disjointes d’un ensemble E alors

Card A ∪ B = Card A + Card B.

On en déduit que
— si (Ai )1≤i≤n est une famille de parties deux à deux disjointes, alors
n
[ n
X
Card Ai = Card Ai ,
i=1 i=1

— si Card E = n, alors
Card Ac = n − Card A,
— si B ⊂ A, alors
Card A \ B = Card A − Card B,
— si A et B sont deux parties d’un ensemble E alors

Card A ∪ B = Card A + Card B − Card A ∩ B.

Preuve On suppose que A et B sont deux parties disjointes. Si A ou B est vide, le résultat est évident.
On étudie le cas où Card A = p ≥ 1 et Card B = q ≥ 1, soit f une bijection de [[1, p]] dans A et g une
bijection de [[1, q]], on construit une application h par

h: [[1, p + q]] →  A∪B


f (i) si 1 ≤≤ p,
i 7→ h(i) =
g(i − p) si p + 1 ≤ i ≤ p + q,

h est une bijection donc Card A ∪ B = p + q.


On en déduit le premier résultat par récurrence sur n. Le deuxième est un cas particulier avec la
famille (A, Ac ). enfin le troisième vient de l’égalité (A \ B) ∪ B = A. Enfin le dernier point vient de
A ∪ B = (A \ A ∩ B) ∪ (B \ A ∩ B) ∪ (A ∩ B).

5.2 Ensembles dénombrables


Les ensembles dénombrables forment une classe particulière d’ensembles infinis :

Définition 5.2.1 Un ensemble E est infini s’il n’est pas fini.


Un ensemble E est dénombrable s’il existe une bijection de IN dans E.
Un ensemble est au plus dénombrable s’il est fini ou dénombrable.

Remarque 5.2.2 Dans quelques ouvrages, le mot dénombrable désigne un ensemble fini ou
dénombrable et un ensemble dénombrable infini est appelé strictement dénombrable.

Remarque 5.2.3 Un ensemble dénombrable est un ensemble dont on peut numéroter les éléments
de 0 à l’infini. Soit f une bijection de IN dans E, on définit une suite (xi )i≥0 dont tous les
éléments sont distincts. On dira que les éléments d’un ensemble dénombrable peuvent être rangés
dans une suite.
38 CHAPITRE 5. ENSEMBLES FINIS, ENSEMBLES DÉNOMBRABLES

Exemple 5.2.4 Les ensembles IN , IN ∗ sont dénombrables ainsi que l’ensemble des entiers
pairs (f (n) = 2n) et l’ensemble des carrés parfaits (f (n) = n2 ). Ces exemples prouvent que
contrairement à ce qui se passe pour les ensembles finis, il existe des parties strictes de IN en
bijection avec IN .

Proposition 5.2.5 Toute partie A de IN est au plus dénombrable. Plus précisément, si A 6= ∅


— soit A est majorée, et alors A est finie,
— soit A n’est pas majorée, et alors A est dénombrable.

Preuve Si A est vide, A est finie par définition. On suppose A non vide.
— si A est majorée par n, alors A ⊂ [[1, n]] donc A est finie,
— si A n’est pas majorée, on construit une bijection f de IN dans A : comme A est une partie
non vide de IN , A admet un plus petit élément a0 . On pose f (0) = a0 . Soit A1 = A \ {a0 }, A1
est non vide sinon A = {a0 } serait majorée. On note a1 le plus petit élément de A1 et on pose
f (1) = a1 > f (0) = a0 . Par récurrence, suivant le même procédé, on va construire une suite
strictement croissante (an ) d’éléments de A. Si l’on a déjà déterminé

a0 < a1 < · · · < an−1 ,

on pose
n−1
[
An = A \ {ai },
i=0

cet ensemble An est non vide sinon A serait majoré. On note an le plus petit élément de An et
on pose f (n) = an . On définit ainsi une application de IN dans A strictement croissante donc
injective. On montre que f est surjective : soit a ∈ A, on pose

Ka = {n ∈ IN, an ≥ a},

comme pour tout entier n, an ≥ n ( par récurrence), on en déduit que Ka est non vide donc
admet un plus petit élément p. On a

ap ≥ a > ap−1 .
Sp−1
Comme a > ap−1 , a ∈ A \ i=1 {ai }, par définition de ap , a ≥ ap d’où a = ap = f (p). Par
conséquent f est bijective donc A dénombrable.

Remarque 5.2.6 On peut résumer ce théorème en disant que les ensembles dénombrables sont
les plus petits ensembles infinis.

Corollaire 5.2.7 Un ensemble E est au plus dénombrable si et seulement si il existe une


injection de E dans IN .

Preuve On se limite au cas où E est non vide. Si E est au plus dénombrable, alors
— soit E est fini, on pose g = in ◦ f −1 où f est une bijection de [[1, n]] dans E et in l’injection
canonique de [[1, n]] dans IN . L’application g est une injection de E dans IN .
— soit E est dénombrable, alors il existe une bijection de E dans IN qui est aussi une injection.
Réciproquement si il existe une injection notée f de E dans IN . Alors E est en bijection avec f (E) qui
est une partie de IN . D’après la proposition précédente, f (E) est soit finie soit dénombrable donc E
est au plus dénombrable.
5.2. ENSEMBLES DÉNOMBRABLES 39

Proposition 5.2.8 IN × IN est dénombrable.

Preuve Le démonstration la plus rapide de ce résultat repose sur l’arithmétique : on considère l’ap-
plication f définie de IN × IN dans IN par

∀(n, p) ∈ IN × IN, f (n, p) = 2n 3p .


Comme f est injective, IN × IN est au plus dénombrable et comme IN × IN est infini, IN × IN est
dénombrable.

Proposition 5.2.9 Pour tout entier k non nul, le produit cartésien de k ensembles
dénombrables est dénombrable.

Preuve Il suffit de faire la démonstration pour k = 2, puis on conclut par récurrence sur k. Soit E et
F deux ensembles dénombrables, on note f une bijection de IN dans E et g une bijection de IN dans
F , alors on définit l’application h de IN × IN dans E × F par

∀(n, p) ∈ IN × IN, h(n, p) = (f (n), g(p)).


Comme h est une bijection et comme IN × IN est dénombrable, E × F est dénombrable

Proposition 5.2.10 Une réunion dénombrable d’ensembles dénombrables est dénombrable


c’est-à-dire si I est un ensemble [
d’indices dénombrable, et si pour tout i dans I, Ei est un
ensemble dénombrable, alors E = Ei est dénombrable.
i∈I

Preuve Nous ne donnons la démonstration que dans le cas où I est un ensemble fini. Pour cela, on
raisonne par récurrence sur le cardinal de I. Donc on montre que l’union de deux ensemble dénombrables
E et F est dénombrable, puis on conclut par récurrence. Pour commencer on se ramène à une union
disjointe c’est-à-dire
E ∪ F = E ∪ F 0 où F 0 = F \ E.
On définit une application h par

(1, f (x)) si x ∈ E,
∀x ∈ E ∪ F, h(x) =
(2, g(x)) si x ∈ F 0 .

où f et g sont des bijections respectivement de E et F sur IN . L’application h est à valeurs dans
{1, 2} × IN et est injective. Comme {1, 2} × IN est dénombrable, E ∪ F est au plus dénombrable. De
plus E ∪ F contient E un ensemble infini donc E ∪ F est dénombrable.
40 CHAPITRE 5. ENSEMBLES FINIS, ENSEMBLES DÉNOMBRABLES

Proposition 5.2.11 L’ensemble Q des rationnels est dénombrable.


Par contre l’ensemble E des suites de {0, 1} est non dénombrable.
De même l’ensemble des réels IR et P(IN ) , l’ensemble des parties de IN , ne sont pas
dénombrables.

p
Preuve Tout rationnel strictement positif s’écrit de façon unique sous la forme où p et q qont
q
+∗
des entiers non nuls, ce qui revient à dire que l’application f définie de Q dans IN × IN est injective.
On en déduit que Q+∗ est dénombrable d’où Q = {0} ∪ Q+∗ ∪ Q−∗ est dénombrable.
Pour le deuxième point, on raisonne par l’absurde donc on suppose E dénombrable : soit f une
bijection de IN ans E, alors pour tout entier i, f (i) est une suite de 0 ou de 1. On construit une suite
de E notée u = (un )n∈IN définie par

1 si f (n)n = 0,
un =
0 si f (n)n = 1,

Comme f est bijective, il existe un entier k tel que u = f (k) ce qui impossible car ces deux suites
diffèrent à l’indice k. Donc l’ensemble E des suite de {0, 1} est non dénombrable.
On admet les résultats suivants : l’ensemble des réels IR et P(IN ) , l’ensemble des parties de IN , ne
sont pas dénombrables.
Chapitre 6

Les nombres complexes

6.1 Définitions élémentaires

Définition 6.1.1 On appelle nombre complexe toute expression de la forme z = x + iy, où
x et y sont des réels et où i est un nombre tel que i2 = −1. L’écriture z = x + iy s’appelle
l’écriture algébrique de z. La partie réelle de z, noté Re(z), est le nombre réel x et la partie
imaginaire de z, noté Im(z), le nombre réel y :

si z = x + iy alors Re(z) = x et Im(z) = y.

Un nombre complexe est imaginaire pur si sa partie réelle est nulle. Un nombre complexe est
dit réel si sa partie imaginaire est nulle. L’ensemble des nombres complexes est noté C
I.

Nous donnons une interprétation géométrique des nombres complexes. On considère le plan
muni d’une base orthonormée (O,~ı, ~).

Définition 6.1.2 Soit z = x + iy un nombre complexe.


— Le point d’affixe z est le point M du plan de coordonnées (x, y).
— Le vecteur d’affixe z est le vecteur ~v de coordonnées (x, y).
Réciproquement,
— A tout point M du plan, de coordonnées (x, y), on peut associer le nombre complexe
z = x + iy. Le point M a alors pour affixe z.
— De même, à tout vecteur ~v de coordonnées (x, y), on peut associer le nombre complexe
z = x + iy. Le vecteur ~v a alors pour affixe z.

41
42 CHAPITRE 6. LES NOMBRES COMPLEXES

y M,z = x + iy

0 x

Proposition 6.1.3 On dit que deux nombres complexes z = x + iy et z 0 = x0 + iy 0 sont égaux


si leurs parties réelles et leurs parties imaginaires sont égales :

z = z 0 ⇔ x = x0 et y = y 0

Définition 6.1.4 Somme et Produit de deux complexes.


Dans CI on définit les opérations suivantes :
1. Addition : Si z = x + iy et z 0 = x0 + iy 0 sont deux nombres complexes, la somme z + z 0
est le nombre complexe défini par

z + z 0 = (x + x0 ) + i(y + y 0 )

2. Produit : Si z = x + iy et z 0 = x0 + iy 0 sont deux nombres complexes, le produit z.z 0


est le nombre complexe défini par

z.z 0 = (xx0 − yy 0 ) + i(xy 0 + x0 y)

Voici quelques propriétés élémentaires de l’addition :

Proposition 6.1.5 Supposons que z, z 0 et z 00 sont des nombres complexes. Alors


1. Associativité : z + (z 0 + z 00 ) = (z + z 0 ) + z 00
2. Commutativité : z + z 0 = z 0 + z
3. Existence d’un élément neutre : 0 est l’élément neutre pour l’addition : 0 + z =
z + 0 = z.
4. Existence d’un opposé : si z = x + iy, alors le nombre complexe (−z) = (−x) + i(−y)
vérifie : z + (−z) = (−z) + z = 0.

Ces résultats sont de simples applications de résultats symétriques dans IR. Nous ne les
démontrerons donc pas.
Interprétation de la somme de nombres complexes :
— Si le vecteur ~v1 a pour affixe z1 et le vecteur ~v2 a pour affixe z2 , alors le vecteur ~v1 + ~v2
a pour affixe z1 + z2 .
−→
— Si le point M1 a pour affixe z1 et le point M2 a pour affixe z2 , alors le vecteur M1 M2 a
pour affixe z2 − z1 .
6.1. DÉFINITIONS ÉLÉMENTAIRES 43

Nous énonçons maintenant les propriétés élémentaires du produit :

Proposition 6.1.6 Supposons que z, z 0 et z 00 sont des nombres complexes.


1. Associativité : z.(z 0 .z 00 ) = (z.z 0 ).z 00
2. Commutativité : z.z 0 = z 0 .z
3. Distributivité : (z + z 0 ).z 00 = z.z 00 + z 0 .z 00
4. Existence d’un élément neutre : le nombre complexe 1 est l’élément neutre pour le
produit : 1.z = z.1 = z.
5. Existence d’un inverse : tout nombre complexe non nul z admet un inverse pour le
produit, noté z1 .
6. 0 est un élément absorbant : 0.z = z.0 = 0 .

Preuve : Nous nous contentons de démontrer l’existence d’un inverse, le reste étant immédiat.
Soit z = x + iy un complexe non nul. On prétend que le complexe z 0 = x0 + iy 0 avec

x0 = x/(x2 + y 2 ) et y 0 = −y/(x2 + y 2 )

est un inverse de z. En effet,

z.z 0 = (xx0 − yy 0 ) + i(xy 0 + yx0 )


= (x2 /(x2 + y 2 ) + y 2 /(x2 + y 2 )) + i(xy/(x2 + y 2 ) − xy/(x2 + y 2 )) = 1 .

Montrons maintenant qu’un tel inverse est unique. Si z1 et z2 sont deux inverses de z, alors on a
z.z1 = 1, ce qui entraı̂ne, en multipliant par z2 à gauche, que

z2 = z2 .1 = z2 .(z.z1 ) = (z2 .z).z1 = 1.z1 = z1 .

Donc l’inverse est unique.

Une conséquence très importante de l’existence d’un inverse est la suivante :

Corollaire 6.1.7 Si z et z 0 sont deux nombres complexes, et si z.z 0 = 0 alors soit z = 0 soit
z 0 = 0.
On dit que C
I est intègre.

Preuve : Il suffit de supposer par exemple que z est non nul, et de multiplier l’égalité z.z 0 = 0
par 1/z, ce qui donne z 0 = 0. Donc soit z = 0, soit z 0 = 0.

Proposition 6.1.8 Formule du binôme de Newton. Supposons que z, z 0 sont des nombres
complexes et n un entier naturel, on a
n  
0 n
X n k 0n−k
(z + z ) = z z .
k
k=0
44 CHAPITRE 6. LES NOMBRES COMPLEXES

6.2 Conjugué d’un nombre complexe

Définition 6.2.1 Soit z = x + iy un nombre complexe. On appelle conjugué de z le nombre


complexe noté z̄ de même partie réelle que z et de partie imaginaire opposée :

si z = x + iy, alors z̄ = x − iy

Géométriquement, soit M le point d’affixe z, le point associé au conjugué de z est le symétrique


de M par rapport à l’axe des abscisses.

y z = x + iy

0 x

z̄ = x − iy

Proposition 6.2.2 Soient z et z 0 deux nombres complexes. Alors


1. z = z
2. z + z 0 = z̄ + z¯0
3. z.z 0 = z̄.z¯0
4. z est réel si et seulement si z = z̄
5. z est imaginaire pur si et seulement si z̄ = −z.
z+z̄ z−z̄
6. Re(z) = 2 et Im(z) = 2i .

Preuve : La première assertion est évidente.


Montrons la troisième. Si z = x + iy et z 0 = x0 + iy 0 , alors
z.z 0 = xx0 − yy 0 + i(xy 0 + yx0 ) = xx0 − yy 0 − i(xy 0 + yx0 ) ,
tandis que
z̄.z¯0 = (x − iy)(x0 − iy 0 ) = xx0 − yy 0 − i(xy 0 + yx0 ) ,
d’où l’égalité annoncée.
Nous laissons les assertions suivantes en exercice.
6.3. MODULE D’UN NOMBRE COMPLEXE 45

6.3 Module d’un nombre complexe

Définition 6.3.1 Soit z = x + iy un nombre complexe. Le module de z est le réel, noté |z|,
défini par p
|z| = x2 + y 2 .
On note U l’ensemble des complexes z de module 1.
Géométriquement, le module de z est la longueur du segment joignant l’origine au point f ’affixe
z et U est représenté par le cercle de centre l’origine et de rayon 1.

Proposition 6.3.2 Soient z et z 0 deux nombres complexes. Alors


1. |z| ≥ 0 et on a l’équivalence : |z| = 0 si et seulement si z = 0.
1 z̄
2. |z|2 = z.z̄ et, si z 6= 0, z = |z|2
3. |z.z 0 | = |z| |z 0 |
1 1
4. | − z| = |z|, |z̄| = |z| et, si z 6= 0, = .
z |z|
5. |Re(z)| ≤ |z| et |Im(z)| ≤ |z|
6. (Inégalité triangulaire) |z + z 0 | ≤ |z| + |z 0 |
7. | |z| − |z 0 | | ≤ |z − z 0 |

toute la preuve on note z = x + iy et z 0 = x0 + iy 0 .


Preuve : Dans p
1. Comme |z| = x2 + y 2 et que, par définition, une racine est positive, |z| ≥ 0.

Si z = 0 alors il est clair que |z| = 02 + 02 = 0. Réciproquement, si |z| = 0, alors on a
x2 + y 2 = 0. La somme du réel positif x2 et du réel positif y 2 étant égale à zéro, on en déduit
que x = y = 0. Donc z = 0.
2. z.z̄ = (x + iy).(x − iy) = x2 − i2 y 2 = x2 + y 2 = |z|2 .
3. On a, d’une part,
|z.z 0 |2 = (xx0 − yy 0 )2 + (xy 0 + yx0 )2 = x2 (x0 )2 + y 2 (y 0 )2 + x2 (y 0 )2 + y 2 (x0 )2
car les termes croisés se simplifient. D’autre part, on a
(|z| |z 0 |)2 = (x2 + y 2 )((x0 )2 + (y 0 )2 ) = x2 (x0 )2 + y 2 (y 0 )2 + x2 (y 0 )2 + y 2 (x0 )2 .
D’où l’égalité désirée.
4. Laissé au lecteur en exercice
5. idem
6. On a
|z + z 0 |2 = (z + z 0 ).(z + z 0 )
= (z + z 0 ).(z̄ + z¯0 )
= z.z̄ + z.z¯0 + z̄.z 0 + z 0 .z¯0
= |z|2 + 2Re(z z¯0 ) + |z 0 |2
≤ |z|2 + 2|Re(z z¯0 )| + |z 0 |2
car z.z¯0 + z̄.z 0 = z.z¯0 + z.z¯0 . Or
|Re(z z¯0 )| ≤ |z z¯0 | = |z||z¯0 | = |z||z 0 | .
Donc
|z + z 0 |2 ≤ |z|2 + 2|z||z 0 | + |z 0 |2 = (|z| + |z 0 |)2 ,
ce qui donne l’inégalité demandée.
46 CHAPITRE 6. LES NOMBRES COMPLEXES

7. On a |z| = |(z − z 0 ) + z 0 | ≤ |z − z 0 | + |z 0 | d’après l’inégalité triangulaire. Donc |z| − |z 0 | ≤ |z − z 0 |.


En inversant les rôles de z et z 0 , on obtient de même que |z 0 | − |z| ≤ |z − z 0 |. Ces deux inégalités
impliquent le résultat désiré : | |z| − |z 0 | | ≤ |z − z 0 |.

Exercice 7 Montrer que U vérifie :


i) si z et z 0 appartiennent à U , alors z.z 0 aussi,
ii) si z appartient à U , alors z 6= 0 et 1/z appartient aussi à U .

Exercice 8 Montrer que, si z ∈ C


I avec z 6= 0, alors z/|z| appartient à U .

6.4 Argument d’un nombre complexe

Définition 6.4.1 (Exponentielle complexe) Pour tout nombre réel t, on note

eit = cos(t) + i sin(t) .

Proposition 6.4.2 Soient z et z 0 deux nombres complexes. Alors, pour tout t ∈ IR, on a :
1. eit appartient à U .
1
2. it = eit = e−it
e
3. eit = 1 si et seulement si il existe un entier relatif k tel que t = 2kπ.
0 0
4. pour tout réel t0 , ei(t+t ) = eit .eit
5. Formule de Moivre : pour tout entier relatif n, on a (eit )n = eint
6. formules d’Euler :
eit + e−it eit − e−it
∀t ∈ IR, cos(t) = et sin(t) = .
2 2i

Remarque 6.4.3 Les propriétés précédentes expliquent, par analogie avec les propriétés de
l’exponentielle dans IR, la notation eit .

Preuve de la proposition 6.4.2 : C’est une application directe des formules de trigonométrie.
it
p
2

1. |e | = 2 cos (t) + sin (t) = 1 = 1.
2. Notons d’abord que e−it = cos(−t) + i sin(−t) = cos(t) − i sin(t) = eit car cos(−t) = cos(t) et
sin(−t) = − sin(t). Montrons maintenant que eit .e−it = 1, ce qui prouvera que e−it = 1/eit . En
effet, eit .e−it = eit eit = |eit |2 = 12 = 1.
3. eit = 1 équivaut à cos(t) = 1 et sin(t) = 0. Or il est bien connu que, si cos(t) = 1 et sin(t) = 0,
alors t = 0 modulo 2π, c’est-à-dire qu’il existe un entier relatif k tel que t = 2kπ.
0
4. Calculons eit .eit :
0
eit .eit = (cos(t) cos(t0 ) − sin(t) sin(t0 )) + i(cos(t) sin(t0 ) + sin(t) cos(t0 ))
0
= cos(t + t0 ) + i sin(t + t0 ) = ei(t+t ) .

5. Cela se démontre par récurrence, en utilisant le résultat précédent.


6. immédiat.
6.4. ARGUMENT D’UN NOMBRE COMPLEXE 47

Théorème 6.4.4 Pour tout nombre complexe z appartenant à U , il existe un réel t tel que

z = eit

Ce théoréme est admis. Autrement dit, l’application exponentielle, définie de IR dans U est
surjective.

Définition 6.4.5 Soit z un nombre complexe non nul. On appelle argument de z tout réel t tel
que
z
= eit .
|z|
Tout argument de z est noté arg(z).
Dans le plan complexe, l’argument de z est l’angle entre l’axe des réels et le segment joignant
l’origine au point d’affixe z orienté dans le sens inverse des aiguilles d’une montre.

y
z = x + iy = ρeiθ
ρ
θ

0 x

Remarque 6.4.6 Cette définition a bien un sens car nous avons vu dans un exercice ci-dessus
que z/|z| appartient à U . Bien noter qu’il n’y a pas unicité de l’argument, puisque si t est un
argument de z, alors t + 2kπ est également un argument de z pour tout k ∈ ZZ.

Définition 6.4.7 Forme trigonométrique : On dit qu’un nombre complexe non nul z est
mis sous forme trigonométrique si on écrit z sous la forme : z = |z|eit , avec t un argument de
z.

Proposition 6.4.8 Soient z un complexe non nul et t un argument de z. Alors un réel t0 est
un argument de z si et seulement s’il existe un entier relatif k tel que

t0 = t + 2kπ .

Preuve : Supposons d’abord que t0 soit un argument de z. Alors, par définition de l’argument,
on a
z 0
= eit = eit .
|z|
48 CHAPITRE 6. LES NOMBRES COMPLEXES

0
En divisant cette égalité par eit , on obtient 1 = ei(t −t) . Cette égalité implique l’existence d’un entier
relatif k tel que t0 = t + 2kπ (cf. la proposition 6.4.2).
Réciproquement, s’il existe un entier relatif k tel que t0 = t + 2kπ, alors
0 z
eit = eit = ,
|z|

et t0 est un argument de z.

Proposition 6.4.9 Soient z et z 0 deux nombres complexes non nuls. Alors


1. arg(−z) = π + arg(z) (mod 2π) et arg(z̄) = −arg(z) (mod 2π),
2. arg(1/z) = −arg(z) (mod 2π),
3. arg(z.z 0 ) = arg(z) + arg(z 0 ) (mod 2π)

Preuve :
1. Soit t un argument de −z et t0 un argument de z. Montrons que t = π + t0 (mod 2π). En effet,
par définition de l’argument, on a :
−z z 0 0
eit = =− = −eit = ei(t +π) .
| − z| |z|

Donc t0 = t + π (mod 2π) (cf. Proposition 6.4.2, 3).


Montrons que arg(z̄) = −arg(z) (mod 2π). Soit t un argument de z̄ et t0 un argument de z.
Alors  
z̄ z 0
eit = = = eit0 = e−it
|z̄| |z|
(on a utilisé le fait que |z̄| = |z|). Donc t = −t0 (mod 2π).
2. Soit t un argument de 1/z et t0 un argument de z. Alors

1/z 1/z 1 1 0
eit = = = = it0 = e−it
|1/z| 1/|z| z/|z| e

(on a utilisé le fait que |1/z| = 1/|z|). Donc t = −t0 (mod 2π).
3. Soient t un argument de z, t0 un argument de z 0 et t” un argument de z.z 0 . On a alors

z.z 0 z z0 0 0
eit” = 0
= . = eit .eit = ei(t+t )
|z.z | |z| |z 0 |

(on a utilisé le fait que |z.z 0 | = |z| |z 0 |). Donc t” = t + t0 (mod 2π).

6.5 Racines nièmes d’un nombre complexe


Dans toute cette partie, n désigne un entier naturel non nul.

Définition 6.5.1 On dit qu’un nombre complexe z est une racine nième de l’unité (ou de 1)
si z n = 1.
6.5. RACINES N IÈMES D’UN NOMBRE COMPLEXE 49

Exemple 6.5.2 Le nombre complexe i est racine quatrième de l’unité car i4 = (−1)2 = 1.

Théorème 6.5.3 Il y a exactement n racines nièmes de l’unité. Ce sont les nombres complexes
de la forme
2ikπ
ωk = e n = ω1k où k ∈ {0, . . . , n − 1} .

Preuve : D’abord il est clair que les ωk définis ci-dessus sont des racines nièmes de l’unité. En
effet,  2ikπ n
ωkn = e n = e2ikπ = 1 .
Notons de plus que, si 0 ≤ k, k0 ≤ n − 1, avec k 6= k0 , alors ωk 6= ωk0 . Il y a donc au moins n racines
distinctes de l’unité.
Réciproquement, supposons qu’un nombre complexe z soit racine nième de l’unité. Montrons
d’abord que z appartient à U . En effet, on a
1 = |z n | = |z|n .
Or le module est un nombre réel positif. Donc |z| = 1, i.e., z ∈ U .
Comme z ∈ U , il existe un nombre réel t tel que z = eit . Choisissons un entier k0 tel que t + 2k0 π
soit positif. Notons que t0 = t + 2k0 π est un argument de z. Comme z est racine nième de l’unité, on
0
a : z n = 1 = eint . On déduit de la proposition 6.4.2 qu’il existe un entier relatif k tel que
nt0 = 2kπ .
Par conséquent, comme n 6= 0, cela donne t0 = 2kπ n
. Comme t0 est positif, k l’est aussi. Effectuons la
division euclidienne de k par n : il existe deux entiers naturels p et r, tels que r ∈ {0, . . . , n − 1} et
k = pn + r. Alors, comme t0 = 2pπ + 2rπ n
est un argument de z, on déduit de la proposition 6.4.8 que
2rπ 2irπ
n
est un argument de z. D’où z = e n avec r ∈ {0, . . . , n − 1}, ce qui est bien le résultat désiré.

Exemple 6.5.4 Les racines cubiques de l’unité sont notées 1, j et j 2 = j où


2iπ 4iπ
j=e 3 et j 2 = e 3 .

j = e2iπ/3

0 1

j 2 = e4iπ/3 = j̄
50 CHAPITRE 6. LES NOMBRES COMPLEXES

Proposition 6.5.5 Somme des racines niémes de l’unité. On a pour n ≥ 2


n−1
X
ωk = 0.
k=0

Pour n = 3, on a 1 + j + j 2 = 0.

Preuve : Il suffit d’appliquer le résultat sur la somme des termes d’une suite géométrique puisque
ω1 6= 1
n−1 n−1
X X 1 − ω1n
ωk = ω1k = = 0.
1 − ω1
k=0 k=0

Définition 6.5.6 Soit a un nombre complexe non nul. On dit qu’un nombre complexe z est
une racine nième de a si z n = a.

Remarque 6.5.7 Dans le cas n = 2 on parle de “racine carrée” ou √ même simplement de


1
“racine” de a. Par contre, on n’écrit jamais cette racine sous la forme a ni a 2 .

Corollaire 6.5.8 Pour tout nombre complexe non nul a, il existe exactement n racines nièmes
de a. Ce sont les nombres complexes de la forme
it+2ikπ it
zk = |a|1/n e n = |a|1/n e n × ωk où k ∈ {0, . . . , n − 1} ,

et où t désigne un argument de a.

it+2ikπ
Preuve : Il est aisé de voir que, si zk = |a|1/n e avec k ∈ {0, . . . , n − 1}, alors zk est une
n

racine nième de a.
1
Réciproquement, supposons que z soit une racine nième de a. Alors le nombre complexe ze−it/n /|a| n
est une racine nième de l’unité, car
 n
ze−it/n z n e−it ae−it |a|eit e−it
1 = = = =1,
|a| n |a| |a| |a|

car a = |a|eit (forme trigonométrique). Donc, d’après le théorème 6.5.3, il existe un entier k ∈ {0, . . . , n−
1} tel que
ze−it/n 2ikπ
1 =e n .
|a| n

1
En multipliant l’égalité par eit/n |a| n , on obtient que z se met sous la forme désirée :

it+2ikπ
z = |a|1/n e n où k ∈ {0, . . . , n − 1} .
6.6. EQUATION DU SECOND DEGRÉ DANS C
I 51

6.6 Equation du second degré dans C


I
On considère une équation du second degré dans C
I :

(∗) az 2 + bz + c = 0

où a, b et c sont des nombres complexes donnés avec a 6= 0, et z est l’inconnue.

Théorème 6.6.1 Soit ∆ = b2 − 4ac. Alors


— si ∆ 6= 0, alors l’équation (*) admet exactement deux solutions distinctes z1 et z2 avec

−b + δ1 −b + δ2
z1 = et z2 = ,
2a 2a
où δ1 et δ2 sont les deux racines carrées du nombre complexe ∆.
— si ∆ = 0, alors l’équation admet une solution unique z = −b
2a .

Preuve : Montrons d’abord qu’un nombre complexe z est solution de (*) si et seulement si 2az +b
est une racine carrée de ∆.
En effet, si z est solution de (*), alors

(2az + b)2 = 4a2 z 2 + 4abz + b2 = 4a(az 2 + bz) + b2 = 4a(−c) + b2 = ∆ .

Réciproquement, si 2az + b est une racine carrée de ∆, alors

(2az + b)2 = 4a2 z 2 + 4abz + b2 = b2 − 4ac ,

ce qui implique, en simplifiant d’abord par b2 puis en divisant par 4a, que

az 2 + bz + c = 0 .

Donc z est bien solution de (*).


Supposons maintenant que ∆ 6= 0. Alors il existe deux racinces distinctes de ∆, notées respective-
ment δ1 et δ2 . Un nombre complexe z est alors solution de (*) si et seulement si 2az + b est une racine
carrée de ∆, i.e., si et seulement si 2az + b = δj (avec j = 1 ou j = 2). En soustrayant b à cette égalité,
puis en divisant par 2a on obtient le résultat annoncé.
Si au contraire ∆ = 0, alors la seule racine carrée de ∆ est 0. Donc un nombre complexe z est
solution de (*) si et seulement si 2az + b est nul. Ce qui donne bien une seule solution z = −b/2a.

Exercice 9 Si a, b et c sont des réels, alors si z est une solution, z est aussi une solution.
52 CHAPITRE 6. LES NOMBRES COMPLEXES

6.7 Géométrie dans le plan complexe

Théorème 6.7.1 Soit f une application de CI dans CI. On note F l’application du plan complexe
dans lui-même qui au point d’affixe z associe le point d’affixe f (z). Soit A un point du plan
d’affixe zA .
— Translation : L’application F est la translation du vecteur OA ~ si et seulement si

∀z ∈ C
I, f (z) = z + zA .

— Homothétie : Soit λ un réel, l’application F est l’homothétie de centre A et de rapport


λ si et seulement si
∀z ∈ C I, f (z) = λ(z − zA ) + zA .
— Rotation : Soit θ un réel, l’application F est la rotation de centre A et d’angle θ si et
seulement si
∀z ∈ CI, f (z) = eiθ (z − zA ) + zA .
Chapitre 7

Les nombres entiers et les


nombres rationnels

Nous supposons ici connues les règles de calcul sur IN , ZZ et Q, ainsi que les propriétés de
l’ordre sur ces ensembles.
Rappelons la propriété très importante suivante : IN (respectivement ZZ ou Q) est intègre :
si p1 et p2 appartiennent à IN (resp. à ZZ ou à Q), et si p1 p2 = 0, alors p1 = 0 ou p2 = 0.

7.1 Le principe de récurrence

Définition 7.1.1 On dit qu’une partie non vide A de IN est minorée s’il existe un entier m
tel que
∀a ∈ A, m ≤ a .
On dit que m est un minorant de A.
On dit qu’une partie non vide A de IN possède un plus petit élément ā si :
i) ā appartient à A,
ii) ∀a ∈ A, on a : ā ≤ a.

Remarque 7.1.2 1. Un tel élément, s’il existe, est nécessairement unique.


2. Si ā est le plus petit élément de A, alors

∀a ∈ IN, avec a < ā, on a a ∈


/A.

Une propriété très importante de l’ensemble des entiers est la suivante :

Théorème 7.1.3 Soit A une partie non vide de IN . Alors A possède un plus petit élément.

Ce théoréme est admis.

53
54 CHAPITRE 7. LES NOMBRES ENTIERS ET LES NOMBRES RATIONNELS

Définition 7.1.4 On dit qu’une partie non vide A de IN est majorée s’il existe un entier M
tel que
∀a ∈ A, a ≤ M .
On dit que M est un majorant de A.
On dit qu’une partie non vide A de IN possède un plus grand élément ā si
i) ā appartient à A,
ii) ∀a ∈ A, on a : ā ≥ a.

Corollaire 7.1.5 Toute partie non vide et majorée de IN possède un plus grand élément.

Preuve : Soit B le sous-ensemble de IN composé des majorants de A :


B = {b ∈ IN | ∀a ∈ A, b ≥ a} .

Comme A est majoré, B est une partie non vide de IN . Donc, d’après le théorème 7.1.3, B possède un
plus petit élément noté ā.
Montrons que ā est bien le plus grand élément de A. Pour cela, montrons d’abord que ā appartient à
A. Raisonnons par l’absurde en supposant au contraire que ā n’appartient pas à A. Nous allons montrer
qu’alors b = ā − 1 appartient à B, ce qui contredit le fait que ā est le plus petit élément de B. En effet,
comme ā appartient à B, on a : pour tout a ∈ A, a ≤ ā. Or ā n’appartient pas à A, donc en fait a < ā,
ce qui montre que a ≤ ā − 1 = b. On a donc prouvé que, pour tout a ∈ A, a ≤ b. Ceci montre que b
appartient à B, et contredit le fait que ā est le plus petit élément de B.
Par conséquent, on a démontré que ā appartient à A. Comme ā appartient à B, il est clair que ā
est un majorant de A. En conclusion, ā est bien le plus grand élément de A.

Voici le résultat le plus important de cette partie :

Théorème 7.1.6 (Principe de récurrence) Soit P : IN → {0, 1} une application possédant


les propriétés suivantes :
a) P(0) = 1
b) pour tout n ∈ IN , si P(n) = 1, alors P(n + 1) = 1.
Alors P(n) = 1 pour tout n ∈ IN .

Remarque 7.1.7 En pratique, P(n) désigne une propriété, dépendant de l’entier n, dont on
veut montrer qu’elle est vraie pour tout entier n. L’expression P(n) = 1 signifie que la propriété
est vraie, tandis que P(n) = 0 qu’elle est fausse.

Preuve du théorème 7.1.6 : On raisonne par l’absurde en supposant qu’il existe n0 ∈ IN tel
que P(n0 ) = 0. Soit
A = {n ∈ IN | P(n) = 0} .
Par hypothèse, A est une partie non vide de IN car n0 appartient à A.
Donc A possède un plus petit élément ā. Notons que ā appartient à A, donc P(ā) = 0, et que ā ≥ 1
car P(0) = 1 par hypothèse (a).
De plus, comme ā est le plus petit élément de A, n = ā − 1 (qui appartient à IN ) n’appartient pas à
A. D’où P(n) = 1. Mais l’hypothèse (b) implique alors que P(n + 1) = 1. On a trouvé une contradiction
puisque n + 1 = ā.
Ceci prouve que, pour tout n ∈ IN , P(n) = 1.
7.2. LA DIVISION EUCLIDIENNE 55

On montre exactement de la même façon le principe de récurrence généralisé, qui est souvent
utile :

Théorème 7.1.8 (Principe de récurrence généralisé) Soit P : IN → {0, 1} une applica-


tion possédant les propriétés suivantes :
a) P(0) = 1
b) pour tout n ∈ IN , si {∀k ≤ n, P(k) = 1}, alors P(n + 1) = 1.
Alors P(n) = 1 pour tout n ∈ IN .

Preuve : Exercice.

7.2 La division euclidienne

Définition 7.2.1 Soient a et b deux entiers relatifs. On dit que a divise b et on note a|b si
a) a n’est pas nul,
b) il existe un entier relatif k ∈ ZZ tel que b = ka.

Proposition 7.2.2 Soient a, b et c trois entiers relatifs.


1. si c 6= 0, alors a|b si et seulement si ac|bc,
2. si a|b, alors (−a)|b et a|(−b),
3. si a|b et a|c, alors a|(b + c).
4. si a|b et b|a, alors a = b ou a = −b.
5. si ab|c alors a|c et b|c.
6. si a ∈ IN ∗ et b ∈ IN , avec a|b, alors soit b = 0 soit a ≤ b.

Preuve : Cette proposition est une conséquence immédiate de la définition de la division. Nous
la laissons en exercice.

Théorème 7.2.3 (Division euclidienne) Soient a et b deux entiers naturels, avec a non
nul. Il existe alors un unique couple (q, r) ∈ IN 2 tel que

b = qa + r et 0≤r<a.

q est appelé quotient de la division euclidienne tandis que r s’appelle le reste.

Preuve
— Preuve de l’unicité : Montrons d’abord que le couple (q, r), s’il existe, est unique. Pour cela,
on suppose qu’il existe deux couples (q1 , r1 ) ∈ IN 2 et (q2 , r2 ) ∈ IN 2 tels que l’égalité suivante
soit satisfaite : pour j = 1 et j = 2,

b = q j a + rj et 0 ≤ rj < a .
56 CHAPITRE 7. LES NOMBRES ENTIERS ET LES NOMBRES RATIONNELS

Sans perte de généralité, on peut supposer que r1 ≤ r2 (dans le cas contraire, on échange le rôle
de (q1 , r1 ) et (q2 , r2 )). Comme

b = q1 a + r1 = q2 a + r2 , on a : r2 − r1 = a(q1 − q2 ) .

Donc r2 − r1 est un entier naturel divisible par a. Mais, d’autre part, r2 − r1 ≤ r2 (car r1 ≥ 0)
et r2 < a. Comme a > 0, a|(r1 − r2 ) et a > (r1 − r2 ), on a r2 = r1 . Cette égalité, conjuguée
avec l’égalité r2 − r1 = a(q1 − q2 ) et le fait que a 6= 0 implique que q1 = q2 . En conclusion, nous
avons prouvé que, si le couple (q, r) existe, il est unique.

— Preuve de l’existence : Nous montrons maintenant son existence. Pour cela, on considère le
sous-ensemble A de IN défini par

A = {p ∈ IN | ap > b} .

Notons d’abord que l’ensemble A n’est pas vide. En effet, le nombre entier b + 1 appartient à A
car a ≥ 1, et donc a(b + 1) ≥ b + 1 > b.
Par conséquent, l’ensemble A possède un plus petit élément p̄. Posons q = p̄ − 1 et r = b − aq.
Comme 0 n’appartient pas à A, on a q ≥ 0. Comme l’égalité b = aq + r est évidente d’après la
définition de q et r, il reste à montrer que 0 ≤ r < a.
Notons d’abord que r ≥ 0. En effet, comme p̄ est le plus petit élément de A, q = p̄−1 n’appartient
pas à A, i.e., aq ≤ b. D’où r ≥ 0.
Montrons enfin que r < a. En effet, comme p̄ appartient à A, on a ap̄ > b. D’où a(q + 1) > b,
ce qui implique que r = b − aq < a.

7.3 Le ppcm d’une famille d’entiers

Définition 7.3.1 (PPCM) Soit {a1 , . . . , an } un sous-ensemble de ZZ ∗ . On appelle plus petit


commun multiplicateur (ppcm) de {a1 , . . . , an } l’unique entier µ ∈ IN ∗ tel que
a) ∀i = 1, . . . , n, ai |µ,
b) ∀k ∈ IN ∗ , si {∀i = 1, . . . , n, ai |k}, alors µ|k.
Le ppcm de {a1 , . . . , an } est noté ppcm{a1 , . . . , an }.

Montrons l’existence du ppcm{a1 , . . . , an }.

Théorème 7.3.2 Soit {a1 , . . . , an } un sous-ensemble de ZZ ∗ . Le ppcm de {a1 , . . . , an } existe


et est unique. C’est le plus petit multiple commun à a1 , . . . , an .

Preuve : Soit A l’ensemble des entiers naturels non nuls multiples communs à tous les ai :
A = {k ∈ IN ∗ | ∀i = 1, . . . , n, ai |k} .

L’ensemble A est non vide car il contient l’entier |a1 . . . . .an |. Donc A possède un plus petit élément
noté µ. Montrons que µ est bien le ppcm de {a1 , . . . , an }.
Comme µ appartient à A, µ est non nul et vérifie la condition (a) de la définition. Pour montrer
que µ vérifie aussi (b), il suffit de montrer que µ divise k pour tout k appartenant à A.
On raisonne par l’absurde en supposant qu’il existe k dans A qui n’est pas divisible par µ. Soient
q et r respectivement le quotient et le reste de la division euclidienne de k par µ. On a k = qµ + r et
0 < r < µ. Comme, pour tout i = 1, . . . , n, ai divise k et µ, ai divise r. Donc r appartient à A, ce qui
7.4. LE PGCD D’UNE FAMILLE D’ENTIERS 57

contredit le fait que µ est le plus petit élément de A. Donc µ divise k pour tout k dans A. On a montré
l’existence du ppcm de {a1 , . . . , an }.
Montrons l’unicité du ppcm. Si µ1 et µ2 sont deux ppcm de {a1 , . . . , an }, alors µ1 divise µ2 et µ2
divise µ1 (c’est la propriété (b) de la définition). Donc, d’après la proposition 7.2.2, on a µ1 = µ2 ou
µ1 = −µ2 . Comme µ1 et µ2 sont strictement positifs, la seule égalité possible est µ1 = µ2 . Le ppcm est
donc unique.

Voici quelques propriétés du ppcm :

Proposition 7.3.3
i) Soit {a1 , . . . , an } un sous-ensemble de ZZ ∗ et α ∈ ZZ ∗ . Alors

ppcm{αa1 , . . . , αan } = |α| ppcm{a1 , . . . , an } .

ii) Si a et b sont deux entiers relatifs non nuls, avec a|b, alors

ppcm{a, b} = |b| .

Preuve : i) Appelons µ le ppcm de {a1 , . . . , an }. Il faut montrer que |α|µ est le ppcm de
{αa1 , . . . , αan }.
Comme, pour tout i = 1, . . . , n, ai divise µ, on a que αai divise |α|µ. Donc |α|µ vérifie le (a) de la
définition du ppcm.
Soit k ∈ IN ∗ tel que, pour tout i = 1, . . . , n, αai divise k. Alors α divise k (cf proposition 7.2.2), et
donc |α| divise aussi k. Posons k0 = |α| k
. Notons que k0 appartient à IN ∗ car k ∈ IN ∗ .
Comme, pour tout i = 1, . . . , n, αai divise k = |α|k0 , on en déduit que ai divise k0 . De plus, µ étant
le ppcm de {a1 , . . . , an }, la propriété (b) de la définition du ppcm implique que µ divise k0 . Donc αµ
divise k = |α|k0 . Par conséquent, |α|µ vérifie la condition (b) de la définition du ppcm.

ii) Pour montrer que ppcm{a, b} = |b|, posons µ = |b|. Alors a et b divisent clairement µ, qui vérifie
(a) de la définition du ppcm.
Soit maintenant k tel que a et b divisent k. Alors µ = |b| divise aussi k. D’où µ vérifie le (b) de la
définition du ppcm.

7.4 Le pgcd d’une famille d’entiers

Définition 7.4.1 (PGCD) Soit {a1 , . . . , an } un sous-ensemble de ZZ ∗ . On appelle plus grand


commun diviseur (pgcd) de {a1 , . . . , an } l’unique entier µ ∈ IN ∗ tel que
a) ∀i = 1, . . . , n, µ|ai ,
b) ∀k ∈ IN ∗ , si {∀i = 1, . . . , n, k|ai }, alors k|µ.
Le pgcd de {a1 , . . . , an } est noté pgcd{a1 , . . . , an }

Théorème 7.4.2 Soit {a1 , . . . , an } un sous-ensemble de ZZ ∗ . Le pgcd de {a1 , . . . , an } existe et


est unique.
58 CHAPITRE 7. LES NOMBRES ENTIERS ET LES NOMBRES RATIONNELS

Preuve de l’unicité : L’unicité du pgcd est claire puisque, si µ1 et µ2 sont deux pgcd de
{a1 , . . . , an }, alors µ1 et µ2 se divisent l’un l’autre, et, étant positifs, sont donc égaux.

Le lemme suivant montre l’existence du pgcd :


Lemme 7.4.3 Soient {a1 , . . . , an } un sous-ensemble de ZZ ∗ et I le sous-ensemble de IN ∗ défini
par
I = {m ∈ IN ∗ | ∃(α1 , . . . , αn ) ∈ ZZ n tels que m = α1 a1 + . . . + αn an } .
Alors I est non vide, et le plus petit élément de I est le pgcd de {a1 , . . . , an }.
Preuve : L’ensemble I est non vide car, par exemple a21 appartient à I (prendre α1 = a1 ,
α2 = . . . = αn = 0). Notons µ le plus petit élément de la partie I.
Comme µ appartient à I, il existe α1 , . . . , αn tels que µ = α1 a1 + . . . + αn an . Vérifions que µ
satisfait (a) de la définition du pgcd. Pour cela, on raisonne par l’absurde en supposant qu’il existe
i ∈ {1, . . . , n} tel que µ ne divise pas ai . Soit q et r respectivement le quotient et le reste de la division
euclidienne de ai par µ : ai = qµ + r et 0 < r < µ. Alors r appartient à I car r ∈ IN ∗ et
r = ai − qµ = (−α1 q)a1 + . . . + (−αi−1 q)ai−1 + (1 − αi q)ai
+(−αi+1 q)ai+1 + . . . + (−αn q)an .
Mais d’autre part µ > r et µ est le plus petit élément de I. On a donc trouvé une contradiction. Par
conséquent µ divise tous les ai , i = 1, . . . , n.
Reste à prouver que µ satisfait la partie (b) de la définition du pgcd. Pour cela, considérons k un
diviseur commun à tous les ai . Il est clair alors que k divise tous les éléments de I. Comme µ appartient
à I, k divise donc µ.

Le lemme que nous venons de montrer montre aussi le corollaire suivant, qui sera très
important pour prouver le théorème de Bezout :
Corollaire 7.4.4 Soit {a1 , . . . , an } un sous-ensemble de ZZ ∗ . Il existe alors des entiers relatifs
α1 , . . . , αn tels que
pgcd(a1 , . . . , an ) = α1 a1 + . . . + αn an .
Voici maintenant quelques propriétés du pgcd qui seront utiles plus tard :

Proposition 7.4.5
i) Soient {a1 , . . . , an } un sous-ensemble de ZZ ∗ et α un entier relatif non nul. Alors

pgcd{αa1 , . . . , αan } = |α| pgcd{a1 , . . . , an } .

ii) Si a et b sont deux entiers relatifs non nuls tels que a|b, alors

pgcd(a, b) = |a| .

Preuve : i) Posons µ = pgcd{a1 , . . . , an } et µ0 = pgcd{αa1 , . . . , αan }. Il faut montrer que


0
|α|µ = µ .
On remarque d’abord que |α|µ est un diviseur commun à αa1 , . . . , αan , car µ est un diviseur commun
à a1 , . . . , an . Donc |α|µ divise µ0 . Il existe donc k ∈ IN ∗ avec µ0 = |α|µk.
Comme µ0 est le pgcd de {αa1 , . . . , αan }, µ0 = |α|µk est un diviseur commun à αa1 , . . . , αan , ce qui
implique que µk est un diviseur commun à a1 , . . . , an . Or µ étant le pgcd à {a1 , . . . , an }, cela entraı̂ne
que µk divise µ. Or µ > 0 et µk > 0, donc k = 1. On a donc prouvé que µ0 = |α|µ.

ii) Posons µ = pgcd{a, b}. Comme |a| divise à la fois a et b, |a| divise µ. De plus, µ divise a, donc
divise |a|. Ceci prouve que µ = |a|.
7.4. LE PGCD D’UNE FAMILLE D’ENTIERS 59

La proposition suivante affirme que l’on peut toujours ramener le calcul du pgcd de n entiers
à n calculs du pgcd de 2 entiers.

Proposition 7.4.6 Soient {a1 , . . . , an } un sous-ensemble de ZZ ∗ , avec n ≥ 3. Alors

pgcd{a1 , . . . , an } = pgcd {a1 , pgcd{a2 , . . . , an } } .

Preuve : Posons µ = pgcd{a1 , . . . , an }, µ0 = pgcd{a2 , . . . , an } et µ” = pgcd{a1 , µ0 }. On veut


montrer que µ = µ”.
Montrons d’abord que µ divise µ”. Comme µ est un diviseur commun à a2 , . . . , an , µ divise µ0 .
Comme de plus, µ divise a1 , µ divise le pgcd de a1 et de µ0 , i.e., divise µ”.
Réciproquement, µ” divise à la fois a1 et µ0 . Or µ0 étant un diviseur commun à a2 , . . . , an , µ” est
également un diviseur commun à a2 , . . . , an . Donc µ” divise tous les ai , avec i = 1, . . . , n, donc µ”
divise le pgcd de {a1 , . . . , an }, c’est-à-dire µ.
En conclusion, les entiers naturels µ et µ” se divisent l’un l’autre, et sont donc égaux.

Voici maintenant le résultat principal de cette partie, qui justifie l’algorithme d’Euclide de
calcul du pgcd, que nous introduisons après.

Théorème 7.4.7 Soient a1 et a2 deux entiers naturels non nuls. Si a2 ne divise pas a1 , alors

pgcd{a1 , a2 } = pgcd{a2 , r}

où r est le reste de la division euclidienne de a1 par a2 .

Preuve : Soient q et r respectivement le quotient et le reste de la division euclidienne de a1 par


a2 : a1 = qa2 + r et 0 < r < a2 . Notons µ = pgcd{a2 , r} et µ0 = pgcd{a1 , a2 }. Montrons que µ = µ0 .
(a) Par définition, µ|a2 . Comme µ|r et µ|a2 , on a aussi µ|qa2 + r = a1 . Donc µ est un diviseur
commun de a2 et de a1 . Donc µ divise µ0 qui est le pgcd de a1 et a2 .
(b) Réciproquement, µ0 divise a1 et a2 , donc µ0 divise aussi a1 − qa2 = r. Par conséquent, µ0 divise
le pgcd de a2 et de r, i.e., divise µ.
En conclusion, les entiers naturels µ et µ0 se divisent l’un l’autre, et sont donc égaux.

Décrivons maintenant l’algorithme d’Euclide. L’objet de l’algorithme est de calculer le


pgcd de deux entier naturels non nuls a1 et a2 .
— Initialisation : Posons r1 = a1 et r2 = a2
— tant que ri > 0, on définit ri+1 comme étant le reste de la division euclidienne de ri−1
par ri .

Proposition 7.4.8 Soit (ri ) la suite définie par l’algorithme d’Euclide. Alors il existe un indice
i0 ≤ a2 + 2 tel que ri0 = 0 et
pgcd{a1 , a2 } = ri0 −1 .
60 CHAPITRE 7. LES NOMBRES ENTIERS ET LES NOMBRES RATIONNELS

Exemple : Si a1 = 48 et a2 = 30, alors r1 = a1 = 48, r2 = a2 = 30, puis de 48 = 30×1+18


on déduit r3 = 48−1.30 = 18, ensuite r4 = 30−1.18 = 12, r5 = 18−1.12 = 6, r6 = 12−2.6 = 0.
Donc i0 = 6 et pgcd{48, 30} = pgcd{30, 18} = pgcd{18, 12} = pgcd{12, 6} = r5 = 6.
Preuve de la proposition 7.4.8 : Par définition du reste de la division euclidienne, la suite
(ri ) est strictement décroissante à partir du rang i = 2. On montre donc facilement par récurrence que
ri ≤ a2 − i + 2 pour i ≥ 2. Or ri est positif pour tout i. L’algorithme s’arrête donc au plus tard en
temps i0 ≤ r2 + 2.
On démontre également par récurrence, en utilisant le théorème 7.4.7, que, pour tout i < i0 − 1,

(7.1) pgcd{a1 , a2 } = pgcd{ri−1 , ri } .

Or, par définition de i0 , l’entier ri0 −1 divise ri0 −2 . La proposition 7.4.5 affirme alors que

(7.2) pgcd{ri0 −2 , ri0 −1 } = ri0 −1 .

En mettant ensembles les égalités (7.1) et (7.2), on obtient le résultat désiré : pgcd{a1 , a2 } = ri0 −1 .

7.5 Nombres premiers entre eux

Définition 7.5.1 Soit {a1 , . . . , an } un sous-ensemble de ZZ ∗ . On dit que les nombres a1 , . . . , an


sont premiers entre eux si leur pgcd est 1.

Exemple : Les nombres 30, 35 et 14 sont premiers entre eux. En effet, on a d’une part :
pgcd{35, 14} = pgcd{14, 7} = 7 d’après l’algorithme d’Euclide. D’autre part, on a

pgcd{30, 35, 14} = pgcd{30, pgcd{35, 14}} = pgcd{30, 7},

où pgcd{30, 7} = pgcd{7, 2} = pgcd{2, 1} = 1 d’après l’algorithme d’Euclide. Donc on a montré


que pgcd{30, 35, 14} = 1.

Le théorème le plus important de cette partie, et un des plus importants de ce cours, est le
théorème de Bezout :

Théorème 7.5.2 (Bezout) Soit {a1 , . . . , an } un sous-ensemble de ZZ ∗ . Alors les nombres


a1 , . . . , an sont premiers entre eux si et seulement si il existe n entiers relatifs α1 , . . . , αn tels
que
(7.3) α1 a1 + . . . + αn an = 1 .

On appelle relation de Bezout une relation du type (7.3).


Preuve : Supposons d’abord que a1 , . . . , an sont premiers entre eux. Comme le pgcd de a1 , . . . , an
est 1, le corollaire 7.4.4 affirme qu’il existe n entiers relatifs α1 , . . . , αn tels que α1 a1 + . . . + αn an = 1.
Réciproquement, supposons qu’il existe n entiers relatifs α1 , . . . , αn tels que α1 a1 + . . . + αn an = 1.
Soit µ le pgcd de a1 , . . . , an . Comme µ est un diviseur commun de a1 , . . . , an , µ divise également
α1 a1 + . . . + αn an , i.e., µ divise 1. Comme µ > 0, µ ne peut être égal qu’à 1. En conclusion, a1 , . . . , an
sont premiers entre eux.
7.5. NOMBRES PREMIERS ENTRE EUX 61

Comment trouver une relation de Bezout ?

En pratique, pour trouver une relation de Bezout, on utilise l’algorithme d’Euclide, en


écrivant à chaque étape le quotient et le reste de la division euclidienne de ri+1 par ri (cf les
notations de l’algorithme).
Par exemple, pour les entiers n1 = 48 et n2 = 29, cela donne :
— n1 = r1 = 48, n2 = r2 = 29, r1 = 1.r2 + 19, d’où r3 = 19 = n1 − n2 .
— r2 = 1.r3 + 10, d’où r4 = 10 = r2 − r3 = n2 − (n1 − n2 ) = 2n2 − n1 .
— r3 = 1.r4 + 9 d’où r5 = 9 = r3 − r4 = (n1 − n2 ) − (2n2 − n1 ) = 2n1 − 3n2 .
— r4 = r5 + 1 d’où r6 = 1 = 2n2 − n1 − (2n1 − 3n2 ) = −3n1 + 5n2 .
— On en conclut que pgcd{n1 , n2 } = r6 = 1. Les entiers n1 et n2 sont premiers entre eux.
Une relation de Bezout est donc : −3n1 + 5n2 = 1.

Théorème 7.5.3 (Gauss) Soient a, b et c trois entiers naturels non nuls. Si a divise bc et est
premier avec b, alors a divise c.

Preuves : Nous donnons deux démonstrations de ce résultat :


— Première démonstration : Comme a et b sont premiers entre eux, le théorème de Bezout affirme
qu’il existe α1 et α2 tels que

α1 a + α2 b = 1 . D’où α1 ac + α2 bc = c .

Comme a divise à la fois ac et bc, a divise α1 ac + α2 bc, c’est-à-dire, a divise c.

— Seconde démonstration : D’après la première partie de la proposition 7.4.5, on a :

pgcd{ac, bc} = c pgcd{a, b} = c.1 = c .

Comme a est un diviseur commun de ac et de bc, et que c est le pgcd de ac et bc, on en déduit
que a divise c.

Une conséquence cruciale du théorème de Gauss est le corollaire suivant :

Corollaire 7.5.4 Soient a, b, c trois entiers naturels, avec a et b non nuls et premiers entre
eux. Si a|c et b|c alors ab|c.

Preuve : Comme a|c, il existe un entier c0 tel que c = ac0 . Or b|c, donc b|(ac0 ). Comme a et b
sont premiers entre eux, le théorème de Gauss affirme que b|c0 . Donc ab|c.

Une autre application du théorème de Bezout est la suivante :

Proposition 7.5.5 Soit {a1 , . . . , an } un sous-ensemble de ZZ ∗ . Alors un entier naturel µ est


le pgcd de a1 , . . . , an si et seulement si µ est un diviseur commun de a1 , . . . , an et les entiers
a1 an
µ , . . . , µ sont premiers entre eux.
62 CHAPITRE 7. LES NOMBRES ENTIERS ET LES NOMBRES RATIONNELS

Preuve : Supposons d’abord que µ est le pgcd de a1 , . . . , an . Alors on sait que µ est un diviseur
commun de a1 , . . . , an . De plus, le corollaire 7.4.4 affirme qu’il existe des entiers α1 , . . . , αn tels que
α1 a1 + . . . + αn an = µ. En divisant cette égalité par µ, on obtient :
a1 an
α1 + . . . + αn =1.
µ µ

Le théorème de Bezout affirme alors que aµ1 , . . . , aµn sont premiers entre eux.
Réciproquement, supposons que µ est un diviseur commun de a1 , . . . , an et les entiers aµ1 , . . . , aµn
sont premiers entre eux. Notons d le pgcd de a1 , . . . , an . Comme µ est un diviseur commun de a1 , . . . , an ,
µ divise d par définition du pgcd. De plus, comme aµ1 , . . . , aµn sont premiers entre eux, le théorème de
Bezout affirme qu’il existe des entiers α1 . . . , αn tels que α1 aµ1 + . . . αn aµn = 1, ce qui implique que
α1 a1 + . . . αn an = µ. Comme d est un diviseur commun de a1 , . . . , an , d divise α1 a1 + . . . αn an , et donc
divise µ. Nous avons prouvé que les entiers naturels d et µ se divisent l’un l’autre. Ils sont donc égaux.

Nous expliquons maintenant comment calculer le ppcm de deux nombres à partir de leur
pgcd : pour cela, commençons par un résultat intermédiaire.

Proposition 7.5.6 Soient a et b deux entiers naturels non nuls premiers entre eux. Alors le
ppcm de a et b est égal à ab.

Preuve : Posons µ = ppcm{a, b}. Comme ab est un multiple commun de a et de b, µ divise ab


(condition (b) de la définition du ppcm).
Comme a divise µ, il existe un entier k tel que µ = ak. Or b divise également µ, donc divise ak.
Or a et b sont premiers entre eux. Le théorème de Gauss affirme alors que b divise k. Donc il existe un
entier k0 ∈ IN ∗ tel que k = bk0 . D’où µ = abk0 . On en déduit que ab divise µ.
Les entiers naturels µ et ab se divisent l’un l’autre, donc sont égaux.

Voici maintenant la relation entre ppcm et pgcd dans le cas général :

Théorème 7.5.7 Soient a et b deux entiers naturels non nuls. Alors

pgcd{a, b} ppcm{a, b} = ab .

a b
Preuve : Posons d = pgcd{a, b}. La proposition 7.5.5 affirme que d divise a et b et que d
et d
a b ab
sont premiers entre eux. D’après la proposition 7.5.6, le ppcm de et est égal à
d d d2
.
Donc
a b a b ab ab
ppcm{a, b} = ppcm{d , d } = d ppcm{ , } = d 2 = .
d d d d d d
On en déduit l’égalité désirée.

On conclut cette partie par la mise sous forme irréductible d’un nombre rationnel. Rappelons
qu’un nombre rationnel est un nombre réel r pour lequel il existe (p, q) ∈ ZZ × ZZ ∗ avec r = p/q.
7.6. NOMBRES PREMIERS 63

Théorème 7.5.8 (Forme irréductible d’un nombre rationnel) Soit r un nombre ration-
nel non nul. Il existe un unique couple (a, b) ∈ ZZ ∗ × IN ∗ tel que
a
r= et a et b premiers entre eux .
b

Preuve :
— Existence : On suppose que r est positif (sinon, faire le même travail avec −r). Comme r est
rationnel, il existe (p, q) ∈ ZZ × ZZ ∗ avec r = p/q. On peut choisir p et q strictement positifs car
r l’est. Posons d = pgcd{p, q}, a = p/d et b = q/d. Alors la proposition 7.5.5 affirme que a et b
sont premiers entre eux. De plus, on a bien r = a/b car
p ad a
r= = = .
q bd b
— Unicité : Supposons qu’il existe deux couples (a1 , b1 ) ∈ ZZ ∗ × IN ∗ et (a2 , b2 ) ∈ ZZ ∗ × IN ∗ tels
a
que, pour j = 1, 2, r = bjj et aj et bj sont premiers entre eux. Alors

a1 a2
r= =
b1 b2
D’où a1 b2 = a2 b1 . Alors b2 divise a2 b1 . Comme b2 et a2 sont premiers entre eux, le théorème
de Gauss affirme que b2 divise b1 . On obtient de même que b1 divise b2 . Les entiers naturels b1
et b2 se divisant l’un l’autre, ils sont égaux. L’égalité a1 b2 = a2 b1 et le fait que b1 = b2 6= 0
impliquent alors que a1 = a2 . D’où l’unicité de la mise sous forme irréductible.

7.6 Nombres premiers

Définition 7.6.1 On appelle nombre premier tout nombre entier naturel p, tel que p ≥ 2 et
dont les seuls diviseurs dans IN ∗ sont 1 et p, i.e., :

si q ∈ IN ∗ avec q|p , alors q = 1 ou q = p .

Le théorème suivant affirme que tout entier naturel possède des diviseurs premiers :

Théorème 7.6.2 Soit n un entier naturel, avec n ≥ 2. Il existe un nombre premier qui divise
n.

Preuve : Soit A le sous-ensemble des entiers naturels supérieurs à 2 et diviseurs de n :


A = {q ∈ IN ∗ | q ≥ 2 et q|n} .

Alors A est une partie non vide de IN (car n ∈ A) et donc possède un plus petit élément p.
Montrons que p est premier. Soit k un nombre entier naturel qui divise p. Alors k divise aussi n,
car p divise n. Il y a alors deux possibilités :
- soit k < 2, c’est-à-dire k = 1,
- soit k ≥ 2, et donc k appartient à A. Or p est le plus petit élément de A. Donc k ≥ p. Mais k
divise p, donc k = p.
On a prouvé que, si k divise p, alors soit k = 1, soit k = p. Donc p est un diviseur premier de n.
64 CHAPITRE 7. LES NOMBRES ENTIERS ET LES NOMBRES RATIONNELS

Le théorème d’Euclide affirme qu’il existe une infinité de nombres premiers :

Théorème 7.6.3 (Euclide) Pour tout entier naturel n, il existe un nombre premier p
supérieur à n.

Preuve : Fixons un entier n ≥ 2, et considérons le nombre q = n! + 1 = (1.2.3 . . . n) + 1. D’après


le théorème 7.6.2, il existe un nombre premier p qui divise q.
Montrons que p est supérieur à n. En effet, si, raisonnant par l’absurde, on suppose que p < n, alors
p divise n!. Donc p divise 1 ce qui est impossible car p ≥ 2. On a donc trouvé une contradiction. Par
conséquent, p est supérieur à n.

7.7 Décomposition d’un entier en facteurs premiers

Théorème 7.7.1 Tout entier naturel a ≥ 2 peut s’écrire d’une manière unique sous la forme :

a = (p1 )k1 . . . (pm )km

où p1 , . . . , pm sont des nombres premiers distincts et k1 , . . . , km sont des entiers strictement
positifs.

Remarque 7.7.2 L’unicité signifie ici que si on a deux expressions de cette forme :

a = (p1 )k1 . . . (pm )km = (q1 )r1 . . . (qn )rn

avec p1 , . . . , pm (respectivement q1 , . . . , qn ) des nombres premiers distincts et k1 , . . . , km (res-


pectivement r1 , . . . , rn ) des entiers strictement positifs, alors m = n et, pour tout i ∈ {1, . . . , n},
il existe un indice j ∈ {1, . . . , n} tel que pi = qj et ki = rj .

Preuve : Nous ne démontrons que l’existence, la preuve de l’unicité étant un peu plus délicate.
On raisonne par récurrence généralisée sur le nombre a. Si a = 2, le résultat est évident.
Supposons le résultat vrai jusqu’au nombre a ≥ 2. Montrons qu’il est encore vrai pour a+1. D’après
le théorème 7.6.2, le nombre a + 1 possède un diviseur premier, noté p. Posons b = a+1 p
.
Il y a alors 2 cas : soit b = 1, et alors le résultat est démontré. Soit b > 1, et on a alors 2 ≤ b ≤ a.
Par hypothèse de récurrence, il existe alors des nombres premiers distincts p1 , . . . , pm et des entiers
strictement positifs k1 , . . . , km tels que

b = (p1 )k1 . . . (pm )km .

Donc
a + 1 = p(p1 )k1 . . . (pm )km
et a + 1 possède une décomposition en facteurs premiers.
Par récurrence, on en déduit l’existence de la décomposition pour tout entier a.
7.7. DÉCOMPOSITION D’UN ENTIER EN FACTEURS PREMIERS 65

Proposition 7.7.3 Application au calcul du pgcd et du ppcm : Soient a et b deux


entiers naturels non nuls supérieurs à 2. On suppose que

a = (p1 )k1 . . . (pm )km et b = (p1 )r1 . . . (pm )rm

avec p1 , . . . , pm des nombres premiers distincts et k1 , . . . , km (respectivement r1 , . . . , rm ) des


entiers positifs ou nuls (de façon à avoir une écriture commune pour a et b). Alors

pgcd{a, b} = (p1 )min{k1 ,r1 } . . . (pm )min{km ,rm } et ppcm{a, b} = (p1 )max{k1 ,r1 } . . . (pm )max{km ,rm } .
66 CHAPITRE 7. LES NOMBRES ENTIERS ET LES NOMBRES RATIONNELS
Chapitre 8

Les polynômes

Avertissement : L’ensemble des polynômes partage de nombreuses propriétés communes


avec l’ensemble des entiers (division euclidienne, existence d’un ppcm, d’un pgcd, notion de
nombres ou de polynômes premiers, etc...) C’est pourquoi plusieurs parties de ce chapitre sont
redondantes par rapport au chapitre précédent. C’est en particulier le cas des parties 8.3 à 8.7
qui ne figurent ici que par commodité du lecteur.

8.1 Définitions et vocabulaire

Définition 8.1.1
Un polynôme P est une expression de la forme

P (X) = a0 + a1 X + a2 X 2 + . . . an X n ,

où a0 , a1 , . . . , an sont les coefficients du polynôme.


Si a0 , a1 , . . . , an sont des nombres réels (resps. complexes), le polynôme est réel (resp. com-
plexes).
L’ensemble des polynômes réels est noté IR[X], tandis que l’ensemble des polynômes complexes
est noté C I[X].
Si P est un polynôme non nul, avec P (X) = a0 +a1 X +a2 X 2 +. . . an X n , le degré du polynôme
P , noté deg(P ), est le plus grand entier k ∈ {0, . . . , n} tel que ak 6= 0.
Si ce coefficient directeur est égal à 1, on dit que le polynôme P est normalisé.
Par convention, le degré du polynôme nul est −∞.

Proposition 8.1.2 Deux polynômes P1 et P2 sont égaux si P1 et P2 ont même degré et si les
coefficients de P1 et P2 sont égaux.

67
68 CHAPITRE 8. LES POLYNÔMES

Définition 8.1.3 Somme de deux polynômes : Soient P1 (X) = a0 + a1 X + . . . + an X n


et P2 (X) = b0 + b1 X + . . . + bm X m . Le polynôme P1 + P2 est le polynôme (P1 + P2 )(X) =
c0 + c1 X + . . . + ck X k , avec
- l’entier k est défini par k = max{n, m},
- les coefficients ci sont définis par :

 ai + bi si i ≤ min{n, m}
∀i ∈ {1, . . . , k} , ci = ai si m + 1 < i ≤ n
bi si n + 1 < i ≤ m

Définition 8.1.4 Produit de deux polynômes : Soient P1 (X) = a0 + a1 X + . . . + an X n et


P2 (X) = b0 + b1 X + . . . + bm X m . Le polynôme P1 P2 est le polynôme (P1 P2 )(X) = c0 + c1 X +
. . . + ck X k , avec
- l’entier k est défini par k = n + m,
- les coefficients ci sont définis par :
X
∀i ∈ {1, . . . , k} , ci = aj bl .
j+l=i

Remarque 8.1.5 Cette formule correspond au développement formel du produit

(a0 + a1 X + . . . + an X n )(b0 + b1 X + . . . + bm X m ) .

Il est facile de montrer que la somme et le produit de polynômes possèdent les propriétés
habituelles (associativité, commutativité, le polynôme nul est un élément neutre pour l’addition,
existence d’un opposé, distributivité).
Sauf mention contraire, dans toute la suite nous travaillerons indifféremment dans IR[X] ou
dans C I[X]. Un scalaire sera alors, dans le premier cas, un élément de IR, et dans le second, un
élément de CI.

Théorème 8.1.6 Soient P1 et P2 deux polynômes. Alors



deg(P1 + P2 ) ≤ max{deg(P1 ), deg(P2 )}.
De plus, il y a inégalité stricte si et seulement si deg(P1 ) = deg(P2 ) et le coefficient
dominant de P1 est l’opposé de celui de P2 .

deg(P1 P2 ) = deg(P1 ) + deg(P2 ).
De plus, si P1 et P2 sont non nuls, le coefficient dominant de P1 P2 est le produit du
coefficient dominant de P1 et de celui de P2 .

Remarque 8.1.7 Si P1 ou P2 est le polynôme nul, le résultat est encore valable à condition
d’utiliser la convention −∞ + k = −∞ pour tout entier k.

Preuve du théorème : C’est une conséquence directe des définitions de la somme et du produit.
8.2. DIVISION EUCLIDIENNE 69

Corollaire 8.1.8 L’ensemble des polynômes est intègre c’est-à-dire : Si P1 et P2 sont deux
polynômes, et si P1 P2 = 0 alors soit P1 = 0, soit P2 = 0.

Preuve : En effet, deg(P1 P2 ) = deg(P1 ) + deg(P2 ) = −∞ car P1 P2 = 0. Donc deg(P1 ) = −∞ ou


deg(P2 ) = −∞, c’est-à-dire que P1 = 0 ou P2 = 0.

8.2 Division euclidienne

Définition 8.2.1 Soient A et B deux polynômes. On dit que A divise B noté A|B si
a) A n’est pas nul,
b) il existe un polynôme Q tel que B = QA.

Proposition 8.2.2 Soient A, B et C trois polynômes.


1. si C 6= 0, alors A|B si et seulement si AC|BC,
2. si A|B, alors (−A)|B et A|(−B),
3. si A|B et A|C, alors A|(B + C).
4. si A|B et B|A, alors il existe un scalaire non nul α tel que B = αA.
5. si AB|C alors A|C et B|C.
6. si A 6= 0 et A|B, alors, soit B = 0, soit deg(A) ≤ deg(B).

Preuve : Cette proposition est une conséquence immédiate de la définition de la division. Nous
la laissons en exercice.

Théorème 8.2.3 Soient A et B deux polynômes avec B 6= 0. Il existe alors un unique couple
(Q, R) de polynômes, avec

A = QB + R et deg(R) < deg(B) .

Le polynôme Q s’appelle le quotient de la division euclidienne de A par B, tandis que le polynôme


R s’appelle le reste.

Preuve :
— Preuve de l’unicité : Supposons que (Q1 , R1 ) et (Q2 , R2 ) soient deux couples de polynômes
tels que

A = Q1 B + R1 = Q2 B + R2 avec deg(R1 ) < deg(B) et deg(R2 ) < deg(B) .

Alors, comme (Q1 − Q2 )B = R2 − R1 , le polynôme B divise le polynôme R1 − R2 qui est de


degré strictement inférieur à celui de B. Donc R1 = R2 , ce qui implique, puisque B 6= 0, que
Q1 = Q2 .
Nous avons donc prouvé qu’il existe au plus un couple (Q, R) de polynômes vérifiant la relation
désirée.
70 CHAPITRE 8. LES POLYNÔMES

— Preuve de l’existence : On suppose que B ne divise pas A, car sinon le résultat est évident.
Notons
E = {n ∈ IN | ∃ un polynôme C avec deg(A − BC) = n} .
L’ensemble E n’est pas vide car il contient par exemple deg(A) (prendre C = 0). Donc E
contient un plus petit élément r. Comme r ∈ E, il existe un polynôme Q tel que le polynôme
R = (A − BQ) a pour degré r. Montrons que r < deg(B).
Pour cela, on raisonne par l’absurde en supposant au contraire que r = deg(R) ≥ deg(B).
Posons n = deg(B) et appelons bn et cr respectivement le coefficient dominant de B et de R.
Alors on affirme que le polynôme Q1 = Q + bcnr X r−n (avec la convention X 0 = 1) vérifie :
deg(A − BQ1 ) < r. En effet,
cr r−n cr r−n
A − BQ1 = A − B(Q + X )=R− X B.
bn bn
Les polynômes R et bcnr X r−n B sont de même degré r et ont même coefficient dominant cr .
Donc A − BQ1 a un degré strictement inférieur à r. Comme deg(A − BQ1 ) appartient à E par
définition de E (notons que A − BQ1 6= 0 car B ne divise pas A), on a trouvé une contradiction
car r est le plus petit élément de E et deg(A − BQ1 ) < r. Par conséquent, on a prouvé que
r = deg(R) < deg(B). Ceci achève la démonstration de l’existence du couple (Q, R) tel que
A = QB + R et deg(R) < deg(B).

8.3 Le ppcm d’un famille de polynômes

Définition 8.3.1 (PPCM) Soit {A1 , . . . , An } une famille de polynômes non nuls. On appelle
plus petit commun multiplicateur (ppcm) de {A1 , . . . , An } l’unique polynôme non nul et norma-
lisé P noté ppcm{A1 , . . . , An } tel que
a) ∀i = 1, . . . , n, Ai |P ,
b) Pour tout polynôme non nul Q, si {∀i = 1, . . . , n, Ai |Q}, alors P |Q.

Montrons l’existence du ppcm{A1 , . . . , An }.

Théorème 8.3.2 Soit {A1 , . . . , An } une famille de polynômes non nuls. Le ppcm de
{A1 , . . . , An } existe et est unique. C’est le polynôme de plus petit degré parmi les polynômes
non nuls et normalisés qui sont multiples commun de A1 , . . . , An .

Preuve : Soit E l’ensemble des entiers naturels non nuls défini par
E = {k ∈ IN ∗ | ∃ un polynôme Q tel que ∀i = 1, . . . , n, Ai |Q et k = deg(Q)} .

L’ensemble E est non vide car il contient l’entier k = deg(A1 . . . . .An ). En effet, A1 . . . . .An est un
multiple commun de A1 , . . . , An . Donc E possède un plus petit élément noté p. Comme p appartient à
E, il existe un polynôme P (que l’on peut choisir normalisé) qui est multiple commun à tous les Ai et
tel que deg(P ) = p. Montrons que P est le ppcm de {A1 , . . . , An }.
Par construction, P est non nul et vérifie la condition (a) de la définition. Pour montrer que P
vérifie aussi (b), il suffit de montrer que P divise A pour tout A multiple commun à A1 , . . . , An .
On raisonne par l’absurde en supposant qu’il existe A multiple commun à A1 , . . . , An qui n’est pas
divisible par P . Soient Q et R respectivement le quotient et le reste de la division euclidienne de A par
P . On a A = QP + R et 0 ≤ deg(R) < deg(P ). Comme, pour tout i = 1, . . . , n, Ai divise A et P , Ai
divise R. Donc R est un multiple commun à tous les Ai et deg(R) appartient à E. Ceci contredit le fait
8.4. LE PGCD D’UNE FAMILLE DE POLYNÔMES 71

que p = deg(P ) est le plus petit élément de E. Donc P divise A pour tout A multiple commun à tous
les Ai . On a montré l’existence du ppcm de {A1 , . . . , An }.
Montrons l’unicité du ppcm. Si P1 et P2 sont deux ppcm de {A1 , . . . , An }, alors P1 divise P2 et P2
divise P1 . Comme P1 et P2 sont normalisés, cela implique que P1 = P2 . Le ppcm est donc unique.

Voici quelques propriétés du ppcm :

Proposition 8.3.3
i) Soit {A1 , . . . , An } une famille de polynômes non nuls et B un polynôme non nul et de coef-
ficient dominant b. Alors
1
ppcm{BA1 , . . . , BAn } = B ppcm{A1 , . . . , An } .
b
ii) Si A et B sont deux polynômes non nuls, avec A|B, et si b est le coefficient dominant de B,
alors
1
ppcm{A, B} = B .
b

Preuve : i) Quitte à remplacer B par 1b B, on peut supposer que B est normalisé. Appelons P le
ppcm de {A1 , . . . , An }. Il faut montrer que BP (qui est alors normalisé) est le ppcm de {BA1 , . . . , BAn }.
Comme, pour tout i = 1, . . . , n, Ai divise P , on a que BAi divise BP . Donc BP vérifie le (a) de la
définition du ppcm.
Soit Q un polynôme non nul tel que, pour tout i = 1, . . . , n, BAi divise Q. Alors B divise Q et on
Q
note Q1 = B . Remarquons que Q1 6= 0 car Q 6= 0.
Comme, pour tout i = 1, . . . , n, BAi divise Q = BQ1 , on en déduit que Ai divise Q1 . De plus, P
étant le ppcm de {A1 , . . . , An }, la propriété (b) de la définition du ppcm implique que P divise Q1 .
Donc BP divise Q = BQ1 . Par conséquent, BP vérifie la condition (b) de la définition du ppcm.

ii) On suppose encore que B est normalisé. Comme A et B divisent clairement B, B vérifie (a) de
la définition du ppcm.
Le polynôme B vérifie le (b) de la définition du ppcm de façon évidente. Donc B = ppcm{A, B}.

8.4 Le pgcd d’une famille de polynômes

Définition 8.4.1 (PGCD) Soit {A1 , . . . , An } une famille de polynômes non nuls. On appelle
plus grand commun diviseur (pgcd) de {A1 , . . . , An } l’unique polynôme non nul et normalisé P ,
noté pgcd{A1 , . . . , An } , tel que
a) ∀i = 1, . . . , n, P |Ai ,
b) pour tout polynôme non nul Q, si {∀i = 1, . . . , n, Q|Ai }, alors Q|P .

Théorème 8.4.2 Soit {A1 , . . . , An } une famille de polynômes non nuls. Le pgcd de
{A1 , . . . , An } existe et est unique.

Preuve de l’unicité : L’unicité du pgcd est claire puisque, si P1 et P2 sont deux pgcd de
{A1 , . . . , An }, alors P1 et P2 se divisent l’un l’autre, et, étant normalisés, sont donc égaux.
72 CHAPITRE 8. LES POLYNÔMES

Le lemme suivant montre l’existence du pgcd :


Lemme 8.4.3 Soient {A1 , . . . , An } une famille de polynômes non nuls et I l’ensemble des
polynômes défini par :

I = {A 6= 0 | ∃Z1 , . . . , Zn des polynômes tels que A = Z1 A1 + . . . + Zn An } .

Alors cet ensemble est non vide et possède un polynôme normalisé P de plus petit degré dans
I. Ce polynôme est le pgcd de {A1 , . . . , An }.
Preuve : L’ensemble I est non vide car, par exemple A21 appartient à I (prendre Z1 = A1 ,
Z2 = . . . = Zn = 0). Soit
E = {n ∈ IN | ∃A ∈ I avec deg(A) = n} .
Comme E est une partie non vide de IN , E possède un plus petit élément noté p. Comme p appartient
à E, il existe un polynôme P , que l’on peut choisir normalisé, tel que deg(P ) = p. Montrons que P est
le pgcd de A1 , . . . , An .
Comme P ∈ I, il existe des polynômes Z1 , . . . , Zn tels que P = Z1 A1 + . . . + Zn An . Vérifions que
P satisfait (a) de la définition du pgcd. Pour cela, on raisonne par l’absurde en supposant qu’il existe
i ∈ {1, . . . , n} tel que P ne divise pas Ai . Soit Q et R respectivement le quotient et le reste de la
division euclidienne de Ai par P : Ai = QP + R et 0 ≤ deg(R) < deg(P ). Alors R appartient à I car
R 6= 0 par hypothèse et

R = Ai − QP = (−Z1 Q)A1 + . . . + (−Zi−1 Q)Ai−1 + (1 − Zi Q)Ai


+(−Zi+1 Q)Ai+1 + . . . + (−Zn Q)An .

Donc deg(R) appartient à E. Mais d’autre part deg(R) < p et p est le plus petit élément de E. On a
donc trouvé une contradiction. Par conséquent P divise tous les Ai , i = 1, . . . , n.
Reste à prouver que P satisfait la partie (b) de la définition du pgcd. Pour cela, considérons Q
un diviseur commun à tous les Ai . Il est clair alors que Q divise tous les éléments de I. Comme P
appartient à I, Q divise donc P .

On déduit de la démonstration le corollaire suivant :

Corollaire 8.4.4 Soit {A1 , . . . , An } une famille de polynômes non nuls. Il existe alors des
polynômes Z1 , . . . , Zn tels que

pgcd(A1 , . . . , An ) = Z1 A1 + . . . + Zn An .

Voici maintenant quelques propriétés du pgcd qui seront utiles plus tard :

Proposition 8.4.5
i) Soient {A1 , . . . , An } une famille de polynômes non nuls et B un polynôme non nul de coef-
ficient dominant b. Alors
B
pgcd{BA1 , . . . , BAn } = pgcd{A1 , . . . , An } .
b
ii) Si A et B sont deux polynômes non nuls tels que A|B, et si a est le coefficient dominant de
A, alors
A
pgcd(A, B) = .
a
8.4. LE PGCD D’UNE FAMILLE DE POLYNÔMES 73

Preuve : i) On suppose pour simplifier les notations que B est normalisé. Posons P1 = pgcd{A1 , . . . , An }
et P2 = pgcd{BA1 , . . . , BAn }. Il faut montrer que BP1 = P2 .
On remarque d’abord que BP1 est un diviseur commun à BA1 , . . . , BAn , car P est un diviseur
commun à A1 , . . . , An . Donc BP1 divise P2 . Il existe donc un polynôme Q non nul avec P2 = QBP1 .
Comme P2 est le pgcd de {BA1 , . . . , BAn }, P2 = QBP1 est un diviseur commun à BA1 , . . . , BAn ,
ce qui implique que QP1 est un diviseur commun à A1 , . . . , An . Or P1 étant le pgcd de {A1 , . . . , An },
cela entraı̂ne que QP1 divise P1 . Or P1 6= 0 et Q 6= 0, donc Q est un scalaire non nul. On a donc prouvé
que P2 = QBP2 , avec Q scalaire non nul. Comme P1 , B et P2 sont normalisés, on en déduit que Q = 1
et que P2 = BP1 .

ii) On suppose que A est normalisé. Posons P = pgcd{A, B}. Comme A divise à la fois A et B, A
divise P . De plus, P divise A par définition du pgcd. Comme A et P sont normalisés et se divisent l’un
l’autre, on a P = A.

La proposition suivante affirme que l’on peut toujours ramener le calcul du pgcd de n
polynômes à n calculs du pgcd de 2 polynômes.

Proposition 8.4.6 Soient {A1 , . . . , An } une famille de polynômes non nuls, avec n ≥ 3. Alors

pgcd{A1 , . . . , An } = pgcd {A1 , pgcd{A2 , . . . , An } } .

Preuve : Posons P1 = pgcd{A1 , . . . , An }, P2 = pgcd{A2 , . . . , An } et P3 = pgcd{A1 , P2 }. On veut


montrer que P1 = P3 .
Montrons d’abord que P1 divise P3 . Comme P1 est un diviseur commun à A2 , . . . , An , P1 divise P2 .
Comme de plus, P1 divise A1 , P1 divise le pgcd de A1 et de P2 , i.e., divise P3 .
Réciproquement, P3 divise à la fois A1 et P2 . Or P2 étant un diviseur commun à A2 , . . . , An ,
P3 , divisant P2 , est également un diviseur commun à A2 , . . . , An . Donc P3 divise tous les Ai , avec
i = 1, . . . , n, ce qui implique que P3 divise le pgcd de {A1 , . . . , An }, c’est-à-dire P1 .
En conclusion, les polynômes normalisés P1 et P3 se divisent l’un l’autre, et sont donc égaux.

Voici maintenant le résultat principal de cette partie, qui justifie l’algorithme d’Euclide de
calcul du pgcd, que nous introduisons après.

Théorème 8.4.7 Soient A1 et A2 deux polynômes non nuls. Si A2 ne divise pas A1 , alors

pgcd{A1 , A2 } = pgcd{A2 , R}

où R est le reste de la division euclidienne de A1 par A2 .

Preuve : Soient Q et R respectivement le quotient et le reste de la division euclidienne de A1


par A2 : A1 = QA2 + R et 0 ≤ deg(R) < deg(A2 ). Posons P1 = pgcd{A2 , R} et P2 = pgcd{A1 , A2 }.
Montrons que P1 = P2 .
(a) Par définition, P1 |A2 . Comme P1 |R et P1 |A2 , on a aussi P1 |QA2 + R = A1 . Donc P1 est un
diviseur commun de A2 et de A1 . Donc P1 divise P2 qui est le pgcd de A1 et A2 .
(b) Réciproquement, P2 divise A1 et A2 . Donc P2 divise aussi R = A1 − QA2 . Par conséquent, P2
divise le pgcd de A2 et de R, i.e., divise P1 .
En conclusion, les polynômes normalisés P1 et P2 se divisent l’un l’autre, et sont donc égaux.
74 CHAPITRE 8. LES POLYNÔMES

Décrivons maintenant l’algorithme d’Euclide. Comme dans ZZ, l’objet de l’algorithme


est de calculer le pgcd de polynômes non nuls A1 et A2 .
— Initialisation : Posons R1 = A1 et R2 = A2
— tant que Ri 6= 0, on définit Ri+1 comme étant le reste de la division euclidienne de Ri−1
par Ri .

Proposition 8.4.8 Soit (Ri ) la suite de polynômes définie par l’algorithme d’Euclide. Alors il
existe un indice i0 ≤ deg(A2 ) + 2 tel que Ri0 = 0 et
1
pgcd{A1 , A2 } = Ri −1 ,
ri0 −1 0

où ri0 −1 est le coefficient dominant de Ri0 −1 .

Exemple 8.4.9 Si A1 = X 3 + X + 2 et A2 = X 2 − 1, on a
— R1 = A1 = X 3 + X + 2 et R2 = A2 = X 2 − 1,
— R3 = 2X + 2 car R1 = XR2 + 2X + 2
— R4 = 0 car R3 divise R2 .
— Conclusion : pgcd(A1 , A2 ) = 21 R3 = X + 1
Preuve de la proposition 8.4.8 : Par définition du reste de la division euclidienne, la suite
(deg(Ri )) est strictement décroissante à partir du rang i = 2. On montre donc facilement par récurrence
que deg(Ri ) ≤ deg(R2 ) − i + 2 pour i ≥ 2. Or deg(Ri ) ≥ 0 est positif pour tout i < i0 . L’algorithme
s’arrête donc au plus tard en temps i0 ≤ deg(R2 ) + 2.
On démontre également par récurrence, en utilisant le théorème 8.4.7, que, pour tout i < i0 − 1,
(8.1) pgcd{A1 , A2 } = pgcd{Ri−1 , Ri } .
Or, par définition de i0 , le polynôme Ri0 −1 divise Ri0 −2 . La proposition 8.4.5 affirme alors que
1
(8.2) pgcd{Ri0 −2 , Ri0 −1 } = Ri −1 .
ri0 −1 0
1
En mettant ensembles les égalités (8.1) et (8.2), on obtient le résultat désiré : pgcd{A1 , A2 } = R
ri0 −1 i0 −1
.

8.5 Polynômes premiers entre eux

Définition 8.5.1 Soit {A1 , . . . , An } une famille de polynômes non nuls. On dit que les po-
lynômes A1 , . . . , An sont premiers entre eux si leur pgcd est 1.

Exemple 8.5.2 Par exemple, les polynômes A1 (X) = X 4 + X 2 + 1 et A2 (X) = X 2 + 1


sont premiers entre eux car pgcd(A1 , A2 ) = pgcd(A2 , 1) = 1 car 1 est le reste de la division
euclidienne de A1 par A2 .

Théorème 8.5.3 (Bezout) Soit {A1 , . . . , An } une famille de polynômes non nuls. Alors les
polynômes A1 , . . . , An sont premiers entre eux si et seulement si il existe n polynômes Z1 , . . . , Zn
tels que
(8.3) Z 1 A1 + . . . + Z n An = 1 .
8.5. POLYNÔMES PREMIERS ENTRE EUX 75

On appelle relation de Bezout une relation du type (8.3).


Preuve : Supposons d’abord que A1 , . . . , An sont premiers entre eux. Comme le pgcd de A1 , . . . , An
est 1, le corollaire 8.4.4 affirme qu’il existe n polynômes Z1 , . . . , Zn tels que Z1 A1 + . . . + Zn An = 1.
Réciproquement, supposons qu’il existe n polynômes Z1 , . . . , Zn tels que Z1 A1 + . . . + Zn An = 1.
Soit P le pgcd de A1 , . . . , An . Comme P est un diviseur commun de A1 , . . . , An , P divise également
Z1 A1 + . . . + Zn An , i.e., P divise 1. Comme P est normalisé, P ne peut être égal qu’à 1. En conclusion,
A1 , . . . , An sont premiers entre eux.

Comment trouver une relation de Bezout ?

Comme dans ZZ, pour trouver une relation de Bezout, on utilise l’algorithme d’Euclide, en
écrivant à chaque étape le quotient et le reste de la division euclidienne de Ri+1 par Ri (cf les
notations de l’algorithme).

Par exemple, soit A1 = X 4 + 1 et A2 = X 3 + 1.


— Posons R1 = A1 et R2 = A2 .
— Effectuons la division euclidienne de R1 par R2 . Alors R1 = XR2 + (−X + 1), donc
R3 = (−X + 1) = A1 − XA2 .
— Effectuons maintenant la division euclidienne de R2 par R3 . Alors R2 = R3 (−X 2 − X −
1) + 2 et on pose R4 = 2.
— D’où
1 1 2 1 1 2
1 = 2 A2 + 2 (X + X + 1)(−X + 1) = 2 A2 + 2 (X + X + 1)(A1 − XA2 )
1 2 1 3 2
= 2 (X + X + 1)A1 − 2 (X + X + X − 1)A2 .

On a donc trouvé la relation de Bezout suivante :


1 2 1
(X + X + 1)A1 − (X 3 + X 2 + X − 1)A2 = 1.
2 2

Théorème 8.5.4 (Gauss) Soient A, B et C trois polynômes non nuls. Si A divise BC et est
premier avec B, alors A divise C.

Preuve : Comme A et B sont premiers entre eux, le théorème de Bezout affirme qu’il existe Z1
et Z2 tels que
Z1 A + Z2 B = 1 . D’où Z1 AC + Z2 BC = C .
Comme A divise à la fois AC et BC, A divise Z1 AC + Z2 BC, c’est-à-dire que A divise C.

Une conséquence cruciale du théorème de Gauss est le corollaire suivant :

Corollaire 8.5.5 Soient A, B et C trois polynômes, avec A et B non nuls et premiers entre
eux. Si A|C et B|C alors (AB)|C.

Preuve : Comme A|C, il existe un polynôme D tel que C = AD. Or B|C, donc B|(AD). Comme
A et B sont premiers entre eux, le théorème de Gauss affirme que B|D. Donc (AB)|C.

Une autre application du théorème de Bezout est la suivante :


76 CHAPITRE 8. LES POLYNÔMES

Proposition 8.5.6 Soit {A1 , . . . , An } une famille de polynômes non nuls. Alors un polynôme
non nul et normalisé P est le pgcd de A1 , . . . , An si et seulement si P est un diviseur commun
de A1 , . . . , An et les polynômes AP1 , . . . , APn sont premiers entre eux.

Preuve : Supposons d’abord que P est le pgcd de A1 , . . . , An . Alors on sait que P est un diviseur
commun de A1 , . . . , An . De plus, le corollaire 8.4.4 affirme qu’il existe des polynômes Z1 , . . . , Zn tels
que Z1 A1 + . . . + Zn An = P . En divisant cette égalité par P , on obtient :
A1 An
Z1 + . . . + Zn =1.
P P
Le théorème de Bezout affirme alors que les polynômes AP1 , . . . , APn sont premiers entre eux.
Réciproquement, supposons que P est un diviseur commun de A1 , . . . , An et les polynômes AP1 , . . . , APn
sont premiers entre eux. Notons D le pgcd de A1 , . . . , An . Comme P est un diviseur commun de
A1 , . . . , An , P divise D par définition du pgcd. De plus, comme AP1 , . . . , APn sont premiers entre eux,
le théorème de Bezout affirme qu’il existe des polynômes Z1 . . . , Zn tels que Z1 AP1 + . . . Zn APn = 1, ce
qui implique que Z1 A1 + . . . Zn An = P . Comme D est un diviseur commun de A1 , . . . , An , D divise
Z1 A1 + . . . Zn An , et donc divise P . Nous avons prouvé que les polynômes normalisés D et P se divisent
l’un l’autre. Ils sont donc égaux.

Nous expliquons maintenant comment calculer le ppcm de deux polynômes à partir de leur
pgcd : pour cela, commençons par un résultat intermédiaire.

Proposition 8.5.7 Soient A et B deux polynômes non nuls premiers entre eux, de coefficients
1
dominant respectif a et b. Alors le ppcm de A et B est égal à ab AB.

Preuve : On suppose pour simplifier, que A et B sont normalisés. Posons P = ppcm{A, B}.
Comme AB est un multiple commun de A et de B, P divise AB (condition (b) de la définition du
ppcm).
Comme A divise P , il existe un polynôme K tel que P = AK. Or B divise également P , donc divise
AK. Or A et B sont premiers entre eux. Le théorème de Gauss affirme alors que B divise K. Donc il
existe un polynôme R tel que K = BR. D’où P = ABR. On en déduit que AB divise P .
Les polynômes normalisés P et AB se divisent l’un l’autre, donc sont égaux.

Voici maintenant la relation entre ppcm et pgcd dans le cas général :

Théorème 8.5.8 Soient A et B deux polynômes non nuls de coefficient dominant respective-
ment a et b. Alors
ab pgcd{A, B} ppcm{A, B} = AB .

Preuve : On suppose pour simplifier que A et B sont normalisés. Posons D = pgcd{A, B}. La
A B
proposition 8.5.6 affirme que D divise A et B et que les polynômes D et D sont premiers entre eux.
A B
D’après la proposition 8.5.7, le ppcm de D et D est égal à AB
D2
.
Donc
A B A B AB AB
ppcm{A, B} = ppcm{D , D } = D ppcm{ , } = D 2 = .
D D D D D D
On en déduit l’égalité désirée.
8.6. POLYNÔMES PREMIERS 77

8.6 Polynômes premiers

Définition 8.6.1 On appelle polynôme premier tout polynôme P non nul, de degré supérieur
ou égal à 1, qui n’est divisible que par les polynômes constants ou par les polynômes de la forme
λP où λ est un scalaire non nul.

Voici un exemple fondamental :

Proposition 8.6.2 Soit P un polynôme de degré 1. Alors P est premier.

Preuve : Si Q est un diviseur de P , comme P 6= 0, deg(Q) = 0 ou deg(Q) = 1. Dans le premier


cas, Q est un polynôme constant. Dans le second, Q est un polynôme de degré 1, et le quotient de P
par Q est un polynôme constant. Donc Q est de la forme λP avec λ 6= 0. Par conséquent, P est un
polynôme premier.

Le théorème suivant affirme que tout polynôme possède des diviseurs premiers :

Théorème 8.6.3 Soit A un polynôme, avec deg(A) ≥ 1. Il existe un polynôme premier qui
divise A.

Preuve : Notons I l’ensemble des polynômes de degré supérieur ou égal à 1 qui divisent A.
Notons que I est non vide car A appartient à I. Soit maintenant

E = {n ∈ IN ∗ | ∃B ∈ I avec n = deg(B)} .

Comme A appartient à I, n = deg(A) appartient à E. Donc E est une partie non vide de IN et possède
un plus petit élément, noté p. Par définition de E, il existe un polynôme P ∈ I de degré p. Comme
P ∈ I, p = deg(P ) ≥ 1.
Montrons que P est premier. Soit Q un polynôme qui divise P . Alors Q divise aussi A, car, comme
P ∈ I, P divise A. Il y a alors deux possibilités :
- soit deg(Q) = 0, c’est-à-dire que Q est constant,
- soit deg(Q) ≥ 1, et donc deg(Q) appartient à E. Or p = deg(P ) est le plus petit élément de E.
Donc deg(Q) ≥ deg(P ). Comme Q divise P , il existe un scalaire non nul λ tel que Q = λP .
On a prouvé que, si Q divise P , alors soit Q est constant, soit Q est de la forme λP avec λ 6= 0.
Donc P est un diviseur premier de A.

8.7 Décomposition d’un polynôme en facteurs premiers

Théorème 8.7.1 Tout polynôme non nul A peut s’écrire d’une manière unique sous la forme :

A = λ(P1 )k1 . . . (Pm )km

où λ est un scalaire non nul, P1 , . . . , Pm sont des polynômes premiers et normalisés distincts
et k1 , . . . , km sont des entiers strictement positifs.
78 CHAPITRE 8. LES POLYNÔMES

Remarque 8.7.2 L’unicité signifie ici que si on a deux expressions de cette forme :

A = λ1 (P1 )k1 . . . (Pm )km = λ2 (Q1 )r1 . . . (Qn )rn

avec λ1 et λ2 des scalaires non nuls, P1 , . . . , Pm (respectivement Q1 , . . . , Qn ) des polynômes


premiers et normalisés distincts et k1 , . . . , km (respectivement r1 , . . . , rn ) des entiers strictement
positifs, alors m = n, λ1 = λ2 et, pour tout i ∈ {1, . . . , n}, il existe un indice j ∈ {1, . . . , n} tel
que Pi = Qj et ki = rj .

Preuve : On ne démontre que l’existence. On raisonne par récurrence généralisée sur le degré de
A. Si deg(A) = 1, le résultat est évident car A est premier.
Supposons le résultat vrai pour tous les polynômes de degré inférieur ou égal à n, n ≥ 1. Montrons
qu’il est encore vrai pour les polynômes de degré n + 1. Soit A un polynôme de degré n + 1. D’après
A
le théorème 8.6.3, le polynôme A possède un diviseur premier, noté P . Posons B = P .
Il y a alors 2 cas : soit B est constant, et alors le résultat est démontré. Soit deg(B) ≥ 1, et on
a alors 1 ≤ deg(B) < deg(A) = n + 1. Par hypothèse de récurrence, il existe alors un scalaire λ 6= 0,
des polynômes premiers et normalisés distincts P1 , . . . , Pm et des entiers strictement positifs k1 , . . . , km
tels que
B = λ(P1 )k1 . . . (Pm )km .
Donc
A = λP (P1 )k1 . . . (Pm )km
et A possède une décomposition en facteurs premiers.
Par récurrence, on en déduit l’existence de la décomposition pour tout polynôme A.

Proposition 8.7.3 Application au calcul du pgcd et du ppcm : Soient A et B deux


polynômes non nuls de degré supérieurs à 1. On suppose que

A = λ1 (P1 )k1 . . . (Pm )km et B = λ2 (P1 )r1 . . . (Pm )rm

avec λ1 et λ2 des scalaires non nuls, P1 , . . . , Pm des polynômes premiers et normalisés distincts
et k1 , . . . , km (respectivement r1 , . . . , rm ) des entiers positifs ou nuls (de façon à avoir une
écriture commune pour A et B). Alors

pgcd{A, B} = (P1 )min{k1 ,r1 } . . . (Pm )min{km ,rm } et ppcm{A, B} = (P1 )max{k1 ,r1 } . . . (Pm )max{km ,rm } .

8.8 Racine d’un polynôme


A partir de maintenant, nous sommes obligés de faire une nette distinction entre le cas
réel et le cas complexe. Afin de ne pas trop alourdir les énoncés, on introduit la notation k
qui signifie indifféremment IR ou C I, et k[X] qui signifie IR[X] ou C
I[X]. La notation k signifie
toujours la même chose à l’intérieur d’un même énoncé.

Définition 8.8.1 (Racine) Soit P un polynôme de k[X] et α ∈ k un scalaire. On dit que α


est une racine de P si P (α) = 0.

Exemple 8.8.2 Le polynôme P (X) = X 2 + 1 n’a pas de racine réelle, mais a pour racines
complexes i et −i.
8.8. RACINE D’UN POLYNÔME 79

Lemme 8.8.3 Soit P (X) = aX + b un polynôme de k[X] avec a 6= 0. Alors P possède une, et
une seule, racine dans k.

Preuve : Il est clair que la seule racine de P est −b/a.

Lemme 8.8.4 Si P |Q et α est une racine de P , alors α est une racine de Q.

Preuve : En effet, comme P divise Q, il existe un polynôme A tel que Q = AP . Alors Q(α) =
A(α)P (α) = 0 car P (α) = 0.

La caratérisation suivante des racines joue un rôle essentiel dans toute la suite :

Théorème 8.8.5 Soit P ∈ k[X] et α ∈ k. Alors α est une racine de P si et seulement si


(X − α) divise P dans k[X].

Preuve : On suppose d’abord que α est une racine de P . Pour montrer que (X − α) divise P ,
notons Q et R le quotient et le reste de la division euclidienne de P par (X − α) :

P (X) = Q(X)(X − α) + R(X) et deg(R) < deg(X − α) = 1 .

Comme deg(X − α) = 1, R est un polynôme constant. Or

0 = P (α) = Q(α).0 + R(α) = R(α)

car α est une racine de P . Donc le polynôme constant R est nul, ce qui prouve que (X − α) divise P .
Réciproquement, si (X − α) divise P , alors comme α est une racine de (X − α), α est aussi une
racine de P .

Corollaire 8.8.6 Soient n un entier naturel et P un polynôme de degré inférieur ou égal à n.


Si P a au moins n + 1 racines distinctes, alors P est égal au polynôme nul.

Preuve : On fait la preuve par récurrence sur n. Pour n = 0, c’est vrai car un polynôme constant
qui s’annule en au moins un point est identiquement nul.
On suppose que le résultat est vrai pour n. Montrons-le pour n + 1. Soit P un polynôme de degré
au plus (n + 1), qui possède au moins (n + 2) racines distinctes α1 , . . . , αn+2 . On sait alors que P est
divisible par (X − αn+2 ). Soit Q tel que P (X) = Q(X)(X − αn+2 ). Comme le degré de P est au plus
n + 1, le degré de Q est au plus n. Montrons que α1 , . . . , αn+1 sont des racines de Q. En effet

∀i ∈ {1, . . . , n + 1}, P (αi ) = 0 = (αi − αn+2 )Q(αi ) .

Comme αi 6= αn+2 si i ∈ {1, . . . , n + 1}, cette dernière égalité montre que Q(αi ) = 0. Donc, pour tout
i ∈ {1, . . . , n + 1}, αi est une racine de Q. Nous avons montré que le polynôme Q, de degré au plus n,
possède au moins n + 1 racines distinctes. L’hypothèse de récurrence affirme alors que Q est nul. Donc
P = (X − αn+2 )Q l’est aussi.

Le théorème suivant est souvent appelé théorème fondamental de l’algèbre :


80 CHAPITRE 8. LES POLYNÔMES

Théorème 8.8.7 (dit de d’Alembert) Soit P ∈ C


I[X] un polynôme non constant. Alors P
possède au moins une racine complexe.

On dit aussi que C


I est algébriquement clos. La démonstration de ce résultat est difficile et
hors programme.

Corollaire 8.8.8 Les polynômes premiers de C


I[X] sont les polynômes de degré 1.
Preuve : Soit P un polynôme de degré 1. Alors nous avons déjà montré que P est premier.
Réciproquement, soit P un polynôme premier de C I[X]. Comme deg(P ) ≥ 1, P n’est pas constant.
Donc le théorème de d’Alembert affirme que P possède au moins une racine α ∈ C I. Donc (X − α) divise
P . Comme P est premier, cela implique qu’il existe une constante β ∈ C I ∗ telle que P (X) = β(X − α)
et prouve que P est un polynôme de degré 1.

On en déduit la factorisation en facteurs premiers d’un polynôme de C


I[X].

Théorème 8.8.9 Soit P un polynôme de C I[X], α1 , . . . , αn les racines distinctes de P dans C


I.
I ∗ , et des entiers strictement positifs k1 , . . . , kn tels que
Il existe alors une constante β ∈ C

P (X) = β(X − α1 )k1 . . . (X − αn )kn .

De plus, le degré de P est k1 + k2 + . . . + kn .

Preuve :C’est une conséquence immédiate du théorème de factorisation en facteurs premiers d’un
polynôme et de la caractérisation des polynômes premiers de C
I[X].

Nous cherchons maintenant à caractériser les polynômes premiers de IR[X]. Pour cela, nous
avons besoin de deux résultats préliminaires :

Lemme 8.8.10 Soit P un polynôme de IR[X] et α ∈ C I une racine de P dans C


I[X].
Alors le conjugué de α, noté ᾱ, est aussi une racine de P .
Preuve : En effet, si P (X) = a0 + a1 X + . . . + an X n , α est une racine de P signifie que
a0 + a1 α + . . . + an αn = 0. Prenons le conjugué de cette expression :

0 = a0 + a1 α + . . . + an αn = a0 + a1 α + . . . + an αn = a0 + a1 ᾱ + . . . + an ᾱn = P (ᾱ)

car les coefficients ai sont réels. Ceci prouve que ᾱ est une racine de P .

Lemme 8.8.11 Soient P et Q deux polynômes de IR[X]. On suppose que Q divise P dans
C
I[X]. Alors Q divise P dans IR[X].
Preuve : Par hypothèse, il existe un polynôme R ∈ C I[X] tel que P = QR. Montrons que les
coefficients de R sont en fait réels. En effet, comme P et Q sont des polynômes réels,

P̄ = P = QR = Q̄R̄ = QR .

Donc R est également le quotient de P par Q. Ce quotient étant unique, cela prouve que R = R,
c’est-à-dire que R est à coefficients réels.
8.9. DÉRIVÉE D’UN POLYNÔME ET FORMULE DE TAYLOR 81

Nous décrivons maintenant les polynômes premiers de IR[X].

Théorème 8.8.12 Soit P un polynôme de IR[X]. Alors P est premier si et seulement si, soit
deg(P ) = 1, soit deg(P ) = 2 et P n’a pas de racine réelle.

Preuve : Montrons d’abord que, deg(P ) = 1, ou si deg(P ) = 2 et P n’a pas de racine réelle,
alors P est premier. Si deg(P ) = 1, nous avons vu que c’est bien le cas. Supposons maintenant que
deg(P ) = 2 et que P n’a pas de racine réelle. Si Q ∈ IR[X] est un diviseur de P , alors, comme P 6= 0,
on a deg(Q) = 0, 1 ou 2. Supposons un instant que deg(Q) = 1. Alors Q possède une racine réelle
α ∈ IR. Or Q divise P , donc α est aussi une racine de P . C’est impossible car P n’a pas de racine réelle
par hypothèse. Donc soit deg(Q) = 0, et Q est alors constant, soit deg(Q) = 2 = deg(P ), et, comme Q
divise P , il existe un réel non nul λ tel que Q = λP . Ceci prouve que P est premier.
Réciproquement, supposons que P soit un polynôme premier. Comme deg(P ) ≥ 1, P possède au
moins une racine α, réelle ou complexe (cf théorème de d’Alembert). Si α est réel, alors le polynôme
réel (X − α) divise P . Comme P est premier, il existe β ∈ IR∗ tel que P (X) = β(X − α). Donc P
est de degré 1. Supposons maintenant que α ∈ / IR. Alors le conjugué de α, noté ᾱ, est différent de α
et est aussi une racine de P . Les polynômes (X − α) et (X − ᾱ) divise P dans C I[X]. Ces polynômes
sont premiers (car de degré 1), et distincts, car α 6= ᾱ. Donc ces polynômes sont premiers entre eux.
Comme chacun d’eux divise P dans C I[X], leur produit (X − α)(X − ᾱ) divise aussi P dans C I[X]. Or
(X − α)(X − ᾱ) = X 2 − 2Re(α)X + |α|2
est un polynôme réel. Donc X 2 − 2Re(α)X + |α|2 divise P dans IR[X]. Comme P est premier, il existe
une constante β ∈ IR∗ telle que P (X) = β(X 2 − 2Re(α)X + |α|2 ), et P est un polynôme de degré 2
sans racine réelle.

8.9 Dérivée d’un polynôme et formule de Taylor

Définition 8.9.1 (Dérivée) Soit P un polynôme de k[X], P (X) = a0 + a1 X + . . . an X n =


Xn
ak X k . Le polynôme dérivé de P , noté P 0 , est le polynôme
k=0

n
X
P 0 (X) = a1 + 2a2 X + 3a3 X 2 + . . . + nan X n−1 = kak X k−1 .
k=1

Notons en particulier que :

Proposition 8.9.2 Si P ∈ k[X] et si deg(P ) ≥ 1, alors deg(P 0 ) = deg(P ) − 1.

Proposition 8.9.3 Si P1 et P2 sont deux polynômes de k[X], et si λ ∈ k, alors


1. Dérivée d’une somme : (P1 + P2 )0 = P10 + P20 ,
2. Dérivée du produit par un scalaire : (λP )0 = λP 0 ,
3. Dérivée d’un produit de polynômes : (P1 P2 )0 = P10 P2 + P1 P20 .
82 CHAPITRE 8. LES POLYNÔMES

Preuve : Seule la dernière assertion pose vraiment une difficulté de démonstration, c’est donc elle
seule que nous démontrons. Remarquons d’abord que le résultat est vrai si P1 (X) = X m et P2 (X) = X n .
En effet,
(P1 P2 )0 (X) = (X m+n )0 = (m + n)X n+m−1
tandis que

P10 (X)P2 (X)+P1 (X)P20 (X) = mX m−1 X n +X m (nX n−1 ) = mX m+n−1 +nX m+n−1 = (m+n)X n+m−1 .
Pn
Démontrons maintenant le résultat dans le cas général. Soient P1 (X) = k=0
ak X k et P2 (X) =
Pn
b X i . Alors
i=0 i

k+i 0
Pn Pn
(P1 P2 )0 (X) =

Pnk=0Pni=0 ak bi Xk+i 0
= Pnk=0 Pni=0 ak bi (X k )0 i
ak bi (X ) X + X k (X i )0

=
Pk=0
n Pi=0
n k 0 i n n
a b X k (X i )0
P P 
=
Pnk=0 i=0kak0 bi (X
Pn) X + k=0
n
i=0 k i P
n
bi (X i )0
i
 P k

= a (X )
k=0 k i=0 i
bX + k=0
ak X i=0
= P10 (X)P2 (X)
+ P1 (X)P20 (X)

Définition 8.9.4 (Dérivées nièmes) Pour n ∈ IN ∗ , on définit par récurrence la dérivée


nième d’un polynôme, notée P (n) :
0
P (1) (X) = P 0 (X) et, si P (n) a été défini, alors P (n+1) = P (n) .
Par convention, on notera P (0) = P .

Proposition 8.9.5 Exemple fondamental


Si P (X) = X m (avec m ≥ 1), alors

m!
∀k ∈ {0, . . . , m}, P (k) (X) = X m−k ,
(m − k)!
et
∀k ≥ m + 1, P (k) (X) = 0 .

Preuve : On fait la preuve par récurrence sur k. Pour k = 0 et k = 1, c’est évident.


On suppose le résultat vrai pour k ≥ 1, et on le montre pour k + 1. L’hypothèse de récurrence
affirme que, si k ≤ m, alors P (k) (X) = (m−k)!
m!
X m−k , et si k > m, alors P (k) (X) = 0.
Supposons d’abord k + 1 ≤ m. On dérive l’égalité P (k) (X) = m!
(m−k)!
X m−k :

m! m!
P (k+1) (X) = (m − k)X m−k−1 = X m−k−1 ,
(m − k)! (m − k − 1)!

ce qui est le résultat désiré. Si k = m, alors P (k) (X) est un polynôme constant. Donc sa dérivée est
nulle : P (k+1) (X) = 0. Finalement, si k > m, alors P (k) (X) est nul, donc P (k+1) (X) = 0. Nous avons
montré le résultat au rang k + 1.
Par récurrence, on en déduit le résultat pour tout k.
8.10. MULTIPLICITÉ D’UNE RACINE 83

Théorème 8.9.6 (Formules de Taylor) Soient n un entier naturel et P un polynôme de


k[X] de degré au plus n. Alors, pour tout α ∈ k, on a
n
X (X − α)k (k)
P (X) = P (α) .
k!
k=0

Preuve : Démontrons d’abord la formule pour les polynômes Pi (X) = X i (i ∈ {0, . . . , n}) :
n i i
X (X − α)k (k)
X (X − α)k i! X i!
Pi (α) = α(i−k) = (X − α)k α(i−k)
k! k! (i − k)! k!(i − k)!
k=0 k=0 k=0

Appliquons la formule du binôme de Newton à cette égalité :


i
X i!
(X − α)k α(i−k) = (X − α + α)i = X i = Pi (X) .
k!(i − k)!
k=0

Donc la formule est démontrée pour les polynômes Pi (X) = X i .


PnMontrons-la
i
Pnmaintenant pour un polynôme P quelconque de degré inférieur ou égal à n : P (X) =
i=0
ai X = a P (X).
i=0 i i

n n n
! n n
!
X (X − α)k (k)
X (X − α)k X (k)
X X (X − α)k (k)
P (α) = ai Pi (α) = ai Pi (α)
k! k! k!
k=0 k=0 i=0 i=0 k=0

Or nous avons déjà montré la formule de Taylor pour les polynômes Pi . Donc
n n
X (X − α)k X
P (k) (α) = ai Pi (X) = P (X) .
k!
k=0 i=0

8.10 Multiplicité d’une racine

Théorème 8.10.1 (Multiplicité d’une racine) Soit P un polynôme non nul de k[X] et α ∈
k une racine de P .
Il existe un unique entier k ∈ IN ∗ tel que
a) (X − α)k divise P ,
b) (X − α)k+1 ne divise pas P .
On dit que la racine α est de multiplicité k.
Une racine de multiplicité 1 est également appelée racine simple, une racine de multiplicité
2, racine double, etc...

Preuve : Montrons d’abord qu’il existe un entier k ≥ 1 tel que (X − α)k divise P et (X − α)k+1
ne divise pas P . Soit A l’ensemble des entiers naturels n tels que (X − α)n+1 ne divise pas P . Alors A
est non vide car, comme P est non nul, n = deg(P ) appartient à A. Soit k le plus petit élément de A.
Alors k ≥ 1 car (X − α) divise P , et donc 0 ∈ / A. De plus, comme k appartient à A, (X − α)k+1 ne
divise pas P . Enfin, comme k est le plus petit élément de A, l’entier naturel k − 1 n’appartient pas à A,
et donc (X − α)k divise P . Donc nous avons prouvé l’existence d’un entier k possédant les propriétés
désirées.
84 CHAPITRE 8. LES POLYNÔMES

Montrons maintenant que cet entier est unique. Soit n ≥ 1 un autre entier tel que (X − α)n divise
P et (X − α)n+1 ne divise pas P . Notons que n appartient à l’ensemble A défini plus haut. De plus,
pour tout entier m < n, le polynôme (X − α)m+1 divise (X − α)n , et donc divise P . On a donc montré
que, pour tout entier m < n, m n’appartient pas à A. Donc n est le plus petit élément de A, et n = k.

Théorème 8.10.2 Soient P un polynôme non nul de k[X], α ∈ k une racine de P et k un


entier naturel non nul.
Alors α est de multiplicité k si et seulement si

∀n ∈ {0, . . . , k − 1}, P (n) (α) = 0 et P (k) (α) 6= 0 .

Preuve : Soit r ≥ 1 le plus grand entier tel que ∀n ∈ {0, . . . , r − 1}, P (n) (α) = 0 . Un tel entier
existe car, si P est de degré d, alors P (d) est un polynôme constant et non nul. Donc P (d) (α) 6= 0. Notre
objectif est de montrer que r est la multiplicité de la racine α.
Notons d’abord que P (r) (α) 6= 0. Ecrivons la formule de Taylor en α : si deg(P ) = m (avec m ≥ r),
alors
m m m
!
X (X − α)n (n)
X (X − α)n (n) r
X (X − α)n−r (n)
P (X) = P (α) = P (α) = (X − α) P (α) .
n! n! n!
n=0 n=r n=r

Pm n−r (r)
(X−α)
Notons Q(X) le polynôme n=r n!
P (n) (α). On peut remarquer que Q(α) = P r!(α) est non
nul.
Donc (X − α)r divise P mais (X − α)r+1 ne divise pas P car sinon, (X − α) diviserait Q, ce qui
est en contradiction avec le fait que Q(α) 6= 0.
On a donc prouvé que r est la multiplicité de α.

8.11 Applications aux fractions rationnelles

P
Définition 8.11.1 On appelle fraction rationnelle toute expression de la forme Q où P ∈ k[X],
Q ∈ k[X] et Q 6= 0.

Notation : L’ensembles des fractions rationnelles sur k (avec k = IR ou k = C


I) est noté
k(X).

Proposition 8.11.2 (Forme irréductible d’une fraction rationnelle) Soit R ∈ k(X)


une fraction rationnelle non nulle. Il existe alors un unique couple de polynômes (P, Q) ∈
k[X] × k[X] tels que
i) Q 6= 0 est normalisé,
P
ii) R = Q ,
iii) P et Q sont premiers entre eux.
8.11. APPLICATIONS AUX FRACTIONS RATIONNELLES 85

P
Terminologie : Lorsque l’on écrit la fraction rationnelle R sous la forme Q avec P et Q
comme si dessus, on dit que la fraction rationnelle R est mise sous forme irréductible.

La preuve du théorème étant identique à celle du théorème correspondant dans Q, nous


l’omettons.
86 CHAPITRE 8. LES POLYNÔMES
Chapitre 9

Matrices

Dans ce chapitre, nous apprenons les rudiments du calcul matriciel : comment (et quand)
additionner deux matrices, les multiplier, les inverser.

9.1 Définitions et terminologie


9.1.1 Définitions et notations

Définition 9.1.1 (Matrices)


Soient n et p deux entiers non nuls. On appelle matrice à coefficients réels (resp. complexes) la
donnée de n × p nombres réels (resp. complexes) notés

{aij }i∈{1,...,n}, j∈{1,...,p}

On représente la matrice sous forme d’un tableau A à n lignes et p colonnes :


 
a11 . . . a1j . . . a1p
 ... ... ... ... ... 
 
A=  ai1 . . . aij . . . aip 

 ... ... ... ... ... 
an1 . . . anj . . . anp

On dit que aij est le terme général de la matrice A : le premier indice (ici i) désigne tou-
jours l’indice de ligne et le second indice (ici j) l’indice de colonne. On écrit aussi sous forme
condensée : A = (aij )n,p ou encore A = (aij ) s’il n’y a aucune ambiguı̈té.

Le couple (n, p) s’appelle le format de la matrice.


On désigne par Mn,p (IR) (resp. Mn,p (C I)) l’ensemble des matrices à coefficients réels (resp.
complexes) à n lignes et p colonnes. Si n = p, on dit que la matrice est une matrice carrée
d’ordre n. Les termes aii pour 1 ≤ i ≤ n forment la diagonale principale de la matrice de la
matrice A. On note Mn (IR) l’ensemble des matrices carrées d’ordre n

9.1.2 Matrices particulières


Soit A une matrice de Mn,p , c’est une
— matrice-ligne si n = 1 et dans ce cas A = (x1 , · · · , xp ) ∈ M1,p .

87
88 CHAPITRE 9. MATRICES

x1
 
.
— matrice-colonne si p = 1 et dans ce cas A =  .. .
xn
— matrice triangulaire supérieure si n = p et
∀i ∈ {1, · · · , n}, ∀j ∈ {1, · · · , n}, i > j =⇒ aij = 0.
— matrice triangulaire inférieure si n = p et
∀i ∈ {1, · · · , n}, ∀j ∈ {1, · · · , n}, i < j =⇒ aij = 0.
— matrice nulle de Mn,p (IR) notée O (le contexte donnera les valeurs de n et p) si tous
ses coefficients sont nuls.
— matrice élémentaire Ekl où k ∈ {1, · · · , n} et l ∈ {1, · · · , p},
Ekl = (eij )n,p où ekl = 1 et tous les autres coefficients sont nuls.
Exemple 9.1.2 :
   
1  1 0 −1
A1 =  2  , A 2 = 1 0 4 2 5 , A3 =  0 4 5 
3 −1 5 9
A1 est une matrice colonne, élément de M3,1 (IR), A2 est une matrice ligne, élément de M1,5 (IR),
A3 est une matrice carrée d’ordre 3, élément de M3 (IR).
 
0 0 0 0
E21 =  1 0 0 0  est une matrice élémentaire de M3,4 (IR).
0 0 0 0
   
4 5 0 1 2 −1
B =  0 1 3  et C =  0 0 5  sont des matrices triangulaires supérieures.
0 0 2 0 0 2
et  
4 0 0
D= 5 1 0  est une matrice triangulaire inférieure.
0 2 2

Notations On considére la matrice A par la matrice de format n × p dont le terme courant est
aij .
On note Cj la jème colonne de A donc Cj est une matrice colonne. On notera

A = [C1 , · · · , Ci , · · · , Cp ].
 
1 0 1
 0 1 0 
Exemple 9.1.3 La matrice A =   de M4,3 (IR) peut s’écrire
 4 2 0 
0 0 3
A = [C1 , C2 , C3 ]
où     
1 0 1
 0   1
 , C3 =  0  .
  
C1 = 
 4  , C2 =  2
 
  0 
0 0 3
9.2. OPÉRATIONS SUR LES MATRICES 89

Dans la suite du chapitre, pour simplifier l’exposé, on étudie les matrices à coefficients réels,
mais les définitions et les propriétés restent vraies pour les matrices à coefficients complexes.
On écrira donc simplement Mn,p au lieu de Mn,p (IR) ou Mn,p (C).

9.2 Opérations sur les matrices


9.2.1 Egalité de deux matrices

Définition 9.2.1 (Egalité de deux matrices)


Deux matrices A = (aij )n,p et B = (bij )m,q sont égales si et seulement si :
- A et B ont même format : n = m et p = q
et
- ∀i ∈ {1, . . . , n}, ∀j ∈ {1, . . . , p}, aij = bij .

9.2.2 Somme de deux matrices de Mn,p

Définition 9.2.2 Soient A = (aij ) et B = (bij ) deux éléments de Mn,p . On appelle somme de
A et B la matrice C = (cij ) de format (n, p) dont le terme général est :

∀i ∈ {1, . . . , n}, ∀j ∈ {1, . . . , p}, cij = aij + bij

On note C = A + B.

Proposition 9.2.3 (Propriétés de l’addition)


1. elle est commutative :

∀A ∈ Mn,p , ∀B ∈ Mn,p , A + B = B + A.

2. elle est associative :

∀A ∈ Mn,p , ∀B ∈ Mn,p , ∀C ∈ Mn,p , A + (B + C) = (A + B) + C .

3. elle admet un élément neutre, qui est la matrice nulle :

∀A ∈ Mn,p , A+O =O+A=A.

4. toute matrice A a un unique symétrique pour l’addition, noté −A :

∀A ∈ Mn,p , A + (−A) = (−A) + A = O, avec − A = (−aij ) si A = (aij )

Preuve :
1. Si A = (aij ) et B = (bij ), le terme général de la matrice A + B est (aij + bij ), tandis que le
terme général de la matrice B + A est (bij + aij ). Comme (aij + bij ) = (bij + aij ), on en déduit
que les deux matrices A + B et B + A, qui ont même format (n, p) et même terme général, sont
égales.
90 CHAPITRE 9. MATRICES

2. Si A = (aij ), B = (bij ) et C = (cij ), la matrice B + C a pour terme général (bij + cij ) et la


matrice A + (B + C) a pour terme général aij + (bij + cij ). De même, la matrice (A + B) + C
a pour terme général (aij + bij ) + cij . Comme aij + (bij + cij ) = (aij + bij ) + cij , les matrices
A + (B + C) et (A + B) + C, qui ont même format (n, p) et même terme général sont égales.
3. Si A = (aij ), comme la matrice O a pour terme général 0, la matrice A+O a pour terme général
aij + 0 = aij . Donc les matrices A et A + O, qui ont même format (n, p) et même terme général,
sont égales. On vérifie de même l’égalité O + A = A.
4. Si A = (aij ), alors la somme A + (−A) a pour terme général (aij + (−aij )) = 0. Comme les
matrices A + (−A) et O ont même format (n, p) et même terme général, elles sont égales.
Réciproquement, si B = (bij ) est un symétrique de A, alors on doit avoir A + B = O, c’est-à-
dire aij + bij = 0 pour tout i ∈ 1, . . . , n et tout j ∈ 1, . . . , p. Donc on a bij = −aij pour tout
i ∈ 1, . . . , n et tout j ∈ 1, . . . , p. Par conséquent, toute matrice a un unique symétrique.

9.2.3 Multiplication d’une matrice de Mn,p par un scalaire

Définition 9.2.4 Soit A = (aij ) une matrice de Mn,p , et soit λ un scalaire (réel ou complexe
suivant le cas). On appelle multiplication de la matrice A par le scalaire λ la matrice B = (bij )
de format (n, p) dont le terme général est

∀i ∈ {1, . . . , n}, ∀j ∈ {1, . . . , p}, bij = λaij .

On note B = λA.

Proposition 9.2.5 (Propriétés de la multiplication par un scalaire)


∀A ∈ Mn,p , ∀B ∈ Mn,p , ∀(λ, µ) ∈ IR × IR,
1. λ(A + B) = λA + λB
2. (λ + µ)A = λA + µA
3. λ(µA) = (λµ)A = µ(λA)
4. 1.A = A

Preuve : On pose A = (aij ) et B = (bij ).


1. La matrice (A + B) a pour terme général (aij + bij ), et la matrice λ(A + B) a pour terme général
(λ(aij + bij )). D’autre part, les matrices λA et λB ont pour terme général respectivement (λaij )
et (λbij ). Donc la matrice λA + λB a pour terme général (λaij ) + (λbij ). Comme λ(aij + bij ) =
(λaij ) + (λbij ), on en déduit que les matrices λ(A + B) et λA + λB, qui ont même format (n, p)
et même terme général, sont égales.
2. La matrice (λ + µ)A a pour terme général ((λ + µ)aij ). D’autre part, les matrices λA et µA
ont pour terme général respectivement (λaij ) et (µaij ). Donc la matrice λA + µA a pour terme
général (λaij ) + (µaij ). Comme (λ + µ)aij = (λaij ) + (µaij ), on en déduit que les matrices
(λ + µ)A et λA + µA, qui ont même format (n, p) et même terme général, sont égales.
3. La matrice µA a pour terme général (µaij ), et la matrice λ(µA) a alors pour terme général
(λ(µaij )). D’autre part, la matrice (λµ)A a pour terme général (λµaij ). Comme (λ(µaij )) =
(λµaij ), on en déduit que les matrices λ(µA) et (λµ)A, qui ont même format (n, p) et même
terme général, sont égales.
L’égalité (λµ)A = µ(λA) s’obtient de la même façon.
9.2. OPÉRATIONS SUR LES MATRICES 91

4. La matrice 1.A a pour terme général 1aij = aij . Donc les matrices 1A et A, qui ont même
format (n, p) et même terme général, sont égales.

9.2.4 Produit de deux matrices

Définition 9.2.6 Produit LC (ligne par colonne).   Soient une matrice ligne L =
b1
(a1 , · · · , an ) de M1,n et une matrice colonne C =  ...  de Mn,1 . La matrice produit LC
 

bn
est la matrice carrée de M1 définie par :
 
b1 n
LC = (a1 , · · · , an )  ...  =
 X
ak bk .

bn k=1

Cette matrice n’a qu’un seul terme, elle est identifiée à un réel.

 
1
Exemple 9.2.7 Si L = ( x y z ) et C =  2  alors LC = x + 2y + 3z.
3
Remarque 9.2.8 Si L est une matrice-ligne de M1,p et C une matrice colonne de Mq,1 , le
produit matriciel LC n’est possible que si p = q c’est-à-dire, si le nombre de colonnes de L est
égal au nombre de lignes de C.

Définition 9.2.9 Soient A = (aij )n,p un élément de Mn,p et B = (bij )p,q un élément de Mp,q .
On appelle produit de A par B la matrice C de format (n, q) dont le terme général cij est défini
par :
p
X
∀i ∈ {1, . . . , n}, ∀j ∈ {1, . . . , q} , cij = aik bkj
k=1

On note C = AB.

Remarque 9.2.10 Le produit de deux matrices n’est pas toujours défini. Le produit AB n’a de
sens que si le nombre de colonnes de A est égal au nombre de lignes de B.
Pour éviter les erreurs , il est conseillé d’adopter la présentation suivante des calculs, pro-
posée ici sur un exemple :
 
2 1 0 1
B= 0 1 0 3 
1 0 1 1
   
1 2 3 5 3 3 10
A= AB =
0 1 2 2 1 2 5
Cette disposition permet de vérifier que la matrice AB obtenue a le même nombre de lignes que
A et le même nombre de colonnes que B ; elle a de plus l’avantage de bien se prêter aux calculs
itérés.
92 CHAPITRE 9. MATRICES

Proposition 9.2.11 (Propriétés du produit matriciel)


Avec les hypothèses convenables pour que les produits existent :
1. le produit matriciel est associatif :

A(BC) = (AB)C

2. il est distributif par rapport à l’addition :

A(B + C) = AB + AC et (A + B)C = AC + BC

3. ∀λ ∈ IR,
A(λB) = (λA)B = λ(AB)

Remarque 9.2.12 Le produit matriciel n’est pas commutatif :


— le produit AB peut avoir un sens alors que BA n’en a pas : c’est le cas lorsque A est
une matrice (n, p) et B une matrice (p, q) avec n 6= q.
— même si les produits AB et BA ont un sens, les matrices AB et BAne sont en général
1 1 1
pas du même format, donc certainement pas égales ; par exemple A = , B=
1 1 1
 
1 0
 −1 −1  alors :
0 1
 
  1 1 1
0 0
AB = BA =  −2 −2 −2 
0 0
1 1 1

— enfin même dans le cas a priori le plus favorable, c’est-à-dire si A et B sont des ma-
trices carrées de même ordre n, les deux matrices AB et BA sont aussi des matrices
carrées de
  mêmeordre n, mais en général elles ne sont pas égales. Par exemple A =
1 1 1 1
, B= alors :
1 1 −1 −1
   
0 0 2 2
AB = BA =
0 0 −2 −2

On peut donc avoir AB = O sans que A = O ou B = O.

Remarque
  9.2.13AB = AC n’implique
 pas forcément
 B = C. Par exemple A
 =
1 1 1 0 2 2 0 −1
, B = , C = on a : AB = AC = et
1 1 −1 −1 −2 −3 0 −1
pourtant B 6= C.

Preuve de la proposition 9.2.11 :


1. Si A = (aij )n,p , B = (bij )p,q , C = (cij )q,r , alors :
La matrice D = BC a pour terme général D = (dlj )pr où
q
X
dlj = blk ckj
k=1
9.2. OPÉRATIONS SUR LES MATRICES 93

et la matrice E = A(BC) = AD a alors pour terme général E = (eij )n,r où


p p q
X X X
eij = ail dlj = ail blk ckj
l=1 l=1 k=1

D’autre part, la matrice F = (AB) a pour terme général F = (fik )n,q où
p
X
fik = ail blk
l=1

et la matrice G = (AB)C = F C a pour terme général G = (gij )n,r où


q q p
X X X
gij = fik ckj = ail blk ckj
k=1 k=1 l=1

Comme on peut permuter deux sommes finies, on en déduit que les matrices E = A(BC) et
G = (AB)C, qui ont même format (n, r) et même terme général, sont égales.
2. Montrons l’égalité A(B + C) = AB + AC. Si A = (aij )n,p , B = (bij )p,q , C = (cij )p,q , alors la
matrice (B + C) a pour terme général (bij + cij ) et pour format (p, q). Le produit D = A(B + C)
a alors pour format (n, q) et pour terme général
p
X
dij = aik (bkj + ckj ) .
k=1

D’autre
Pp part, les matrices
Pp AB et AC ont même format (n, q) et pour terme général respectif
( k=1 aik bkj ) et ( k=1 aik ckj ). Donc la matrice E = AB + AC a pour format (n, q) et pour
terme général
p p
X X
eij = aik bkj + aik bkj = dij
k=1 k=1

Comme les matrices D et E ont même format (n, q) et même terme général dij = eij , on en
déduit que D = E.
L’égalité (A + B)C = AC + BC se montre de même (attention au format des matrices !).
3. Montrons l’égalité A(λB) = λ(AB). Si A = (aij )n,p , B = (bij )p,q et λ ∈ IR, alors la matrice λB
a pour format (p, q) et terme général (λbij ). Donc la matrice C = A(λB) a pour format (n, q)
et terme général
p
X
cij = aik (λbkj ) .
k=1
Pp
D’autre part, la matrice AB a pour format (n, q) et terme général ( k=1
aik bkj ). Donc la
matrice D = λ(AB) a pour format (n, q) et terme général

p
!
X
dij = λ aik bkj = cij .
k=1

Comme les matrices C = A(λB) et E = λ(AB) ont même format (n, q) et même terme général
cij = dij , on en déduit l’égalité A(λB) = λ(AB).
L’égalité (λA)B = λ(AB) se montre de même.
94 CHAPITRE 9. MATRICES

Proposition 9.2.14 Soient A ∈ Mp,n et B ∈ Mn,q . Notons b1 , · · · , bq les matrices colonnes de


la matrice B.
La matrice produit AB est la matrice de Mp,q , dont les colonnes sont les vecteurs Ab1 , · · · , Abq .
Autrement dit :

AB = A[b1 , · · · , bq ] = [Ab1 , · · · , Abq ].

preuve Il suffit de reprendre la régle ligne colonne.

Exemple 9.2.15   
1 2 3 2 0 0
2 3 10 0 1 = (a b c)
3 1 2 1 0 0
avec     
1 2 3 2 5
a = 2 3 10 = 5
3 1 2 1 8
    
1 2 3 0 0
b = 2 3 10 = 0
3 1 2 0 0
    
1 2 3 0 2
c = 2 3 11 = 3
3 1 2 0 1
donc     
1 2 3 2 0 0 5 0 2
2 3 10 0 1 = 5 0 3
3 1 2 1 0 0 8 0 1
Cette régle présente un intérêt lorsque une matrice comporte une ou des colonnes de 0.

 
x1
Proposition 9.2.16 Soient A ∈ Mp,n et x =  ...  une matrice colonne. Notons
 

xn
A1 , · · · , An les colonnes de la matrice A.
Le produit de A par x noté Ax est la combinaison linéaire des colonnes de A c’est-à-dire
 
x1 n
Ax = [A1 , · · · , An ]  ...  = x1 A1 + · · · + xn An =
X
x k Ak .
 

xn k=1

preuve On note aij le terme courant de la matrice


 A. Le produit Y = Ax est une matrice colonne

y1
de format p lignes et une colonne. On note Y =  ...  et pour tout 1 ≤ i ≤ p, on a
 
yp
n
X
yi = aik xk
k=1
9.2. OPÉRATIONS SUR LES MATRICES 95

donc  
a
X  . 1k  X
n n

Y = xk  .. = xk Ak .
k=1 ank k=1

Exemple 9.2.17
 
  1        
1 0 0 2 = 1 1 + 2 0 + 3 0 = 1 .
2 1 0 2 1 0 4
3
   
1 4 5 6 7
Exemple 9.2.18 C =  2  et L = ( 4 5 6 7 ), alors CL = [4C, 5C, 6C, 7C] =  8 10 12 14 
3 12 15 18 21

9.2.5 Transposée d’une matrice

Définition 9.2.19 Soit A = (aij )n,p une matrice de Mn,p . On appelle transposée de A la
matrice A0 = (a0ij )p,n de format (p, n) dont le terme général est

∀i ∈ {1, . . . , p}, ∀j ∈ {1, . . . , n}, a0ij = aji .

On la note A0 = AT .

Proposition 9.2.20
1. ∀A ∈ Mn,p , ∀B ∈ Mn,p , ∀λ ∈ IR, (A + B)T = AT + B T et (λA)T = λAT .
T T
2. ∀A ∈ Mn,p , (A ) = A.
3. ∀A ∈ Mn,p , ∀B ∈ Mp,q , (AB)T = B T AT .

Preuve :
1. Si A = (aij )n,p et B = (bij )n,p , alors la matrice A + B a pour terme général (aij + bij ) et pour
format (n, p), et donc la matrice (A + B)T a pour terme général (aji + bji ) et pour format (p, n).
D’autre part, les matrices AT et B T ont pour terme général respectivement (aji ) et (bji ), donc
la matrice AT +B T a pour terme général (aji +bji ) et pour format (p, n). Les matrices (A+B)T
et AT + B T ont même format (p, n) et même terme général. Elles sont donc égales. On montre
de même l’égalité (λA)T = λAT .
2. Si A = (aij )n,p , la matrice AT a pour terme général (aji ) et pour format (p, n). Donc la matrice
(AT )T a pour terme général (aij ) et pour format (n, p). On en déduit l’égalité (AT )T = A.
Pp
3. Si A = (aij )n,p et B = (bij )p,q , alors AB a pour format (n, q) et pour terme général ( k=1 aik bkj ).
Par conséquent, la matrice C = (AB)T a pour format (q, n) et pour terme général
p
X
cij = ajk bki .
k=1

D’autre part, les matrices AT et B T ont pour format respectif (p, n) et (q, p) et pour terme
général (aji ) et (bji ). Le produit D = B T AT existe donc, a pour format (q, n) et pour terme
général
p
X
dij = bki ajk = cij
k=1
96 CHAPITRE 9. MATRICES

Les matrices C et D ont même format (q, n) et même terme général cij = dij . Elles sont donc
égales.

Définition 9.2.21 (Adjointe d’une matrice)


Soit A = (aij ) une matrice de Mn,p (C I) (à coefficients complexes). On appelle adjointe de A la
matrice A0 = (a0ij ) de format (p, n) dont le terme général est

∀i ∈ {1, . . . , p}, ∀j ∈ {1, . . . , n}, a0ij = aji .

(ici z désigne le conjugué du complexe z). On note A0 = A∗ .

9.3 Les matrices carrées


Nous allons étudier dans ce paragraphe les matrices carrées de format (ou d’ordre) n. Toutes
les propriétés vues dans le cas général restent bien entendu valables, mais nous allons voir que ces
matrices possèdent en plus des propriétés particulières. L’ensemble des matrices carrées d’ordre
n à coefficients réels (resp. complexes) se note Mn (IR) (resp. Mn (C)) et plus simplement Mn .
Comme ci-dessus nous faisons l’exposé dans le cas réel.

9.3.1 Quelques matrices carrées particulières


— si A = (aij )n est une matrice carrée d’ordre n, les termes aii constituent la diagonale
principale de A.
— une matrice A = (aij )n est diagonale si tous ses termes sont nuls, sauf peut-être ceux
de la diagonale principale :

∀(i, j) ∈ {1, . . . , n}2 , i 6= j ⇒ aij = 0 .

— la matrice identité d’ordre n, notée In est la matrice diagonale dont tous les termes
diagonaux sont égaux à 1. Dans le cas où il n’y a pas de risque d’ambiguı̈té sur l’ordre
de la matrice, on la note plus simplement I :
 
1 0 0
Exemple : si n = 3 I3 =  0 1 0 
0 0 1

— une matrice A est scalaire si c’est une matrice diagonale dont tous les termes diagonaux
sont égaux :
A scalaire ⇔ ∃λ ∈ IR, A = λIn

— une matrice A est symétrique si elle est égale à sa transposée : A = AT .


— une matrice A antisymétrique si elle est égale à l’opposée de sa transposée : A = −AT .
— dans le cas complexe, une matrice A est auto-adjointe si elle est égale à son adjointe :
A = A∗ .
9.3. LES MATRICES CARRÉES 97

9.3.2 Opérations dans Mn

Proposition 9.3.1
Si In est la matrice identité définie ci-dessus, on a :

∀A ∈ Mn , AIn = In A = A .

On dit que In est élément neutre pour la multiplication. De maniére plus générale pour toute
matrice A de format (n, p), on a
In A = AIp = A.

Preuve de la proposition : Montrons l’égalité PnAIn = A. Si A = (aij )n et In = (bij )n , alors


le produit AIn a pour format (n, n) et terme général ( k=1 aik bkj ). D’après la définition de In , on a

0 si i 6= j
∀(i, j) ∈ {1, . . . , n}2 , bij =
1 si i = j
Pn
Donc le terme général de la matrice AIn est ( k=1 aik bkj = aij ), ce qui prouve l’égalité AIn = A.
On montre de même que In A = A et les derniéres égalités.

9.3.3 Puissances d’une matrice carrée

Définition 9.3.2 Soit A une matrice de Mn (IR). Les puissances de A sont définies par
récurrence :
A0 = In , A1 = A et ∀p ∈ IN, Ap+1 = Ap A = AAp .

Les preuves des propositions suivantes sont laissées en exercice.

Proposition 9.3.3 Puissance niéme d’une matrice diagonale Pour tout entier naturel
p, on a  p  p 
a1 · · · 0 a1 · · · 0
 .. . . .   . .. . 
 . . ..  =  .. . ..  .
0 · · · an 0 · · · apn

Proposition 9.3.4 On a
1. Si In est la matrice unité de Mn (IR) alors pour tout entier p, Inp = In
2. Pour tous entiers positifs p et q, pour toute matrice A de Mn (IR)

Ap Aq = Ap+q = Aq Ap et (Ap )q = Apq = (Aq )p .

3. Pour tout entier p positif et pour tout réel λ : (λA)p = λp Ap .


4. Pour tout entier positif p et pour toute matrice A de Mn (IR), t (Ap ) = (t A)p .
98 CHAPITRE 9. MATRICES

Définition 9.3.5 Une matrice A de Mn (IR) est dite nilpotente s’il existe un entier positif m
tel que : Am = O. Remarquons qu’alors, pour tout p ≥ m, Ap = O.

 
0 1
Exemple 9.3.6 Soit A = , on a A2 = 0.
0 0

Proposition 9.3.7 Formule du binôme Soient A et B deux matrices de Mn (IR). Si A et


B commutent (AB = BA), on peut appliquer la formule du binôme de Newton :
p  
X p
∀p ∈ IN, (A + B)p = Ak B p−k .
k
k=0

On rappelle que  
p p!
= .
k k!(p − k)!
p  
p
X p
Cas particulier : si B = I, (A + I) = Ak .
k
k=0

 
1 2 2
Exemple 9.3.8 Soit A =  0 1 3 , on peut écrire
0 0 1

 
0 2 2
A = I3 + B, où B =  0 0 3.
0 0 0

 
0 0 6
On vérifie que B 2 =  0 0 0  et B 3 = 0 donc pour tout entier k ≥ 3, B k = 0. On
0 0 0
applique la formule du binôme de Newton puisque B et I3 commutent donc pour tout entier n

An = (B + I)n
n  
X n
= Bk
k
k=0
n(n − 1) 2
= I3 + nB + B
 2 
1 2n 2n + 3n(n − 1)
= 0 1 3n 
0 0 1
9.3. LES MATRICES CARRÉES 99

9.3.4 Matrices inversibles

Définition 9.3.9 (Matrices inversibles)


Soit A une matrice de Mn . On dit que A est inversible ou régulière s’il existe une matrice B
de Mn telle que :
AB = BA = In .
Dans ce cas, la matrice B est unique et s’appelle l’inverse de A. On note B = A−1 .

Preuve de l’unicité : Supposons qu’il existe deux matrices B1 et B2 telles que


AB1 = B1 A = In = AB2 = B2 A .

Comme AB1 = In , on a, en multipliant cette égalité à gauche par B2 :

B2 (AB1 ) = B2 In .

Or
B2 (AB1 ) = (B2 A)B1 = In B1 = B1 et B2 In = B2 .
On en déduit que B1 = B2 .

Théorème 9.3.10 (admis) Soit A et B deux matrices de Mn . Si AB = In , alors A et B sont


inversibles et B = A−1 .

Proposition 9.3.11 (Produit de deux matrices inversibles)


Soient A et B deux matrices inversibles de Mn : alors le produit AB est inversible et

(AB)−1 = B −1 A−1 .

Preuve : Calculons le produit B −1 A−1 (AB) :




−1 −1 −1

B A (AB) = B (A−1A)B par associativité
= B −1 In B par définition de B −1
= B −1 B
= In
On montre de même que
(AB) B −1 A−1 = In


et on en déduit que AB est inversible et d’inverse B −1 A−1 .




Proposition 9.3.12 (Transposée d’une matrice inversible)


Si A est une matrice carrée inversible, alors AT est inversible et

(AT )−1 = (A−1 )T .

De même dans le cas complexe, A∗ est inversible et (A∗ )−1 = (A−1 )∗ .


100 CHAPITRE 9. MATRICES

Preuve : En transposant l’égalité AA−1 = In , on obtient


(A−1 )T AT = (In )T = In .

De même, en transposant l’égalité A−1 A = In , on obtient

AT (A−1 )T = In

On en déduit que AT est inversible et que son inverse est (A−1 )T .


La démonstration pour l’adjointe est identique.

Proposition 9.3.13
Si A est inversible, et si AB = AC (respectivement BA = CA) alors B = C.

Preuve : On multiplie l’égalité AB = AC, à gauche, par A−1 pour obtenir


A−1 (AB) = A−1 (AC)

Par associativité, on obtient :

A−1 (AB) = (A−1 A)B = In B = B

De même, A−1 (AC) = C. Donc B = C.


L’autre égalité s’obtient de la même façon, en multipliant à droite l’égalité BA = CA par A−1 .
Chapitre 10

systèmes linéaires

10.1 Définitions et écriture matricielle

Définition 10.1.1 On appelle équation linéaire à p inconnues (x1 , x2 , · · · , xp ) une équation de


la forme : a1 x1 + a2 x2 + · · · + ap xp = b où a1 , a2 , · · · , ap et b sont des réels.
On appelle système linéaire de n équations à p inconnues (x1 , x2 , · · · , xp ) tout système (S) de
la forme :

 a11 x1 + a12 x2 + · · · a1p xp = b1

.. ..
 . = .
an1 x1 + an2 x2 + · · · anp xp = bn

où pour tout 1 ≤ i ≤ n et 1 ≤ j ≤ p, aij ∈ IR et bi ∈ IR.


Les inconnues de (S) sont x1 , · · · , xi , · · · , xp .
Les coefficients de (S) sont les réels aij , ils sont affectés d’un double indice, le premier, i,
est l’indice de l’équation, le second, j, l’indice de l’inconnue : aij est le coefficient de la jème
inconnue dans la ième équation.
b1
 
.
Le second membre de (S) est la matrice b =  .. .
bn
(S) est dit homogène lorsque le second membre est nul.
Le système homogène associé à (S) est le système (S 0 ) obtenu à partir de (S) en remplaçant le
second membre par le vecteur nul de IRn .
x1
 
.. 
Une solution de (S) est une matrice x =  . qui vérifie les n équations.
xp
Résoudre (S) c’est déterminer toutes les solutions de (S). Il n’y a que trois situations
— (S) est dit impossible s’il n’admet aucune solution.
— (S) est dit indéterminé s’il admet plusieurs solutions.
— (S) admet une solution unique.
De plus on dit que (S)est un système de Cramer si n = p et s’il admet une solution unique.
Deux systèmes (S) et (S 0 ) sont dits équivalents s’ils ont le même ensemble de solutions.

101
102 CHAPITRE 10. SYSTÈMES LINÉAIRES

Définition 10.1.2 Ecriture matricielle On appelle A la matrice des coefficients du système


A = (aij )1≤i≤n,1≤j≤p , La ième ligne de la matrice A contient les coefficients de la ième
équation. La jème colonne de la matrice A contient les coefficients de la jème inconnue. Le
système s’écrit
Ax = b.

Exemple 10.1.3 Soit le système



 2x + y + z = 2
y + 2z = −1
5z = 5

La matrice du système est  


2 1 1
A = 0 1 2
0 0 5
et    
x 2
x =  y  , b =  −1  .
z 5

10.2 Systèmes faciles à résoudre


10.2.1 Systèmes triangulaires

Définition 10.2.1 Un système (S) est dit triangulaire si la matrice du système est triangulaire
sans valeurs nulles sur la diagonale.

On admet le résultat suivant :

Proposition 10.2.2 Tout système linéaire triangulaire de n équations à n inconnues admet


une solution unique, c’est un système de Cramer.
En particulier l’unique solution d’un système linéaire triangulaire homogène est le vecteur nul.

Exemple 10.2.3 Soit le système



 2x + y + z = 2
y + 2z = −1
5z = 5

 
2 1 1
C’est un système triangulaire car la matrice A =  0 1 2  est triangulaire sans valeurs
0 0 5
nulles sur la diagonale.
Ce système se résout ”de proche en proche” (en commençant par la dernière équation) par la
méthode dite de ”substitutions remontantes”. La dernière équation donne z = 1. En reportant
dans la deuxième on trouve y + 2 = −1 ce qui donne y = −3. En reportant les valeurs trouvées
pour z et y dans la première équation on obtient : 2x − 3 + 1 = 2 soit 2x = 4 c’est-à-dire x = 2.
le système admet une solution unique x = 2 , y = −3, z = 1 .
10.2. SYSTÈMES FACILES À RÉSOUDRE 103

10.2.2 Systèmes échelonnés


Exemple 10.2.4 
x1 + x2 + 2x3 + x4 = 5
2x3 − 4x4 = 0
Ce système se ramène à un système triangulaire en l’écrivant sous la forme :
 
x1 + 2x3 = 5 − x2 − x4 x1 = 5 − x2 − 5x4
⇐⇒
x3 = 2x4 x3 = 2x4

Le dernier système admet une infinité de solutions. Il est indéterminé. Une solution s’obtient
en choisissant arbitrairement des valeurs pour x2 et x4 et en calculant les valeurs correspon-
dantes de x1 et x3 . On dit que x2 et x4 sont des paramètres.
On peut écrire l’ensemble des solutions sous la forme suivante, dite représentation pa-
ramétrique du système :

5 − x2 − 5x4
 
x2
{  , x2 ∈ IR, x4 ∈ IR}
 
2x4
x4
 
1 1 2 1
La matrice du système s’écrit : A = . Elle n’est pas triangulaire mais
0 0 2 −4
vérifie la définition suivante.

Définition 10.2.5 Une matrice échelonnée en ligne est une matrice telle que
— chaque ligne commence par plus de zéros que la ligne précédente, le premier élément non
nul de chaque ligne s’appelle pivot.
— Si une ligne est nulle, alors toutes les lignes suivantes sont nulle.

Exemple 10.2.6 Les deux matrices des systèmes précédents sont échelonnées en ligne. La
premiére a 3 pivots. La deuxiéme a 2 pivots.
1 2 0 4
     
1 2 3 4 5 1 2 0 0
0 1 0 3
Les matrices B =  0 0 1 2 3 , C =  0 3 0 0  et D = 
0 0 0 1

0 0 0 0 1 0 0 0 0
0 0 0 0
sont échelonnées en ligne. B a 3 pivots. C a 2 pivots. D a 3 pivots.
1 2 0 4
   
  0 2 3 1
0 0 1 2 0 2 0 4
Les matrices E =  F = , G =  0 4 0 5  ne sont pas
0 0 1 3 5 0 1 2
6 0 0 1
0 0 0 1
échelonnées en ligne.
Les pivots d’une matrice échelonnée en ligne forment un échelon (une marche) d’un escalier
qui descend du haut à gauche vers le bas à droite. La matrice E n’est pas échelonnée en lignes
car on saute brutalement deux marches !
Les matrices triangulaires supérieures n’ayant aucun zéro sur la diagonale principale sont
échelonnées en ligne.
Par contre pour les matrices triangulaires supérieures qui ont des zéros sur la diagonale
principale. Il faut raisonner au cas par cas. La matrice D est échelonnée en ligne. La matrice
E n’est pas échelonnée en ligne.
104 CHAPITRE 10. SYSTÈMES LINÉAIRES

Proposition 10.2.7 Pour une matrice échelonnée en ligne comportant n lignes et p colonnes,
on a
nombre de pivots ≤ min(n, p).

preuve Pour une matrice échelonnée en ligne, le nombre de pivots est égal au nombre de lignes non
nulles. Donc le nombre de pivots est inférieur au nombre de lignes.
Par ailleurs, tous les éléments d’une colonne situés sous un pivot sont nuls car un pivot est le premier
élément non nul d’une ligne. Les lignes suivantes doivent avoir au moins un zéro de plus en tête. Donc
le nombre de pivots est inférieur au nombre de colonnes.

Définition 10.2.8 Un système (S) est dit échelonné si sa matrice est échelonnée en ligne.
Un système triangulaire est échelonné.

La méthode de Gauss, appelée aussi méthode du pivot, est une méthode systématique qui
consiste, en un nombre fini d’étapes, à transformer un système (S) quelconque en un système
échelonné (T ) équivalent à (S).
A chaque étape de cette méthode, nous utiliserons les opérations sur les lignes, dites opérations
élémentaires, et définies dans le paragraphe suivant.

10.3 Opérations élémentaires sur les lignes


10.3.1 Définition et propriété
Soit (S) un système de n équations à p inconnues. Pour tout entier 1 ≤ i ≤ n, on note Li la
ième équation de (S), appelée aussi la ième ligne de (S).

Définition 10.3.1 On appelle opération élémentaire sur les lignes l’une des trois transforma-
tions suivantes :
— cadrage : on multiplie la ième ligne par a (a 6= 0), cette opération est codée Li ← aLi .
— échange : on échange les lignes i et j de (S), (i 6= j), opération codée par : Li ↔ Lj .
— remplacement : on ajoute à la ligne i, la ligne j (i 6= j) multipliée par a, opération codée
Li ← Li + aLj .

On admet le résultat suivant :

Proposition 10.3.2 On obtient un système équivalent à (S) en conservant une équation Li et


en ajoutant à toutes les autres (sauf à Li ) un multiple de Li .

Li ← Li et pour j 6= i, Lj ← aLj + bLi avec a 6= 0, b ∈ IR.

En effectuant une succession d’étapes, on obtient à chaque fois un système qui a le même
ensemble de solutions que le système précédent, donc que le système initial.
10.3. OPÉRATIONS ÉLÉMENTAIRES SUR LES LIGNES 105

Exemple 10.3.3 : Soit à résoudre le système S



 x1 + 8x2 − 2x3 = −4
3x1 + 15x2 + 7x3 = 30
x1 + 4x2 + 2x3 = 8

On transforme ce système S en un sytème triangulaire équivalent.


 x1 + 8x2 − 2x3 = −4 L1 ← L1
(S) ⇐⇒ −9x2 + 13x3 = 42 L2 ← L2 − 3L1
−4x2 + 4x3 = 12 L3 ← L3 − L1


 x1 + 8x2 − 2x3 = −4 L1 ← L1
⇐⇒ x2 − x3 = −3 L2 ← −1
4 L3
−9x2 + 13x3 = 42 L3 ← L2


 x1 + 8x2 − 2x3 = −4 L1 ← L1
⇐⇒ x2 − x3 = −3 L2 ← L2
4x3 = 15 L3 ← L3 + 9L2

On a donc un système triangulaire dont la résolution donne



 x1 = −5/2
x2 = 3/4
x3 = 15/4

Exemple 10.3.4 On considére le système S



x+y = 2
x−y = 3
et le système obtenu par des opérations sur les lignes

2x = 5 L1 ← L1 + L2
2x = 5 L2 ← L2 + L1

Il est clair que ces deux systèmes ne sont pas équivalents. En effet on modifie les lignes simul-
tanément, on n’applique pas la proposition précédente.

10.3.2 Disposition pratique des calculs


Nous pouvons au cours de cette résolution faire abstraction des inconnues x1 , x2 , x3 pour
ne travailler que sur les coefficients, ce qui donne au départ le tableau :

1 8 −2 −4 L1
3 15 7 30 L2
1 4 2 8 L3

Cette écriture met en évidence la matrice du système et son second membre . La matrice
ainsi obtenue est appelée matrice augmentée du système. C’est la juxtaposition de la matrice
A du système et de la matrice colonne b, du second membre. On notera A0 , cette matrice
augmentée A0 = [A, b, ].
On opère alors sur les lignes de la matrice augmentée (qui sont les lignes du système). On
réécrit le système après la dernière étape pour la résolution finale.
106 CHAPITRE 10. SYSTÈMES LINÉAIRES

1 8 −2 −4 L1
3 15 7 30 L2
1 4 2 8 L3
1 8 −2 −4 L1
0 −9 13 42 L2 ← L2 − 3L1
0 −4 4 12 L3 ← L3 − L1
1 8 −2 −4 L1
0 1 −1 −3 L2 ← −L3 /4
0 −9 13 42 L3 ← L2
1 8 −2 −4 L1
0 1 −1 −3 L2
0 0 4 15 L3 ← L3 + 9L2
donc le système que l’on résout directement

 x1 + 8x2 − 2x3 = −4
x2 − x3 = −3
4x3 = 15

Dans la suite, nous traiterons tous les calculs de cette façon.

10.4 Méthode de Gauss


10.4.1 Exposé de la méthode
Soit le système (S) de n équations et p inconnues.

 a11 x1 + a12 x2 + · · · a1p xp
 = b1
.. ..
 . = .
an1 x1 + an2 x2 + · · · anp xp = bn

0
On note A la matrice du système et A la matrice augmentée. On suppose que l’un au moins
des coefficients de la premiére colonne est non nul, sinon l’inconnue x1 disparaı̂t.
A l’aide des opérations élémentaires sur les lignes de la matrice augmentée, on transforme
le système (S) en un système échelonné équivalent.
— étape 1 : choix du pivot
Par hypothèse l’un au moins des coefficients de la première colonne est non nul. On choisit
l’un d’entre eux : aio 1 . (si possible un coefficient égal à 1). aio 1 est alors le premier pivot.
Si i0 6= 1, on échange les lignes L1 et Lio .
Le premier pivot est donc l’élément a11 de la matrice obtenue après l’opération d’échange.
— étape 2 : élimination
La (première) ligne contenant le pivot ne sera plus modifiée. On se sert du pivot pour faire
apparaı̂tre, avec des opérations de remplacement, des zéros sous le pivot de la première
colonne ce qui revient à éliminer la première inconnue des lignes L2 à Ln .
— étape 3 : boucle
A l’issue des deux étapes précédentes on a obtenu une matrice dont la première ligne
et la première colonne sont bien celles d’une matrice échelonnée. Cette ligne et cette
colonne ne seront plus modifiées. On va appliquer les étapes précédentes ( 1 et 2) à la
sous-matrice obtenue en enlevant la premiére ligne et la premiére colonne . On distingue
deux cas.
10.4. MÉTHODE DE GAUSS 107

— cas 1 : la première colonne de la sous-matrice est non nulle. On applique les étapes 1
et 2 à la sous-matrice .
— cas 2 : la première colonne de la matrice est nulle. On recherche alors dans la sous-
matrice la colonne non nulle la plus à gauche. Supposons que ce soit la jème. On
appli que les étapes 1 et 2 à la nouvelle sous-matrice dont la première colonne est
non nulle.
— Au terme de cette deuxième itération on recommence l’étape 3 avec la nouvelle sous-
matrice obtenue jusqu’à ce qu’il n’y ait plus de lignes ou plus de lignes non nulles dans
la matrice augmentée. La dernière matrice augmentée obtenue est donc échelonnée en
ligne.
Comme chaque itération de la boucle travaille sur une matrice qui a au moins une colonne
de moins que la précédente, il est clair qu’au bout d’au plus p itérations on aura construit
une matice échelonnée.

10.4.2 Réduite de Gauss d’une matrice A


La méthode précédente qui permet d’obtenir une matrice échelonnée peut s’appliquer à
n’importe quelle matrice. D’où la définition suivante :

Définition 10.4.1 Toute matrice échelonnée en ligne obtenue par application de la méthode
de Gauss aux lignes d’une matrice A, est appelée réduite de Gauss de A. Une réduite de Gauss
n’est pas unique, elle dépend des opérations élémentaires effectuées.

On admet le résultat suivant

Proposition 10.4.2 Si R et R0 sont deux réduites de Gauss d’une même matrice A, alors R
et R0 ont le même nombre de pivots.

Proposition 10.4.3 Soit R une réduite de Gauss de A, alors on a deux systèmes équivalents

Ax = b ⇐⇒ Rx = b0 .

10.4.3 Exemples
Exemple 10.4.4 : Soit à résoudre le système

 x+y+z = 3
2x + y + 3z = 1
x − y + 3z = 5

   
1 1 1 3
La matrice du système est A =  2 1 3  et ~b =  1 . La méthode donne
1 −1 3 5

1 1 1 3 L1
2 1 3 1 L2
1 −1 3 5 L3
108 CHAPITRE 10. SYSTÈMES LINÉAIRES

1 1 1 3 L1
0 −1 1 −5 L2 ← L2 − 2L1
0 −2 2 2 L3 ← L3 − L1
1 1 1 3 L1
0 −1 1 −5 L2 ← L2
0 0 0 12 L3 ← L3 − 2L2
 
1 1 1
Une réduite de A est R =  0 −1 1  qui posséde deux pivots. Pour terminer la résolution,
0 0 0
on revient au système

 x+y+z = 3
−y + z = −5
0 = 12

La dernière équation se lit 0 = 12, le système est donc impossible.

Exemple 10.4.5 : Soit à résoudre le système



 x+y+z+t = 4
x + y + 6z + 4t = 3
2x + 2y + 3z = 5

1 1 1 1 4 L1
1 1 6 4 3 L2
2 2 3 0 5 L3
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2 − L1
0 0 1 −2 −3 L3 ← L3 − 2L1
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2
0 0 0 −13 −14 L3 ← 5L3 − L2
   
1 1 1 1 1 1 1 1
On en déduit qu’une réduite de A =  1 1 6 4  est R =  0 0 5 3  qui
2 2 3 0 0 0 0 −13
posséde trois pivots.
Le système initial est équivalent à

 x+y+z+t = 4
5z + 3t = −1
−13t = −14

En considérant y comme un paramètre, le système est triangulaire.


49
Le système admet une infinité de solutions : x = –y + 13 , z = − 11 14
13 et t = 13 .
On dit que le système est indéterminé et l’ensemble des solutions s’écrit sous forme pa-
ramétrique :
49 11 14
{(–y + , y, − , ), y ∈ IR}
13 13 13
10.4. MÉTHODE DE GAUSS 109

Exemple 10.4.6 : Soit à résoudre le système




 x+y+z+t = 4
x + y + 6z + 4t = 3


 2x + 2y + 3z = 5
x + y + 3t = 7

1 1 1 1 4 L1
1 1 6 4 3 L2
2 2 3 0 5 L3
1 1 0 3 7 L4
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2 − L1
0 0 1 −2 −3 L3 ← L3 − 2L1
0 0 −1 2 3 L4 ← L4 − L1
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2
0 0 0 −13 −14 L3 ← 5L3 − L2
0 0 0 13 14 L4 ← 5L4 + L2
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2
0 0 0 13 14 L3 ← −L3
0 0 0 0 0 L4 ← L4 + L3

Le système est équivalent à




 x+y+z+t = 4
5z + 3t = −1


 13t = 14
0 = 0

La quatrième équation est redondante. Le système est équivalent à


 
 x+y+z+t = 4  x = −y + 49/13
5z + 3t = −1 ⇐⇒ z = −11/13
13t = 14 t = 14/13
 

Le système admet une infinité de solutions, il est indéterminé et l’ensemble des solutions
s’écrit sous forme paramétrique :

49 11 14
{(–y + , y, − , ), y ∈ IR}.
13 13 13
C’est le même ensemble de solutions que dans l’exemple 3.4.5, les deux systèmes sont donc
équivalents.

10.4.4 Choix des pivots


On choisit le pivot le plus simple (égal à 1 si possible) et le cas échéant indépendant des
paramètres pour éviter de commencer une discussion trop rapidement.
110 CHAPITRE 10. SYSTÈMES LINÉAIRES

Exemple 10.4.7 : système avec paramètre.


Soit le système 

 ax − z + t = a
x − y + at = a


 −x + y + az = −a
ay + z − t = a

où a est un paramètre réel. Il s’agit de déterminer le nombre de solutions en fonction de a.


On échange L1 et L2 de façon à avoir un pivot constant non nul.

a 0 −1 1 a L1
1 −1 0 a a L2
−1 1 a 0 −a L3
0 a 1 −1 a L4
1 −1 0 a a L1 ↔ L2
a 0 −1 1 a L2 ↔ L1
−1 1 a 0 −a L3 ← L3
0 a 1 −1 a L4 ← L4
1 −1 0 a a L1
0 a −1 1 − a2 a − a2 L2 ← L2 − aL1
0 0 a a 0 L3 ← L3 + L1
0 a 1 −1 a L4 ← L4

On commence la discussion :
1. Si a 6= 0, a est un pivot donc

1 −1 0 a a L1
0 a −1 1 − a2 a − a2 L2 ← L2
0 0 1 1 0 L3 ← a1 L3
0 0 2 −2 + a2 a2 L4 ← L4 − L2
1 −1 0 a a L1
0 a −1 1 − a2 a − a2 L2 ← L2
0 0 1 1 0 L3 ← L3
0 0 0 −4 + a2 a2 L4 ← L4 − 2L3

(a) Si a2 − 4 6= 0, alors on a une réduite de Gauss de A avec 4 pivots . Il admet une


solution unique que l’on calcule par le principe de remontée . Le système est de
Cramer.
(b) Si a2 − 4 = 0 , alors en revenant au système, la derniére équation s’écrit 0 = 4 donc
le système est impossible.
2. Si a = 0, on a

1 −1 0 0 0 L1
0 0 −1 1 0 L2 ← L2
0 0 0 0 0 L3 ← L3
0 0 1 −1 0 L4 ← L4
1 −1 0 0 0 L1
0 0 −1 1 0 L2 ← L2
0 0 0 0 0 L3 ← L3
0 0 0 0 0 L4 ← L4 + L2
10.4. MÉTHODE DE GAUSS 111

On revient au système

x−y = 0
−z + t = 0
Le système est alors indéterminé et l’ensemble des solutions s’écrit sous forme pa-
ramétrique :
{(y, y, z, z), y ∈ IR z ∈ IR}

10.4.5 Cas général : résolution du système


Le système Ax = b est équivalent au système Rx = b0 où R est une réduite de Gauss de A.
On note r le nombre de pivots notés a1 , · · · , ar réels non nuls. On distingue plusieurs cas
— Si r = n, alors la matrice R s’écrit
a1 · · · · · · · · · · · ·
 
 0 · · · a2 · · · · · · 
R=
0 ··· 0 ··· ···

0 0 0 ar · · ·
et le système
a01,r+1 xr+1 a01,p xp = b01

 a1 x1 + ··· +
a02,r+1 xr+1 a02,p xp = b02


 a2 x2 + ··· +
.. .. .. .


 . + . + . = ..
ar xr + a0r,r+1 xr+1 ··· + a0r,p xp = b0r

On en déduit que
— si r = p, le système est de Cramer, il y a une unique solution,
— si r < p, le système est indéterminé, il y a une infinité de solutions.
— Si r < n, alors les n − r derniéres lignes de la matrice R sont nulles et R s’écrit
a1 · · · · · · · · · · · ·
 
 0 · · · a2 · · · · · · 
R= 0 0 0 ar · · · 
 
0 0 0 ··· 0
 
0 0 0 ··· 0
et le système est
a01,r+1 xr+1 a01,p xp b01

 a1 x1
 + ··· + =


 a2 x2 + a02,r+1 xr+1 ··· + a02,p xp = b02
.. .. ..


 ..



 . + . + . = .
ar xr + a0r,r+1 xr+1 ··· + a0r,p xp = b0r

0

 0 = br+1
0 = b0r+2





 .. ..
. = .




0 = b0n

on en déduit que
— si ∃i ∈ [[r + 1, n]] tel que b0i =
6 0, alors le système est impossible,
— si ∀i ∈ [[r + 1, n]], b0i = 0, alors le système est indéterminé si r < p et admet une
unique solution si r = p.
112 CHAPITRE 10. SYSTÈMES LINÉAIRES

On en déduit le résultat suivant pour le cas particulier d’un système homogéne.

Proposition 10.4.8 système homogéne On considére un système homogéne Ax = 0, où A


est une matrice de format n × p. Soit r le nombre de pivots d’une réduite de A. Alors
— Le système admet une solution unique si et seulement si r = p.
— Le système est indéterminé si et seulement si r < p.
— Le système n’est jamais impossible.

10.4.6 Solutions d’un système linéaire quelconque


On a vu qu’un système homogène avait toujours au moins la solution (0, 0, ..., 0). En re-
vanche, un système non homogéne n’a pas forcément de solutions. On dit alors qu’il est incom-
patible.
Soit (S) un système linéaire : Ax = b. Soit (S0 ) le système homogène associé : Ax = 0. Soit S
et S0 l’ensemble des solutions de (S) et de (S0 ), respectivement. Pour tout x = (x1 , ..., xp ) ∈ Rp ,
on note
x + S0 = {x + y, y ∈ S0 } = {x0 ∈ IRp , ∃y ∈ S0 , x0 = x + y}
l’ensemble des p-uplet de réels de la forme x + y avec y ∈ S0 .

Proposition 10.4.9 Si le système linéaire (S) admet la solution x, alors

S = x + S0

Preuve : Soit x une solution de (S). Montrons S = x + S0 par double inclusion. Montrons tout
d’abord S ⊂ x + S0 . Soit x0 = (x01 , x02 , ..., x0p ) ∈ S. Soit y = x0 − x. On a :

Ay = Ax0 − Ax = b − b = 0

donc y est solution de (S0 ). Or x0 = x + y. Donc x0 ∈ x + S0 , donc S ⊂ x + S0 .


Montrons maintenant x + S0 ⊂ S. Soit y ∈ S0 et x0 = x + y. Alors

Ax0 = Ax + Ay = b + 0 = b

Donc x0 ∈ S. Donc x + S0 ⊂ S, et par double inclusion, S = x + S0 .

La proposition précédente se retient de la manière suivante : la solution générale d’un système


linéaire est donnée par la somme d’une solution particulière de ce système et de la solution
générale du système homogéne associé.

Proposition 10.4.10 Un système linéaire n’a soit aucune solution, soit exactement une solu-
tion, soit une infinité de solutions.

Preuve : Si un système linéaire est compatible, alors, d’après la proposition précédente 10.4.9,
l’ensemble S de ses solutions est en bijection avec l’ensemble des solutions du système homogène associé.
Donc S a donc soit un seul élément, soit une infinité.
10.5. MATRICES ET SYSTÈMES LINÉAIRES 113

Géométriquement, l’égalité S = x + S0 de la proposition 10.4.9 s’interprète de la manière


suivante : si x est solution de (S), alors l’ensemble des solutions de (S) est l’image par la
translation de vecteur x de l’ensemble des solutions du système homogène associé. Si l’ensemble
des solutions de (S) est non vide, il a donc la même “forme” que l’ensemble des solutions du
système homogène associé. C’est donc soit un point (si r = p), soit une droite (si r = p − 1),
soit un plan (si r = p − 2), soit un espace à trois dimensions (si r = p − 3), soit un espace “du
même type” mais de plus grande dimension.

10.5 Matrices et systèmes linéaires

10.5.1 Interprétation matricielle des opérations élémentaires

Considérons un système linéaire sous forme matricielle AX = B, où A ∈ Mn,p .

Proposition 10.5.1 Soit P ∈ Mn une matrice inversible. Soit X ∈ Mp,1 . On a :

P AX = P B ⇔ AX = B

Preuve : Si AX = B, alors (P A)X = P (AX) = P B. Réciproquement, si (P A)X = P B alors,


puisque P est inversible, P −1 (P A)X = P −1 (P B) donc In AX = In B donc AX = B.

Ainsi, si on multiplie l’égalité AX = B par une matrice inversible, on transforme le système


initial en un système équivalent. On va voir dans cette section que les opérations élémentaires
sur un système correspondent à multiplier l’égalité AX = B par des matrices inversibles parti-
culiéres.
Considerons un système linéaire AX = B où A ∈ Mn,p , X ∈ Mp,1 et B ∈ Mn,1 . Soit λ ∈ IR.
Soient i et j des éléments de {1, 2, ..., n}. On définit les matrices P (i, λ), Q(i, j) et R(i, j, λ) de
la maniére suivante :
— P (i, λ) est la matrice n × n obtenue à partir de la matrice identité en multipliant la iéme
ligne par λ, c’est à dire la matrice diagonale dont tous les coefficients diagonaux sont
égaux à 1 sauf le iéme qui vaut λ.
— Q(i, j) est la matrice qu’on obtient à partir de la matrice identité en échangeant la ligne
i avec la ligne j.
— R(i, j, λ) est la matrice qu’on obtient à partir de la matrice identité en rajoutant λ fois
la ligne j à la ligne i. On a donc R(i, j, λ) = In + λEij où In est la matrice identité
d’ordre n et Eij la matrice n × n dont tous les coefficients sont nuls, sauf celui situé sur
la ligne i et la colonne j qui vaut 1.
114 CHAPITRE 10. SYSTÈMES LINÉAIRES

Exemple 10.5.2 Pour n = 6, i = 2 et j = 5, on a :


   
1 0 0 0 0 0 1 0 0 0 0 0

 0 1 0 0 0 0 


 0 λ 0 0 0 0 

 0 0 1 0 0 0   0 0 1 0 0 0 
I6 =   P (2, λ) =  

 0 0 0 1 0 0 


 0 0 0 1 0 0 

 0 0 0 0 1 0   0 0 0 0 1 0 
0 0 0 0 0 1 0 0 0 0 0 1
   
1 0 0 0 0 0 1 0 0 0 0 0

 0 0 0 0 1 0 


 0 1 0 0 λ 0 

 0 0 1 0 0 0   0 0 1 0 0 0 
Q(2, 5) =   R(2, 5, λ) =  

 0 0 0 1 0 0 


 0 0 0 1 0 0 

 0 1 0 0 0 0   0 0 0 0 1 0 
0 0 0 0 0 1 0 0 0 0 0 1

Proposition 10.5.3 Considérons le système linéaire AX = B.


1. Multiplier par λ la ligne i revient à multiplier l’égalité AX = B par P (i, λ), c’est à dire
à transformer le système AX = B en le système P AX = P B, où P = P (i, λ).
2. Echanger les lignes i et j du système linéaire AX = B revient à multiplier l’égalité
AX = B par Q(i, j), c’est à dire à transformer le système AX = B en le système
QAX = QB, où Q = Q(i, j)
3. Ajouter λ fois la ligne j à la ligne i revient à multiplier l’égalité AX = B par R(i, j, λ),
c’est à dire à transformer le système AX = B en le système RAX = RB, où R =
R(i, j, λ).

Preuve : On l’admet (c’est un calcul simple mais un peu long à écrire : essayez de le faire).

Proposition 10.5.4 Soient i et j des entiers dans {1, 2, ..., n}.


1. Si λ 6= 0, la matrice P (i, λ) est inversible, d’inverse P (i, 1/λ).
2. La matrice Q(i, j) est inversible, d’inverse elle-même
3. Si i 6= j, que λ soit nul ou non, la matrice R(i, j, λ) est inversible, d’inverse R(i, j, −λ).

Preuve : Preuve du 1. D’aprés la proposition précédente, la matrice P (i, 1/λ)P (i, λ) est la matrice
qu’on obtient en multipliant par 1/λ la iéme ligne de P (i, λ), c’est donc la matrice In . Donc P (i, λ) est
inversible d’inverse P (i, 1/λ). Les autres preuves sont similaires.

Comme tout système linéaire peut être transformé en un système échelonné réduit par une
suite d’opérations élémentaires, cette proposition s’interpréte matriciellement de la maniére
suivante :
10.5. MATRICES ET SYSTÈMES LINÉAIRES 115

Proposition 10.5.5 Soit A ∈ Mn,p une matrice. Il existe un entier k et des matrices
d’opération élémentaire P1 , P2 , ..., Pk telles que la matrice Pk Pk−1 ...P2 P1 A est échelonné
réduite (le système Pk Pk−1 ...P2 P1 A = Pk Pk−1 ...P2 P1 B est alors échelonné réduit et équivalent
à AX = B).

10.5.2 Calcul de l’inverse d’une matrice par la méthode du pivot

Proposition 10.5.6 Soit A ∈ Mn . Supposons qu’en faisant une suite d’opérations


élémentaires sur les lignes de la matrice A, on parvienne à la transformer en la matrice identité
In . Alors la matrice A est inversible et en faisant la même suite d’opérations élémentaires sur
la matrice In on obtient à la fin la matrice A−1 .

Preuve : Supposons qu’en faisant une suite de k opérations élémentaires sur les lignes de la matrice
A, on parvienne à la transformer en la matrice identité In . Cela veut dire qu’il existe un entier k
et des matrices d’opération élémentaire P1 , P2 , ..., Pk telles que Pk Pk−1 ...P2 P1 A = In . Soit B =
Pk Pk−1 ...P2 P1 . On a BA = In , donc A est inversible et A−1 = B. De plus, en faisant la même
suite d’opérations élémentaires à partir de la matrice In on obtient la matrice Pk Pk−1 ...P2 P1 In =
Pk Pk−1 ...P2 P1 = A−1 .

Exemple 10.5.7 Soit  


1 1 1
A= 1 3 5 
−2 −2 1
On forme le tableau contenant A dans la partie gauche et I3 dans la partie droite :
 
1 1 1 1 0 0
 1 3 5 0 1 0 
−2 −2 −1 0 0 1

Puis on fait des opérations élémentaires sur les lignes de maniére à mettre la partie gauche
sous forme échélonné réduite :
 
L1 1 1 1 1 0 0
L2 − L1  0 2 4 −1 1 0 
L3 + 2L1 0 0 1 2 0 1
 
L1 1 1 1 1 0 0
1  0 1 2 −1/2 1/2 0 
2 L2
L3 0 0 1 2 0 1
 
L1 − L3 1 1 0 −1 0 −1
L2 − 2L3  0 1 0 −9/2 1/2 −2 
L3 0 0 1 2 0 1
 
L1 − L2 1 0 0 7/2 −1/2 1
L2  0 1 0 −9/2 1/2 −2 
L3 0 0 1 2 0 1
116 CHAPITRE 10. SYSTÈMES LINÉAIRES

On est parvenu à transformer la partie de gauche en le tableau correspondant à I3 . La


matrice A est donc inversible, d’inverse :
 
7/2 −1/2 1
A−1 =  −9/2 1/2 −2 
2 0 1

Un conseil : à ce stade, vérifiez vos calculs en multipliant A et la matrice que vous avez trouvée
pour A−1 . Si vous ne vous êtes pas trompés, vous devez trouver In (I3 ici).

Vous aimerez peut-être aussi