Vous êtes sur la page 1sur 304

NE

Cours de Mathématiques
MPSI
Lycée Montaigne 2017-18

AIG
P1
z

P2
NT
y

x
MO

©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 1

Éléments de logique

Sommaire
I Notions ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

AIG
1) Vocabulaire lié aux ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
II Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1) Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2) Connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4) Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5) Retour sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
III Le raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1) Raisonnement par l’absurde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2) Raisonnement par analyse-synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3) Démontrer une implication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4) L’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5) La récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
NT
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

I NOTIONS ENSEMBLISTES

1) Vocabulaire lié aux ensembles


Nous ne définirons pas rigoureusement la notion d’ensemble, celle-ci sera considérée comme intuitive.
Nous nous contenterons de la « définition » suivante :

Définition 1.1
Un ensemble E est une collection d’objets 1 , ceux-ci sont appelés éléments de E. Si x est un élément
MO

de E on écrira x ∈ E (se lit « x appartient à E »), dans le cas contraire on écrira x ∉ E. Si E n’a pas
d’éléments on dira que c’est l’ensemble vide et on le notera ∅. Deux ensembles E et F sont dits égaux
si et seulement si ils ont les mêmes éléments, on écrira alors E = F.

ZExemples :
– Les ensembles de nombres : N, Z, D, Q, R, C.
– L’ensemble des fonctions de R dans R : F (R, R).
– Ensembles définis en extension, comme : E = {1; 8; 6; 2} (éléments non ordonnés et devant apparaître
une seule fois dans la liste).
– Ensembles définis en compréhension, comme : E = p ∈ N ¯ p est impair = {2k + 1 | k ∈ N}.
© ¯ ª

1. Cependant toute collection d’objets ne constitue pas forcément un ensemble. Par exemple, le paradoxe de Bertrand Russel
a montré que l’ensemble des ensembles ne peut pas exister, sinon, la considération de l’ensemble y = {x | x ∉ x} conduit à une
absurdité.

MPSI3 (2017-18) LYCÉE M ONTAIGNE –1– ©Fradin Patrick – https://mpsi.tuxfamily.org


Notions ensemblistes Chapitre 1 : Éléments de logique

Attention !
L’écriture E = p ∈ N ¯ p est impair ne signifie pas que E est un ensemble qui contient un seul élément qui s’appelle
© ¯ ª

p, mais que E est l’ensemble de tous les entiers naturels p tels que p est impair, en langage courant on dit plutôt
que E est l’ensemble de tous les entiers naturels impairs. Dans le langage mathématique, il faut donner un nom à
ces entiers (variable muette, ici p) pour pouvoir ensuite les manipuler ou les décrire.

NE
Définition 1.2
Soient A et B deux ensembles :
– L’inclusion : on dit que A est inclus dans B tous les éléments de A sont également éléments de B,
notation : A ⊂ B.
– Ensemble des parties : si A est inclus dans B, on dit que A est une partie de B. L’ensemble des
parties de B est noté P (B), donc écrire « A ⊂ E » revient à écrire « A ∈ P (B) ». Par exemple, l’ensemble
vide et B sont des parties de B, donc ∅ ∈ P (B) et B ∈ P (B).
– La réunion : on note A ∪ B (se lit « A union B »), l’ensemble que l’on obtient en regroupant les
éléments de A avec ceux de B, par exemple {2k + 1 | k ∈ Z} ∪ {2n | n ∈ Z} = Z.

AIG
– L’intersection : on note A ∩ B (se lit « A inter B »), l’ensemble des éléments communs à A et B.
Par exemple N ∩ Z∗ = N∗ . On dit que deux ensembles sont disjoints lorsque leur intersection est
l’ensemble vide.
– La différence : on note A \ B (se lit « A moins B »), l’ensemble des éléments qui sont dans A mais pas
dans B. Par exemple, R+ = R\] − ∞; 0[.
– Le complémentaire d’une partie : lorsque A est une partie de B, la différence B \ A est appelé com-
plémentaire de A dans B, noté CB (A) (ou bien A). Par exemple R \ Q est l’ensemble des irrationnels.
– Le produit cartésien : le produit cartésien de A par ¯ B est l’ensemble des couples (x; y) avec x ∈ A et
© ª
y ∈ B, on le note A × B, c’est à dire A × B = (x; y) x ∈ E, y ∈ F . On rappelle que (x; y) = (a; b) si et
¯
seulement si x = a et y = b. Attention à ne pas confondre un couple avec une paire (ensemble à
deux éléments), par exemple : {1; 2} = {2; 1}, mais (1; 2) 6= (2; 1).
NT
B A B

A⊂B A 6⊂ B

A B A B
MO

A∪B A∩B

MPSI3 (2017-18) LYCÉE M ONTAIGNE –2– ©Fradin Patrick – https://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

A B B
A

NE
A\B CB (A)

FExercice 1.1 Décrire P (E) lorsque E = {1; 2; 3}.


Remarque 1.1 :
– Dire que deux ensembles A et B sont égaux, revient à dire que A est inclus dans B, et que B est inclus
dans A. Donc démontrer une égalité entre deux ensembles, peut se faire en démontrant une double
inclusion.
– Le produit cartésien se généralise à trois ensembles ou plus généralement à n ensembles :

AIG
E1 × · · · × En = {(x 1 , . . . , x n ) | x 1 ∈ E1 , . . . , x n ∈ En }

Lorsque tous les ensembles sont égaux au même ensemble E, on note E × · · · × E = En (ensemble des
n-listes, ou n-uplets d’éléments de E).

2) Propriétés

Théorème 1.1 (Propriétés de la réunion et de l’intersection)


Soient A, B et C trois ensembles, on a A∪(B∩C) = (A∪B)∩(A∪C). C’est la distributivité de la réunion
sur l’intersection.
De même, on a A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). C’est la distributivité de l’intersection sur la réunion.

Preuve : Ceci sera démontré un peu plus loin. 


NT
Théorème 1.2 (Propriétés du complémentaire)
Si A et B sont deux parties d’un ensemble E :
– A ∪ CE (A) = E.
– CE (E) = ∅, CE (∅) = E.
– CE (CE (A)) = A.
– CE (A ∪ B) = CE (A) ∩ CE (B) (loi de De Morgan 2 ).
– CE (A ∩ B) = CE (A) ∪ CE (B) (2e loi de De Morgan).

Preuve : Ceci sera démontré un peu plus loin. 

II NOTIONS DE LOGIQUE
MO

1) Propositions
Nous nous contenterons de la « définition » suivante :

Définition 1.3 (Proposition)


Une proposition est une phrase (ou assertion) qui a un sens mathématique et qui est soit vraie soit
fausse 3 . On dira qu’une proposition n’a que deux valeurs de vérité : vraie (notée V) et fausse (notée F).
Si P désigne une assertion, on notera ¬P sa négation (lire « non P »).

ZExemples :
– « 2 est un entier pair » est une proposition vraie.
– « 3 est un entier pair » est une proposition fausse.
2. DE MORGAN Augustus (1806 – 1871) logicien anglais.
3. Il ne doit pas y avoir d’autre alternative selon le principe du tiers exclu.

MPSI3 (2017-18) LYCÉE M ONTAIGNE –3– ©Fradin Patrick – https://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

– « n est un entier pair » n’est pas une proposition car sa valeur de vérité dépend de la valeur de n, un telle
phrase est appelée prédicat portant sur la variable n à valeurs dans Z, on pourrait noter ce prédicat
P(n) par exemple.
– Si A et B désignent deux ensembles, alors la phrase A ⊂ B est une proposition (tous les éléments de A
sont éléments de B). Sa négation s’écrit A 6⊂ B (un élément de A n’est pas forcément un élément de B).

NE
– L’expression « N ∈ R » est une proposition, elle est fausse car N n’est pas un réel.
– L’expression « N ⊂ R » est une proposition, elle est vraie car tout naturel est aussi un réel.
Si P est une proposition, la valeur de vérité de ¬P se déduit de celle de P conformément à la table de
vérité suivante :
P ¬P
V F
F V

Par convention :
Dans les raisonnements mathématiques on n’écrit que des propositions vraies. Si P est une proposition,
au lieu d’écrire « P est vraie », on écrit plus simplement « P », et au lieu d’écrire « P est fausse », on écrit plus
simplement « ¬P », c’est à dire la négation.

AIG
2) Connecteurs logiques
Ceux-ci permettent de relier deux propositions pour en donner une troisième.

Définition 1.4 (conjonction, disjonction inclusive)


Soient P et Q deux propositions. On dit que :
• la proposition « P ∧ Q » (lire « P et Q ») est vraie lorsque les deux propositions le sont simultanément,
sinon on dira qu’elle fausse.
• la proposition « P ∨ Q » (lire « P ou Q ») est vraie lorsqu’au moins une des deux propositions est vraie
(voire les deux), sinon on dira qu’elle fausse.

P Q P∧Q P∨Q
NT
V V V V
V F F V
F V F V
F F F F

Définition 1.5 (implication, équivalence)


Soient P et Q deux propositions. On dit que :
• la proposition « P =⇒ Q » (lire « P implication Q ») est fausse lorsque P est vraie mais pas Q.
• la proposition « P ⇐⇒ Q » (lire « P équivalence Q ») est vraie lorsque les deux propositions ont la
même valeur de vérité.
MO

P Q P =⇒ Q P ⇐⇒ Q
V V V V
V F F F
F V V F
F F V V

ZExemples :
– La proposition « (2 est pair) =⇒ (3 est impair) » est vraie.
– La proposition « (2 est impair) =⇒ (3 est pair) » est vraie 4 .
– La proposition « (2 est pair) =⇒ (3 est pair) » est fausse.
– La proposition « (2 est impair) ⇐⇒ (3 est pair) » est vraie.

4. Ceci peut paraître surprenant au premier abord, mais nous verrons qu’en écrivant la négation cela devient évident.

MPSI3 (2017-18) LYCÉE M ONTAIGNE –4– ©Fradin Patrick – https://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

Définition 1.6 (implique, équivaut)

NE
Soient P et Q deux propositions.
• Lorsque la proposition « P =⇒ Q » est vraie on dit « P implique Q » (ou « si P alors Q »).
• Lorsque la proposition « P ⇐⇒ Q » est vraie on dit que « P équivaut à Q » (ou « P est équivalent à Q »
ou encore « P si et seulement si Q »).

Principe de déduction
Soient P et Q deux propositions, si on sait que P implique Q, et que P est vraie, alors on a forcément Q
vraie d’après la définition de l’implication. C’est le principe de déduction 5 .

3) Propriétés
Maintenant que nous savons ce que sont des propositions équivalentes, nous allons pouvoir établir les
propriétés suivantes :

AIG
Théorème 1.3
Soient P et Q deux propositions :
– La proposition « ¬¬P » est équivalente à « P ».
– La proposition « ¬(P ∧ Q) » est équivalente à « (¬P) ∨ (¬Q) » (1re loi de De Morgan).
– La proposition « ¬(P ∨ Q) » est équivalente à « (¬P) ∧ (¬Q) » (2e loi de De Morgan).
– L’implication « P =⇒ Q » est équivalente à « (¬P) ∨ Q ».
– La proposition « ¬(P =⇒ Q) » est équivalente à « P ∧ (¬Q) ».
– La proposition « P ⇐⇒ Q » est équivalente à « (P =⇒ Q) ∧ (Q =⇒ P) ».
– La proposition « P ⇐⇒ Q » est équivalente à « (¬P) ⇐⇒ (¬Q) ».

Preuve : La première propriété est évidente. Les autres se montrent avec une table de vérité (à compléter en exercice) :

P Q ¬(P ∧ Q) (¬P) ∨ (¬Q) ¬(P ∨ Q) (¬P) ∧ (¬Q) P =⇒ Q (¬P) ∨ Q


V V
V F
NT
F V
F F

P Q ¬(P =⇒ Q) P ∧ (¬Q) P ⇐⇒ Q (P =⇒ Q) ∧ (Q =⇒ P) (¬P) ⇐⇒ (¬Q)


V V
V F
F V
F F

ZExemple : La négation de la proposition « (2 est impair) =⇒ (3 est pair) » est équivalente à la proposition « (2
est impair) ∧ (3 est impair) », or celle-ci est fausse, et donc la première est vraie.

FExercice 1.2 Sans utiliser de table de vérité, redémontrer (en utilisant les autres propriétés) que :
« ¬(P =⇒ Q) » est équivalente à « P ∧ (¬Q) ».
MO

Définition 1.7 (réciproque, contraposée)


Soient P et Q deux propositions.
• La réciproque de l’implication « P =⇒ Q » est l’implication « Q =⇒ P ».
• La contraposée de l’implication « P =⇒ Q » est l’implication « (¬Q) =⇒ (¬P) ».

Il découle alors du théorème précédent :

Théorème 1.4
Une implication et sa contraposée sont équivalentes.
Deux propositions sont équivalentes si et seulement si les implications dans les deux sens sont vraies.

5. Par contre, si P implique Q, et que P est fausse, alors on ne peut rien dire de Q.

MPSI3 (2017-18) LYCÉE M ONTAIGNE –5– ©Fradin Patrick – https://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

Remarque 1.2 – Ce résultat est à connaître car très utilisé dans les raisonnements (raisonnements par contra-
position, raisonnements par double implication).

4) Quantificateurs

NE
Les quantificateurs servent à construire des propositions à partir d’un prédicat P(x), dont la variable x
prend ses valeurs dans un certain ensemble E. On rencontre :
– Le quantificateur universel : « ∀x ∈ E, P(x) » (se lit « pour tout x dans E, P(x) [sous entendu est vraie] »).
Par exemple, la proposition « ∀x ∈ R, x 2 > 0 » se lit « pour tout réel x, le carré de x est positif ou nul », ou
bien encore « le carré de tout réel est positif ».
– Le quantificateur existentiel : « ∃x ∈ E, P(x) » (se lit « il existe au moins un x de E tel que P(x) [sous
entendu est vraie] »). Par exemple, la proposition « ∃x ∈ C, x 2 = −1 », se lit « il existe au moins un nombre
complexe dont le carré vaut −1 ».
Remarque 1.3 :
– On rencontre aussi parfois la proposition « ∃!x ∈ E, P(x) » (se lit « il existe un unique x de E tel que P(x)
[sous entendu est vraie] »). Par exemple, « ∃!x ∈ R+ , x 2 = 2 ».

AIG
– On peut trouver plusieurs quantificateurs dans une même proposition. Par exemple, « ∀y ∈ R+ , ∃!x ∈
R+ , x 2 = y » traduit que tout réel positif est le carré d’un unique réel positif.

Attention !
Les propositions « ∀x ∈ A, ∃y ∈ B, P(x, y) » et « ∃y ∈ B, ∀x ∈ A, P(x, y) », n’ont pas le même sens. En effet, dans la
première le y dépend de x alors que dans la seconde il s’agit du même y pour tous les x.

À retenir : utilisation des quantificateurs


Celle-ci est régie par les règles suivantes :
a) La négation de ∀ est ∃ (et vice - versa).
b) On peut intervertir deux quantificateurs de même nature.
c) On ne peut pas intervertir deux quantificateurs de nature différente.
NT
ZExemples :
– L’assertion « ∀x ∈ R+ , ∃y ∈ R+ , y 2 = x » est vraie, elle traduit que tout réel positif (x) est le carré d’au
moins un réel positif (y). Mais l’assertion « ∃y ∈ R+ , ∀x ∈ R+ , y 2 = x » traduit que tout réel positif (x) est
le carré d’un même réel (y), ce qui est évidemment faux. Sa négation est « ∀y ∈ R+ , ∃x ∈ R+ , y 2 6= x ».
¡ ¢ ¡ ¢
– On a toujours l’implication suivante : ∃x ∈ A, ∀y ∈ B, P(x, y) =⇒ ∀y ∈ B, ∃x ∈ A, P(x, y) .
– La négation de « ∀x ∈ A, ∃y ∈ B, P(x, y) » est « ∃x ∈ A, ∀y ∈ B, ¬(P(x, y)) ».

FExercice 1.3
1/ Traduire dans le langage mathématique : la suite (u n ) est majorée. Écrire la négation. Qu’en est-il de la suite définie
par u n = n 2 ? Justifier.
MO

2/ Traduire dans le langage courant les propositions suivantes :


a) ∃y ∈ R, ∀x ∈ R, x 6 y.
b) ∃y ∈ N, ∀x ∈ N, y 6 x.

5) Retour sur les ensembles


Soient A et B deux parties d’un ensemble E.

Intersection d’ensembles
Si x désigne un élément de E, démontrer que x ∈ A ∩ B, c’est démontrer la proposition « (x ∈ A) et (x ∈ B) ».
On peut donc écrire : A ∩ B = {x ∈ E | x ∈ A et x ∈ B}.

Réunion d’ensembles
Si x désigne un élément de E, démontrer que x ∈ A∪B, c’est démontrer la proposition « (x ∈ A) ou (x ∈ B) ».
On peut donc écrire : A ∪ B = {x ∈ E | x ∈ A ou x ∈ B}.

MPSI3 (2017-18) LYCÉE M ONTAIGNE –6– ©Fradin Patrick – https://mpsi.tuxfamily.org


Notions de logique Chapitre 1 : Éléments de logique

Complémentaire
Si x désigne un élément de E, démontrer que x ∈ CE (A), c’est démontrer la proposition « (x ∉ A). On peut
donc écrire : CE (A) = {x ∈ E | x ∉ A}.

Différence d’ensembles

NE
Si x désigne un élément de E, démontrer que x ∈ A \ B, c’est démontrer la proposition « (x ∈ A) et (x ∉ B) ».
On peut donc écrire : A \ B = {x ∈ E | x ∈ A et x ∉ B}, il en découle que A \ B = A ∩ CE (B).

Inclusion d’ensembles
Démontrer que A est inclus dans B, c’est démontrer que les éléments de A sont également des éléments
de B, c’est à dire, pour tout élément x de E, on a : x ∈ A =⇒ x ∈ B. Pour établir ceci, on prend un élément x
quelconque de E, et on démontre la proposition x ∈ A =⇒ x ∈ B.

Égalité d’ensembles
Démontrer que A est égal à B, c’est démontrer la double inclusion : A ⊂ B et B ⊂ A, c’est à dire, pour tout
élément x de E, on a : (x ∈ A =⇒ x ∈ B) et (x ∈ B =⇒ x ∈ A), ce qui équivaut à : x ∈ A ⇐⇒ x ∈ B. Pour établir
ceci, on prend un élément x quelconque de E, et on démontre la proposition x ∈ A ⇐⇒ x ∈ B.

AIG
À retenir
Démontrer que A ⊂ B, c’est démontrer : ∀x ∈ E, x ∈ A =⇒ x ∈ B.
Démontrer que A = B, c’est démontrer : ∀x ∈ E, x ∈ A ⇐⇒ x ∈ B.

ZExemples :
– Soient A, B et C trois parties d’un ensemble E, démontrer la distributivité de la réunion sur l’intersection
c’est démontrer :
¡ ¢ ¡ ¢
∀x ∈ E, x ∈ A ∪ (B ∩ C) ⇐⇒ x ∈ [A ∪ B] ∩ [A ∪ C]
On considère un x quelconque dans E, on peut alors montrer l’équivalence avec une table de vérité (à
compléter en exercice) :

x∈A x ∈B x ∈C x ∈ A ∪ (B ∩ C) x ∈ [A ∪ B] ∩ [A ∪ C]
NT
V V V
V V F
V F V
V F F
F V V
F V F
F F V
F F F

– Soient A et B deux parties d’un ensemble E, soit x un élément quelconque de E, alors :

x ∈ CE (A ∪ B) ⇐⇒ ¬(x ∈ A ∪ B)
MO

⇐⇒ ¬([x ∈ A] ∨ [x ∈ B])
⇐⇒ [x ∉ A] ∧ [x ∉ B]
⇐⇒ [x ∈ CE (A)] ∧ [x ∈ CE (B)]
⇐⇒ x ∈ CE (A) ∩ CE (B)

Ce qui prouve que CE (A ∪ B) = CE (A) ∩ CE (B).

FExercice 1.4 En s’inspirant des deux exemples ci-dessus, démontrer le théorème 1.1 et le théorème 1.2.

Résoudre une équation


Une équation dans R, d’inconnue x réelle peut toujours se mettre sous la forme f (x) = 0. Résoudre
cette équation dans R c’est déterminer la partie S de R telle que « ∀x ∈ R, f (x) = 0 ⇐⇒ x ∈ S » (S est appelé
l’ensemble des solutions réelles). La définition est la même pour une inéquation dans R.

MPSI3 (2017-18) LYCÉE M ONTAIGNE –7– ©Fradin Patrick – https://mpsi.tuxfamily.org


Le raisonnement Chapitre 1 : Éléments de logique
1
ZExemple : Pour résoudre dans R l’inéquation x < −1, on écrit :
1 1
< −1 ⇐⇒ + 1 < 0
x x
x +1
⇐⇒ <0

NE
x
⇐⇒ (x + 1)x < 0 et x 6= 0
⇐⇒ x ∈ ]−1 ; 0[

L’ensemble des solutions réelles est donc ]−1 ; 0[.

III LE RAISONNEMENT

1) Raisonnement par l’absurde


Soit P une proposition dont on cherche à démontrer qu’elle est vraie. Raisonner par l’absurde c’est faire
l’hypothèse que P est fausse, autrement dit, on suppose non(P), on cherche alors à obtenir une contradiction,

AIG
c’est à dire une proposition Q dont sait qu’elle est fausse, et telle que non(P) =⇒ Q. Si on n’y parvient, cela
veut dire que « Q et non(Q) » est vraie, ce qui est impossible car une telle proposition est toujours fausse :
c’est le principe de non contradiction. La conclusion est que P est vraie.
p
ZExemple : montronsp que 2 est un irrationnel
p par l’absurde :
p
On suppose que 2 ∈ Q, on peut écrire 2 = q avec p et q entiers strictement positifs et premiers entre
eux. En élevant au carré on a 2q 2 = p 2 , ce qui entraîne que p est pair et donc p = 2a avec a entier, d’où
2q 2 = 4a 2 i.e. q 2 = 2a 2 , donc q est pair lui aussi et par conséquent p et q ne sont pas premiers entre eux :
contradiction.

2) Raisonnement par analyse-synthèse


Raisonner par analyse-synthèse lorsque l’on cherche la ou les solutions à un problème, c’est raisonner en
deux étapes qui sont :
– l’analyse : on suppose que l’on a une solution du problème et on cherche à en déduire toutes les
NT
propriétés possibles de cette solution, l’objectif étant d’essayer de l’identifier au mieux,
– la synthèse : elle consiste à déterminer parmi tous les objets mathématiques ayant les propriétés
requises (obtenues lors de l’analyse), ceux qui sont effectivement solutions du problème.
ZExemple : Montrons que toute fonction f : [0; 1] → R est la somme d’une fonction affine et d’une fonction
qui s’annule en 0 et en 1.
• Analyse : supposons qu’il existe une fonction g qui s’annule en 0 et en 1, ainsi que deux réels a et b tels
que ∀x ∈ R, f (x) = g (x) + ax + b. En évaluant en 0 on doit avoir f (0) = b, en évaluant en 1 on doit avoir
f (1) = a + b, d’où a = f (1) − b = f (1) − f (0). Maintenant que a et b sont connus, on en déduit que g est la
fonction x 7→ f (x) − ax − b
• Synthèse : posons b = f (0), a = f (1) − f (0) et g : x 7→ f (x) − ax − b. Il est clair que f (x) = g (x) + ax + b,
d’autre part g (0) = f (0) − b = 0 et g (1) = f (1) − a − b = f (1) − f (1) + f (0) − f (0) = 0. Donc a, b et g sont bien
solution du problème et celle-ci est unique.
MO

3) Démontrer une implication


Par définition, l’implication « P =⇒ Q » est fausse lorsque P est vraie et Q fausse, elle est vraie dans les
autres cas. En particulier, si P est fausse, l’implication est nécessairement vraie quelque soit la valeur de vérité
de Q. Par contre lorsque P est vraie, tout dépend de Q. Nous savons également que l’implication « P =⇒ Q »
est équivalente à sa contraposée « ¬Q =⇒ ¬P », donc démontrer l’une c’est démontrer l’autre.

À retenir : pour démontrer une implication.


• Méthode directe : on suppose que la proposition P est vraie (c’est l’hypothèse), on cherche alors à
établir que nécessairement la proposition Q est vraie elle aussi.
• Par l’absurde : on suppose le contraire de P =⇒ Q, c’est à dire on suppose « P ∧ ¬Q » (i.e. P est vraie
et Q est fausse. On montre alors que ceci conduit à une contradiction, ce qui entraîne que l’hypothèse
faite est fausse et par conséquent P =⇒ Q.

MPSI3 (2017-18) LYCÉE M ONTAIGNE –8– ©Fradin Patrick – https://mpsi.tuxfamily.org


Le raisonnement Chapitre 1 : Éléments de logique
• Par contraposition : on cherche à établir que ¬Q =⇒ ¬P.

Remarque 1.4 – Pour démontrer « P ∨ Q » : cette proposition est équivalente à « ¬P =⇒ Q ». Par conséquent,
démontrer « P ∨ Q » revient à démontrer « ¬P =⇒ Q ».

NE
4) L’équivalence
Par définition, l’équivalence « P ⇐⇒ Q » est vraie lorsque P et Q ont même valeur de vérité. Nous savons
qu’elle équivaut à « (P =⇒ Q) et (Q =⇒ P) », donc montrer l’équivalence c’est montrer une implication et
réciproque.

À retenir : pour démontrer une équivalence.


• Par double implication : on établit dans un premier temps que P =⇒ Q, puis dans un deuxième
temps on établit la réciproque, c’est à dire que Q =⇒ P.
• Méthode directe : on suppose que la proposition P est vraie (hypothèse) puis on cherche à établir
que Q est vraie en s’assurant à chaque étape du raisonnement que l’équivalence est conservée 6 .

5)

AIG
La récurrence

À retenir : rappel du principe de récurrence


Soit P(n) un prédicat portant sur une variable n ∈ N.
Si on a P(0) (initialisation) et si ∀n ∈ N, P(n) =⇒ P(n +1) (hérédité), alors nécessairement ∀n ∈ N, P(n).

Remarque 1.5 :
– L’initialisation est juste une vérification, mais elle est indispensable.
Par exemple, soit le prédicat P(n) :« n = n +1 », celui-ci vérifie bien l’hérédité (n = n +1 =⇒ n +1 = n +2),
mais pour tout n, P(n) est fausse.
– Démontrer l’hérédité c’est démontrer une implication. En général on le fait par la méthode directe, on
NT
fait donc l’hypothèse P(n), c’est ce que l’on appelle l’hypothèse de récurrence, et on essaie d’en déduire
P(n + 1).

Théorème 1.5 (variantes)


Soit a ∈ Z et P(n) un prédicat portant sur une variable n ∈ Z.
• Si on a P(a) et si ∀n > a, P(n) =⇒ P(n + 1), alors on peut conclure que ∀n ∈ Z, n > a =⇒ P(n).
• Si on a P(a) et si ∀n 6 a, P(n) =⇒ P(n − 1), alors on peut conclure que ∀n ∈ Z, n 6 a =⇒ P(n)
(récurrence descendante).

Preuve : Pour le premier point, on applique le principe de récurrence au prédicat Q(n) = P(n + a) avec n ∈ N. Pour le
deuxième, on applique le principe de récurrence au prédicat Q(n) = P(a − n) avec n ∈ N. 
MO

FExercice 1.5
Pn n(n+1)
1/ Montrer que ∀n ∈ N∗ , k=1
k= 2 .
∗ Pn (2n+1)n(n+1)
2/ Montrer que ∀n ∈ N , k=1 k 2 = 6 .
³ ´2
∈ N∗ , nk=1 k 3 = n(n+1)
P
3/ Montrer que ∀n 2 .

Théorème 1.6 (récurrence forte)


Soit P(n) un prédicat portant sur une variable n ∈ N.
Si on a P(0) (initialisation) et si ∀ ∈ N, (P(0) ∧ P(1) ∧ · · · ∧ P(n)) =⇒ P(n + 1) (hérédité), alors nécessai-
rement ∀n ∈ N, P(n).

Preuve : Appliquer la principe de récurrence au prédicat Q(n) = P(0) ∧ P(1) ∧ · · · ∧ P(n). 

6. Cette méthode n’est pas toujours applicable, mais c’est celle que l’on utilise dans la mesure du possible pour résoudre une
équation ou une inéquation.

MPSI3 (2017-18) LYCÉE M ONTAIGNE –9– ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 1 : Éléments de logique

À retenir
La récurrence forte est utile lorsque le seul fait que P(n) soit vraie ne suffit pas à en déduire P(n + 1).
L’hypothèse de récurrence peut alors s’écrire : « supposons la propriété vraie jusqu’au rang n ».

NE
FExercice 1.6 Soit (u n ) la suite définie par u 0 = u 1 = 1 et ∀ n ∈ N, u n+2 = u n+1 + u n (suite de Fibonacci), montrer par
récurrence que pour tout n :
p à p !n p à p !n
5+ 5 1+ 5 5− 5 1− 5
un = +
10 2 10 2

IV SOLUTION DES EXERCICES

Solution 1.1 Dans l’ensemble {1; 2; 3} il y a exactement 8 parties, donc :


P (E) = {∅; {1}; {2}; {3}, {1; 2}; {1; 3}; {2; 3}; {1; 2; 3}}

AIG
Solution 1.2 « P =⇒ Q » équivaut à « (¬P) ∨ Q », donc « ¬(P =⇒ Q) » équivaut à « ¬((¬P) ∨ Q) », ce qui équivaut encore
à « (¬¬P) ∧ (¬Q) » (loi de De Morgan), soit encore à « P ∧ (¬Q) ».

Solution 1.3
1/ ∃M ∈ R, ∀n ∈ N, u n 6 M. La négation est ∀M ∈ R, ∃n ∈ N, u n > M. La suite (n 2 ) n’est pas majorée, en effet : soit M ∈ R,
si n ∈ N avec n > M, alors (n + 1)2 > n > M.
2/ Traduction :
a) L’ensemble R a un maximum, cette proposition est fausse, sa négation s’écrit ∀y ∈ R, ∃x ∈ R, x > y.
b) L’ensemble N a un minimum, cette proposition est vraie.

Solution 1.4
1/ Démontrer la distributivité de la intersection sur la réunion, c’est démontrer :
¡ ¢ ¡ ¢
∀x ∈ E, x ∈ A ∩ (B ∪ C) ⇐⇒ x ∈ [A ∩ B] ∪ [A ∩ C]

On considère un x quelconque dans E, on peut alors montrer l’équivalence avec une table de vérité :
NT
x∈A x ∈B x ∈C x ∈ A ∩ (B ∪ C) x ∈ (A ∩ B) ∪ (A ∩ C)
V V V V V
V V F V V
V F V V V
V F F F F
F V V F F
F V F F F
F F V F F
F F F F F

2/ Pour le théorème 1.2, les trois premiers résultats sont évidents. Montrons les lois de De Morgan à l’aide d’une table de
vérité, soient A et B deux parties de E et x un élément quelconque de E :
MO

x∈A x ∈B x ∈ CE (A ∩ B) x ∈ CE (A) ∪ CE (B)


V V F F
V F V V
F V V V
F F V V

On en déduit que CE (A ∩ B) = CE (A) ∪ CE (B). On précède de même pour l’autre loi.

Solution 1.5
1/ On vérifie la relation pour n = 1 : 1k=1 k = 1 = 1(1+1)
P
2 . On suppose ensuite que la relation est vérifiée pour un certain
entier n ∈ N∗ , c’est à dire que nk=1 k = n(n+1) un certain n ∈ N∗ , on a alors au rang suivant :
P
2 pour

n+1
X n
X n(n + 1) (n + 1)(n + 2)
k= k + (n + 1) = + (n + 1) = : c’est la formule au rang n + 1
k=1 k=1 2 2

Donc la formule est vraie pour tout n ∈ N∗ .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 10 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 1 : Éléments de logique

2/ Même méthode.
3/ Même méthode.

Solution 1.6 Comme la relation deprécurrencepest à deuxppas, on procède


p
à une récurrence forte avec une initialisation
pour n = 0 et n = 1. Notons a = 5+10 5 , r 1 = 1+2 5 , b = 5−10 5 et r 2 = 1−2 5 . On vérifie qu’au rang n = 0 on a ar 10 + br 20 =

NE
a + b = 1 = u 0 , et que au rang n = 1 on a ar 11 + br 21 = ar 1 + br 2 = 1 = u 1 . Pour un entier n > 1, on suppose la formule
établie pour tous les entiers k ∈ J0 ; n K (hypothèse de récurrence forte), on a u n+1 = u n + u n−1 , comme n et n − 1 sont dans
J0 ; n K, l’hypothèse permet d’écrire u n+1 = ar 1n + br 2n + ar 1n−1 + br 2n−1 = ar 1n−1 [r 1 + 1] + br 2n−1 [r 2 + 1], or on peut vérifier
que r 1 + 1 = r 12 (de même pour r 2 ), on en déduit que u n+1 = ar 1n+1 + br 2n+1 , c’est la formule au rang n + 1. La formule est
donc établie pour tout entier n.

AIG
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 11 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 2

Nombres complexes

Sommaire
I Écriture algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

AIG
1) L’ensemble des complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2) Partie réelle, partie imaginaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3) Conjugué d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
II Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2) Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
III Forme trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1) Le groupe unité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2) Exponentielle d’un imaginaire pur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3) Argument d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4) Racines nes d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
IV Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2) Formules d’Euler et de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
NT
V Représentation géométrique des complexes, applications . . . . . . . . . . . . . . . . . . . . 20
1) Affixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2) Distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3) Angles orientés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4) Similitudes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

On suppose connu l’ensemble R des réels, les propriétés de ses deux opérations que sont l’addition et la
multiplication, et la notion de valeur absolue d’un réel.

I ÉCRITURE ALGÉBRIQUE
MO

1) L’ensemble des complexes


On admet l’existence d’un ensemble, que l’on notera C, contenant R et tel que :
– C possède une addition et une multiplication, prolongeant celles de R et vérifiant les mêmes proprié-
tés, c’est à dire :
• L’addition est interne (∀z, z 0 ∈ C, z + z 0 ∈ C), commutative (∀z, z 0 ∈ C, z + z 0 = z 0 + z), associative
(∀z, z 0 , z 00 ∈ C, (z + z 0 )+ z 00 = z +(z 0 + z 00 )), 0 est élément neutre (∀z ∈ C, z +0 = 0+ z), chaque complexe
admet un opposé dans C (l’opposé de z ∈ C est noté −z).
• La multiplication est interne (∀z, z 0 ∈ C, zz 0 ∈ C), commutative (∀z, z 0 ∈ C, zz 0 = z 0 z), associative
(∀z, z 0 , z 00 ∈ C, (zz 0 )z 00 = z(z 0 z 00 )), 1 est élément neutre (∀z ∈ C, z × 1 = 1 × z), chaque complexe autre
que 0 admet un inverse dans C (l’inverse de z ∈ C est noté z −1 ou 1z ).
• La multiplication est distributive sur l’addition à gauche et à droite (∀z, z 0 , z 00 ∈ C, z(z 0 +z 00 ) = zz 0 +zz 00 ,
et (z 0 + z 00 )z = z 0 z + z 00 z).
On résume toutes ses propriétés en disant que (C, +, ×) est un corps commutatif.
– Il existe un complexe, que l’on notera i , qui vérifie i 2 = −1.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 12 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Écriture algébrique Chapitre 2 : Nombres complexes

– Pour tout complexe z, il existe deux réels a et b uniques tels que z = a + i b.

FExercice 2.1
1/ Montrer que si z ∈ C, alors z × 0 = 0 × z = 0.
2/ Soient z, z 0 ∈ C tels que zz 0 = 0, montrer que z = 0 ou z 0 = 0.

NE
2) Partie réelle, partie imaginaire

Définition 2.1
Soit z ∈ C, on sait qu’il existe un réel a unique et un réel b unique tel que z = a + i b. Le réel a est
appelé partie réelle de z, notée a = Re(z), et b la partie imaginaire de z, notée b = Im(z). L’écriture
z = a +i b est appelée forme algébrique de z. L’ensemble des complexes dont la partie réelle est nulle,
est appelé ensemble des imaginaires purs et noté i R = {z ∈ C | Re(z) = 0} = i y | y ∈ R .
© ª

À retenir : quelques propriétés

AIG
(
0 Re(z) = Re(z 0 )
a) z = z ⇐⇒ .
Im(z) = Im(z 0 )
b) z ∈ R ⇐⇒ Im(z) = 0.
c) z ∈ i R ⇐⇒ Re(z) = 0.
d) Re(z + z 0 ) = Re(z) + Re(z 0 ) et Im(z + z 0 ) = Im(z) + Im(z 0 ).
e) Si α est un réel, alors Re(αz) = αRe(z), et Im(αz) = αIm(z).

FExercice 2.2
1/ Démontrer les propriétés ci-dessus.
2/ Déterminer la forme algébrique du produit zz 0 .
NT
Attention !
La dernière propriété est fausse lorsque α n’est pas réel.

3) Conjugué d’un nombre complexe

Définition 2.2
Soit z = x + i y un complexe sous forme algébrique, on appelle conjugué de z, le complexe noté z et
défini par z = x − i y. On a donc Re(z) = Re(z) et Im(z) = −Im(z).

Théorème 2.1 (propriétés de la conjugaison)


MO

Soient z, z 0 ∈ C, on a :
• z + z0 = z + z0
• zz 0 = zz 0
• z = z.

Preuve : Celle-ci est simple et laissée en exercice. 

À retenir
• z + z = 2Re(z) et z − z = 2i Im(z) ;
• z ∈ R ⇐⇒ z = z ;
• z est un imaginaire pur si et seulement si z = −z.

1
FExercice 2.3 Montrer que si z est non nul, alors z = 1z .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 13 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Module d’un nombre complexe Chapitre 2 : Nombres complexes

II MODULE D’UN NOMBRE COMPLEXE

1) Définition
Soit z = x + i y un complexe sous forme algébrique, on a z × z = x 2 + y 2 et cette quantité est un réel positif.

NE
Définition 2.3
p
Soit z ∈ C, on appelle module de z, le réel positif noté |z| et défini par : |z| = zz.

À retenir : propriétés du module


a) |z|2 = zz.
b) |z| = 0 ⇐⇒ z = 0.
c) |Re(z)| 6 |z| et |Im(z)| 6 |z|.

AIG
d) Si z est réel, alors son module coïncide avec sa valeur absolue.
e) |zz 0 | = |z||z 0 |, en particulier, ∀n ∈ N, |z n | = |z|n (ceci reste valable pour n ∈ Z si z 6= 0).
f ) |z| = |z| et | − z| = |z|.
z
g) Pour mettre le complexe z 0 sous forme algébrique, il suffit de multiplier en haut et en bas par
z zz 0 Re(zz 0 ) Im(zz 0 )
z0 : z0 = |z 0 |2
= |z 0 |2
+i |z 0 |2
.

Théorème 2.2 (inégalité triangulaire)


Soient z et z 0 deux complexes : ¯|z| − |z 0 |¯ 6 |z + z 0 | 6 |z| + |z 0 |.
¯ ¯

Preuve : Pour l’inégalité de droite :

|z + z 0 |2 = (z + z 0 )(z + z 0 )
NT
= |z|2 + |z 0 |2 + 2Re(zz 0 )
6 |z|2 + |z 0 |2 + 2|Re(zz 0 )|
6 |z|2 + |z 0 |2 + 2|zz 0 | = |z|2 + |z 0 |2 + 2|z||z 0 |
¢2
6 |z| + |z 0 |
¡

d’où le résultat puisque les deux expressions sont des réels positifs.
Pour l’inégalité de gauche, on écrit |z| = |z + z 0 − z 0 | 6 |z + z 0 | + |z 0 | d’où |z| − |z 0 | 6 |z + z 0 |, en inversant les rôles on a
|z | − |z| 6 |z + z 0 |, ce qui entraîne la première inégalité.
0

Remarque 2.1 – En remplaçant z 0 par −z 0 , on a ||z| − |z 0 || 6 |z − z 0 | 6 |z| + |z 0 |.

Théorème 2.3 (cas d’égalité)


MO

Soient z et z 0 deux complexes non nuls, |z + z 0 | = |z| + |z 0 | si et seulement si il existe un réel α stricte-
ment positif tel que z = αz 0 .

Preuve : Si on a z = αz 0 , alors |z + z 0 | = |αz 0 + z 0 | = (1+α)|z 0 | = |z 0 |+α|z 0 | = |z 0 |+|z|. Réciproquement, si |z + z 0 | = |z|+|z 0 |,


alors |z + z 0 |2 = (|z| + |z 0 |)2 , ce qui donne en développant, |z|2 + |z 0 |2 + 2Re(zz 0 ) = |z|2 + |z 0 |2 + 2|z||z 0 |, on en déduit que
zz 0
Re(zz 0 ) = |zz 0 | ce qui prouve que zz 0 est un réel positif. Il suffit alors de prendre α = |z 0 |2
, c’est bien un réel strictement
positif, et on a la relation voulue. 

2) Équation du second degré

Théorème 2.4
Soit a ∈ C, l’équation z 2 = a admet dans C deux solutions opposées (toutes deux nulles lorsque a = 0).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 14 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Forme trigonométrique Chapitre 2 : Nombres complexes

Preuve : Soit z 0 une solution, alors l’équation z 2 = a équivaut à z 2 = z 02 , c’est à dire à (z − z 0 )(z + z 0 ) = 0, d’où z = ±z 0 ,
il reste à montrer l’existence d’une solution z 0 . Posons a = u + i v et z = x + i y, l’équation z 2 = a est équivalente à
x 2 − y 2 = u et 2x y = v. On doit avoir également |z|2 = |a|, c’est à dire x 2 + y 2 = |a|, par conséquent on a : x 2 = u+|a| 2 ,
q q
|a|−u |a|+u |a|−u
y 2 = 2 et 2x y = v. Une solution z 0 = x 0 + i y 0 s’obtient en prenant : x 0 = 2 , et y 0 = ε 2 avec ε = 1 si v > 0
et ε = −1 si v < 0, car on a 2x 0 y 0 = ε|v| = v. 

NE
ZExemples :
p
– Si a est un réel strictement positif, alors v = 0 et u > 0 d’où |a| = u et donc x 0 = a et y 0 = 0, les deux
p
solutions sont ± a, elles sont réelles.
p
– Si a est un réel strictement négatif, alors v = 0 et u < 0 d’où |a| = −u et donc x 0 = 0 et y 0 = −a, les
p
deux solutions sont ±i −a, ce sont des imaginaires purs.

Théorème 2.5
Soient a, b, c ∈ C avec a 6= 0, l’équation az 2 + bz + c = 0 admet deux solutions complexes qui sont
z 1 = −b+δ −b−δ 2 2
2a et z 2 = 2a avec δ ∈ C tel que δ = ∆ = b − 4ac (discriminant). De plus, lorsque les
coefficients a, b, c sont réels et que le discriminant b 2 −4ac est strictement négatif, ces deux solutions
sont complexes non réelles et conjuguées.

AIG
b 2 b −4ac 2 b
Preuve : L’équation est équivalente à : (z + 2a ) − 4a 2 = 0. Posons Z = z + 2a et ∆ = b 2 −4ac, on sait que ∆ admet deux
δ2 δ
racines carrées dans C, soit δ l’une d’elles (δ2 = ∆), l’équation est équivalente à : Z2 = 4a 2
, on en déduit que Z = ± 2a et
donc z = −b±δ
2a . Lorsque les trois coefficients sont réels, le discriminant ∆ estplui aussi un réel, s’il est strictement négatif,
p
alors on peut prendre δ = i −∆ et les solutions sont dans ce cas z = −b±i2a −∆ , on voit que celles - ci sont complexes
non réelles et conjuguées. 

À retenir : somme et produit de racines d’une équation du second degré


• Si z 1 et z 2 sont racines de l’équation az 2 + bz + c = 0, alors on a les relations : z 1 + z 2 = S = − ba et
z 1 z 2 = P = ac .
• De plus on a la factorisation :
∀z ∈ C, az 2 + bz + c = a(z − z 1 )(z − z 2 ).
NT
III FORME TRIGONOMÉTRIQUE

1) Le groupe unité

Définition 2.4
On note U l’ensemble des complexes de module 1 : U = {z ∈ C / |z| = 1}, c’est une partie de C∗ .

Il est facile de vérifier que l’ensemble U :


– est stable pour la multiplication : ∀z, z 0 ∈ U, zz 0 ∈ U.
– est stable pour le passage à l’inverse : ∀z ∈ U, z 6= 0 et z −1 ∈ U.
MO

– contient 1.
De plus, la multiplication dans U est associative (car elle l’est dans C), on dit alors que (U, ×) est un
groupe multiplicatif. Comme la multiplication est en plus commutative, on dit que (U, ×) est un groupe
abélien (ou commutatif), ce groupe est parfois appelé groupe unité de C.

Théorème 2.6
Tout complexe de module 1 peut se mettre sous la forme cos(θ) + i sin(θ) avec θ un réel, plus précisé-
ment :
U = {cos(θ) + i sin(θ) / θ ∈ R}.

Preuve : Soit z = x + i y un complexe de module 1, on a x 2 + y 2 = 1, donc il existe un réel θ (unique à 2π près) tel que
x = cos(θ) et y = sin(θ), c’est à dire z = cos(θ) + i sin(θ). La réciproque est immédiate. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 15 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Forme trigonométrique Chapitre 2 : Nombres complexes

2) Exponentielle d’un imaginaire pur


Pour tout réel x, on pose e i x = cos(x) + i sin(x). On a les propriétés suivantes :
– ∀x ∈ R, Re(e i x ) = cos(x) et Im(e i x ) = sin(x).
– ∀x ∈ R, e −i x = cos(−x) + i sin(−x) = cos(x) − i sin(x) = e i x .

NE
p
– ∀x ∈ R, |e i x | = cos(x)2 + sin(x)2 = 1, donc e i x ∈ U.
– ∀z ∈ U, ∃θ ∈ R, e i θ = z.
1


v
M(x + i y = e i θ )
y = sin(θ)

θ
0
0 →

u x = cos(θ) 1

AIG
−−→
θ = (→

u , OM) (mod 2π)
á

(
ix iy cos(x) = cos(y)
– Soit x, y ∈ R, e =e ⇐⇒ ⇐⇒ x = y (2π).
sin(x) = sin(y)

Théorème 2.7
∀x, y ∈ R, e i x e i y = e i (x+y) .
NT
Preuve : e i x e i y = [cos(x) + i sin(x)][cos(y) + i sin(y)] = [cos(x) cos(y) − sin(x) sin(y)] + i [cos(x) sin(y) + sin(x) cos(y)] =
cos(x + y) + i sin(x + y) = e i (x+y) d’après les formule d’addition du sinus et du cosinus. 
Ce théorème permet de retrouver les formules trigonométriques.

À retenir
– cos(x + y) = Re(e i (x+y) ) = Re(e i x e i y ) = cos(x) cos(y) − sin(x) sin(y).
– sin(x + y) = Im(e i (x+y) ) = Im(e i x e i y ) = cos(x) sin(y) + sin(x) cos(y).

x+y x−y
En posant a = et b = on obtient :
2 2
– cos(x) + cos(y) = cos(a + b) + cos(a − b) = 2 cos(a) cos(b), donc
x+y x−y
MO

cos(x+) + cos(y) = 2 cos( 2 ) cos( 2 ).


– cos(x) − cos(y) = cos(a + b) − cos(a − b) = −2 sin(a) sin(b), donc
x+y x−y
cos(x) − cos(y) = −2 sin( 2 ) sin( 2 ).
– sin(x) + sin(y) = sin(a + b) + sin(a − b) = 2 sin(a) cos(b), donc
x+y x−y
sin(x) + sin(y) = 2 sin( 2 ) cos( 2 )
– etc

3) Argument d’un nombre complexe


Soit z ∈ U, on sait qu’il existe un réel θ (unique à 2π près) tel que z = e i θ . Si maintenant z est un complexe
non nul quelconque alors |z| z
∈ U et donc il existe un réel θ (unique à 2π près) tel que |z| z
= e i θ , c’est à dire
z = |z|e i θ .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 16 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Forme trigonométrique Chapitre 2 : Nombres complexes

Définition 2.5
Soit z un complexe non nul, on appelle argument de z tout réel θ tel que z = |z|e i θ , cette égalité
est appelée forme trigonométrique de z. L’ensemble des arguments de z est noté arg(z), on a donc
arg(z)={θ ∈ R/ z = |z|e i θ }, et si θ0 est un argument de z, alors arg(z)={θ0 + 2kπ/ k ∈ Z }.

NE
A(z)
2

1
z
B( |z| )

θ
0
−1 0 1 2

AIG
−1

Définition 2.6
Soit z ∈ C∗ , z possède un unique argument dans l’intervalle ] − π; π], par définition cet argument est
appelé argument principal de z et noté Arg(z).

ZExemples :
– Arg(i ) = π2 , Arg( ) = 2π
3 .
– si x ∈ R∗+ alors Arg(x) = 0 et si x ∈ R∗− alors Arg(x) = π.

Attention !
Si z = r ei θ avec r et θ réels, alors c’est la forme trigonométrique de z lorsque r > 0. Mais lorsque r < 0, la forme
NT
trigonométrique de z est z = −r e i (θ+π) .

À retenir : factorisation par l’arc moitié


x+y x−y x−y x−y i x+y x−y
• Si z = e i x + e i y , alors z = e i 2 [e i 2 + e −i 2 ] = 2 cos( 2 )e
2 . D’où |z| = 2| cos( 2 )| et Arg(z) =
x+y
2 (π).
x+y x−y x−y x−y i x+y x−y
• Si z = e i x − e i y , alors z = e i 2 [e i 2 − e −i 2 ] = 2i sin( 2 )e
2 . D’où |z| = 2| sin( 2 )| et Arg(z) =
x+y+π
2 (π).

Théorème 2.8 (propriétés)


MO

Soient z, z 0 ∈ C∗ avec θ = Arg(z) et θ0 = Arg(z 0 ) :

|z| = |z 0 |
½
– z = z 0 ⇐⇒ .
θ = θ0 (2π)
– z ∈ R∗ ⇐⇒ θ = 0 (π).
– z = |z|e −i θ donc Arg(z) = −θ (2π).
– −z = |z|e i (θ+π) donc Arg(−z) = θ + π (2π).
0
– zz 0 = |zz 0 |e i (θ+θ ) donc Arg(zz 0 ) = θ + θ0 (2π).
z |z| i (θ−θ0 )
– z0 = |z 0 | e donc Arg( zz0 ) = θ − θ0 (2π).
– ∀n ∈ Z, z n = |z n |e i nθ donc Arg(z n ) = nθ (2π).

Preuve : Celle-ci est simple et laissée en exercice. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 17 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Forme trigonométrique Chapitre 2 : Nombres complexes

À retenir
Soient a,b deux réels non tous deux nuls et soit x ∈ R, en posant
z = a + i b = |z|e i θ on obtient : p
a cos(x) + b sin(x) = Re(ze i x ) = |z| cos(x − θ) = a 2 + b 2 cos(x − θ).

NE
4) Racines nes d’un nombre complexe

Définition 2.7
Soit a, z deux complexes et n ∈ N, z est une racine ne de a lorsque z n = a.

Cas particuliers des racines nes de l’unité

Définition 2.8
Soit n un entier supérieur ou égal à deux, l’équation z n = 1 possède exactement n solutions qui sont
les complexes e 2i kπ/n avec 6 k 6 n − 1. On note Un l’ensemble de ces solutions (appelées racines nes

AIG
de l’unité), on a donc :
ª n o
Un = z ∈ U / z n = 1 = e 2i kπ/n / 0 6 k 6 n − 1
©

Preuve : Résolution trigonométrique : on pose z = r e i θ avec r réel positif et θ ∈ [0 ; 2π[, alors z n = r n e i nθ , donc z n = 1
si et seulement si r n = 1 (égalité des modules) et nθ = 0 + 2kπ (égalité des arguments avec k entier), ce qui équivaut
encore à r = 1 (r étant réel positif) et θ = 2kπ
n . Le choix de l’intervalle [0 ; 2π[ pour l’argument θ entraîne que l’entier k
est dans l’intervalle J0 ; n − 1K, donc z n = 1 ⇐⇒ ∃k ∈ J0 ; n − 1K, z = e 2i kπ/n , cela fait exactement n solutions distinctes
(car tout complexe non nul possède un unique argument dans l’intervalle [0 ; 2π[). 

FExercice 2.4
1/ Décrire U2 , U3 , U4 .
2/ Montrer que (Un , ×) est un groupe commutatif (résultat important à connaître).
Représentation géométrique des racines n es de l’unité (avec n = 7) :
NT
M2 1
M1

M3

M0
Mk est le point d’affixe e 2i kπ/n
−1 1 (n = 7).

M4

M6
M5 −1
MO

Cas général : résolution de l’équation z n = a (a 6= 0)


Considérons la forme trigonométrique de a : a = |a|e i θ0 , il est facile de voir alors que le complexe
p
z 0 = n |a|e i θ0 /n est une solution particulière de l’équation z 0n = a, par conséquent, comme z 0 6= 0, on a :
¶n
z z
µ
z n = a ⇐⇒ z n = z 0n ⇐⇒ = 1 ⇐⇒ ∈ Un
z0 z0

On est ainsi ramené aux racines n es de l’unité, on en déduit que z = z 0 e i 2kπ/n avec 0 6 k 6 n − 1, d’où :

θ0 +2kπ
z n = a ⇐⇒ z = |a|e i
p
avec 0 6 k 6 n − 1 et θ0 = Arg(a) (mod 2π)
n
n

Tout complexe non nul a donc exactement n racines n es distinctes.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 18 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Exponentielle complexe Chapitre 2 : Nombres complexes
IV EXPONENTIELLE COMPLEXE

1) Définition

Définition 2.9

NE
Soit z = x + i y un nombre complexe, on appelle exponentielle de z le complexe noté exp(z) et défini
par : exp(z) = e x [cos(y) + i sin(y)], c’est à dire exp(z) = e x e i y (forme trigonométrique).

Remarque 2.2 :
– Si z est réel (ie y = 0), alors l’exponentielle de z correspond à l’exponentielle réelle de z. De même, si z est
imaginaire pur (x = 0), alors exp(z) = exp(i y) = cos(y) + i sin(y).
– exp(0) = 1.
– Re(exp(z)) = e Re(z) cos(Im(z)) et Im(exp(z)) = e Re(z) sin(Im(z)).
– | exp(z)| = e Re(z) et Arg(exp(z)) = Im(z) (2π).
– exp(z) = exp(z).

AIG
Théorème 2.9 (propriété fondamentale)
La fonction exp : C → C∗ est 2i π-périodique, vérifie :
∀z, z 0 ∈ C, exp(z + z 0 ) = exp(z) × exp(z 0 ).
Et tout pour complexe non nul a, il existe z ∈ C tel que a = exp(z).

Preuve : Il est clair d’après la définition que exp(z) ne peut pas être nul, donc exp(z) ∈ C∗ . Posons z = x + i y, exp(z +
2i π) = e x [cos(y + 2π) + i sin(y + 2π)] = exp(z). Soit a un complexe non nul, l’équation exp(z) = a équivaut à |a| = e x et
Arg(a) = y (mod 2π) (résolution trigonométrique), donc les complexes z = ln(|a|)+i (y +2kπ) (où k parcourt Z) sont les
antécédents de a, en particulier les solutions de l’équation exp(z) = 1 sont les complexes z = 2i kπ, k ∈ Z. Soit z 0 = x 0 +i y 0
0 0
un autre complexe, exp(z +z 0 ) = e x+x [cos(y + y 0 )+i sin(y + y 0 )], et exp(z) exp(z 0 ) = e x+x [cos(y) cos(y 0 )−sin(y) sin(y 0 )] =
x+x 0 0 0
e [cos(y + y ) + i sin(y + y )]. On peut déduire de cette propriété le calcul suivant :

exp(z)
exp(z) = exp(z 0 ) ⇐⇒ =1
exp(z 0 )
NT
⇐⇒ exp(z) exp(−z 0 ) = 1
⇐⇒ exp(z − z 0 ) = 1
⇐⇒ ∃k ∈ Z, z = z 0 + 2i kπ.


0 0
Remarque 2.3 – La propriété fondamentale de l’exponentielle complexe : exp(z + z ) = exp(z) exp(z ), est la
même que celle de l’exponentielle réelle. On convient alors de noter exp(z) = e z . La propriété fondamentale
devient :
0 0
e z+z = e z × e z

1
Il découle également de cette relation que : e −z = .
ez
MO

FExercice 2.5 Résoudre e z = 1 + i .

2) Formules d’Euler et de Moivre


Formule de Moivre 1 : ∀n ∈ Z, ∀z ∈ C, e nz = [e z ]n . En particulier pour z = i x avec x réel, on a e i nx =
[cos(x) + i sin(x)]n . On en déduit que :

cos(nx) = Re([cos(x) + i sin(x)]n ) et sin(nx) = Im([cos(x) + i sin(x)]n ).


À l’aide du binôme de Newton ces formules permettent d’exprimer cos(nx) et sin(nx) sous forme d’un
polynôme en cos(x) et sin(x).
ZExemples :
1. MOIVRE Abraham DE (1667 – 1754) : mathématicien français, il s’expatria à Londres à l’age de dix-huit ans.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 19 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Représentation géométrique des complexes, applications Chapitre 2 : Nombres complexes

– cos(4x) = Re([cos(x) + i sin(x)]4 ) = cos(x)4 − 6 cos(x)2 sin(x)2 + sin(x)4 . En remplaçant sin(x)2 par 1 −
cos(x)2 , on pourrait obtenir cos(4x) en fonction de cos(x) uniquement.
– sin(4x) = Im([cos(x) + i sin(x)]4 ) = 4 cos(x)3 sin(x) − 4 cos(x) sin(x)3 .
ix −i x ix −i x
Formules d’Euler 2 : ∀x ∈ R : cos(x) = e +e
2 et sin(x) = e −e
2i .
p q

NE
Ces formules permettent la linéarisation de cos(x) sin(x) .
ZExemples :
(e i x +e −i x )3 i 3x i 2x −i x i x −i 2x
+e −i 3x cos(3x)+3 cos(x)
– cos(x)3 = 8 = e +3e e +3e 8
e
= 4 .
(e i x −e −i x )3 i 3x i 2x −i x
+3e i x e −i 2x −e −i 3x 3 sin(x)−sin(3x)
– sin(x)3 = −8i = e −3e e −8i = 4 .

V REPRÉSENTATION GÉOMÉTRIQUE DES COMPLEXES, APPLICATIONS

Le plan complexe est un plan P muni d’un repère orthonormé direct que l’on note R = (O, →

u ,→

v ).

1) Affixe
Chaque point M du plan complexe est repéré par ses coordonnées : une abscisse x et une ordonnée y,

AIG
c’est à dire par le couple de réels (x, y). Autant dire que M est repéré par le complexe z = x +i y. Par définition,
ce complexe est l’affixe du point M.

M(x, y)
y



v

O →

u x

Réciproquement, tout complexe z est l’affixe d’un point M du plan que l’on appelle image de z. Les axes
(O, →

u ) et (O, →

v ) sont appelés respectivement axes des réels et axe des imaginaires.
NT
Par exemple, l’image de z est le symétrique de l’image de z par la réflexion d’axe (O, → −
u ).
De la même façon, chaque vecteur du plan a des coordonnées dans la base ( u , v ). Si −

− →
− → a pour coordon-
w
nées (x, y), cela signifie que −
→ = x→
w −
u + y→ −v , là encore le vecteur −
→ peut être représenté par le complexe x +i y,
w


ce complexe est appelé affixe du vecteur w . Réciproquement, tout complexe z est l’affixe d’un vecteur du
−−→
plan. On remarquera que l’affixe d’un point M n’est autre que l’affixe du vecteur OM .
∗) L’affixe de la somme de deux vecteurs est la somme des affixes. Si α ∈ R et si − → est le vecteur d’affixe z,
w


alors l’affixe du vecteur αw est αz.
−−−→
∗) Soit M d’affixe z et M0 d’affixe z 0 , l’affixe du vecteur MM0 est z 0 − z.

2) Distances
Le module d’un complexe z représente dans le plan complexe la distance de l’origine O au point M
−−→
MO

d’affixe z, c’est à dire |z| = OM = kOM k.


Si −
→ est un vecteur d’affixe z, alors la norme de −
w w→ est k−
→k = |z|.
w
−−−→
Soit M d’affixe z et M0 d’affixe z 0 , la distance de M à M0 est MM0 = kMM0 k = |z 0 − z|.

Définition 2.10
Soit a ∈ C et R > 0, on définit dans le plan complexe :
– le disque fermé de centre a et de rayon R : {M ∈ P / |z − a| 6 R}.
– le disque ouvert de centre a et de rayon R : {M ∈ P / |z − a| < R}.
– le cercle de centre a et de rayon R : {M ∈ P / |z − a| = R}.

ZExemples :
– La représentation géométrique du groupe unité U = {z ∈ C / |z| = 1} est le cercle de centre O et de rayon
1 : le cercle trigonométrique.

2. EULER Léonhard (1707 – 1783) : grand mathématicien suisse.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 20 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Représentation géométrique des complexes, applications Chapitre 2 : Nombres complexes

– Les points d’affixe les racines nes de l’unité (n > 2) sont les sommets d’un polygone régulier inscrit
dans le cercle unité. La longueur du coté est 2 sin( nπ ), et la longueur du centre au milieu d’un coté
(l’apothème) est cos( nπ ).

NE
3) Angles orientés
Soit z un complexe non nul et M le point du plan d’affixe z, l’argument principal de z est une mesure de
−−→ −−→
l’angle orienté (→

u , OM ), ce que l’on écrit (→

u , OM ) = Arg(z) (2π).

x + i y = r e i θ avec
p
r = x 2 + y 2 = OM
M(x, y)
y
M

− r=O
v θ

AIG
O →

u x

Soient −→ et −
w

w 0 deux vecteurs non nuls d’affixes respectifs z et z 0 . Désignons par M et M0 les points
→ et −
d’affixes respectifs z et z 0 , l’angle orienté entre les deux vecteurs −
w

w 0 est :

→, −
(−
w
→ −−→ −−−→
w 0 ) = (OM , OM0 )
−−→ − −−−→
= (OM , → u ) + (→

u , OM0 )
−−→ −−−→
= −(→−
u , OM ) + (→−u , OM0 )
= −Arg(z) + Arg(z 0 ) (2π)
z0
= Arg( ) (2π)
NT
z
−−→
Conséquence : Soient A, B et C trois points distincts d’affixes respectifs a, b et c. L’affixe du vecteur AB est
−−→ −−→ −−→
b − a et celui du vecteur AC est c − a, par conséquent l’angle (AB , AC ) est donné par :

−−→ −−→ c −a
(AB , AC ) = Arg( ) (2π).
b−a

AC
¯ c−a ¯
Et on a le rapport des distances AB = ¯ b−a ¯.
−−→ −−→
Les trois points A, B et C sont alignés si et seulement si (AB , AC ) = 0 (mod π) ce qui équivaut donc à
c−a
b−a ∈ R.
−−→ −−→ −−→ −−→
Les vecteurs AB et AC sont orthogonaux si et seulement si (AB , AC ) = π2 (mod π) ce qui équivaut donc
MO

c−a
à b−a ∈ i R.

4) Similitudes directes
Soient a, b ∈ C avec a 6= 0, on note S a,b : P → P l’application qui au point d’affixe z faire correspondre le
point d’affixe z 0 = az +b, c’est la similitude directe de paramètres a et b. On vérifie en appliquant la définition,
les propriétés suivantes :
– S a,b est une bijection et sa réciproque est aussi une similitude directe, plus précisément S −1 a,b
= S 1 , −b .
a a
– La composée de deux similitudes directes est une similitude directe, plus précisément, S c,d ◦ S a,b =
S ac,cb+d avec c 6= 0.
– Soient A(z A ), B(z B ), C(z C ) et D(z D ) quatre points avec A 6= B et C 6= D, alors il existe une unique
similitude
( directe S a,b qui transforme A en C et B en D, celle-ci se détermine en résolvant le système
az A + b = z C
pour déterminer a et b.
az B + b = z D
– Lorsque a = 1, la similitude S 1,b est la translation de vecteur → −
u d’affixe b.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 21 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 2 : Nombres complexes

Étude lorsque a 6= 1
b
– Il existe un unique point fixe Ω(z 0 ) avec z 0 = 1−a , on a alors pour tout z : az + b = a(z − z0) + z 0 . Ce
point est appelé centre de la similitude.
0
– Soit M(z) un point différent du centre Ω, et soit M0 (z 0 ) son image par S a,b , alors : zz−z−z 0
0
= a, on en
¯ 0 ¯ −−→ −−−→0

NE
¯ z −z0 ¯
déduit que : ¯ z−z ¯ = |a|, c’est à dire ΩM = |a|ΩM, et (ΩM , ΩM ) = Arg(a) (mod 2π), ce qui permet
0
0

une construction géométrique de M0 partant de M :

M0

ΩM0 = |a|ΩM

θ = Arg(a)

AIG
M

−−−→ −−→
– Cas particulier où Arg(a) = 0 : on a alors z 0 = |a|(z − z 0 ) + z 0 d’où ΩM0 = |a|ΩM , on dit que la simili-
tude est l’homothétie de centre Ω et de rapport |a|, on la note h (Ω,|a|) .
−−−→ −−→
– Cas particulier où |a| = 1 : on a alors z 0 = e i θ (z − z 0 ) + z 0 d’où ΩM0 = ΩM et ΩM0 , ΩM = Arg(a), on dit
que la similitude est la rotation de centre Ω et d’angle Arg(a), on la note r (Ω,Arg(a)) .
– Dans le cas général, on vérifie par le calcul que S a,b et la composée commutative :

S a,b = h (Ω,|a|) ◦ r (Ω,Arg(a)) = r (Ω,Arg(a)) ◦ h (Ω,|a|)

On dit que S a,b est la similitude de centre Ω, de rapport |a| et d’angle Arg(a) . On remarquera que la
1
bijection réciproque est la similitude de centre Ω, de rapport |a| et d’angle −Arg(a).
NT
VI SOLUTION DES EXERCICES

Solution 2.1
1/ Soit z un complexe, alors z = z ×1 = z ×(1+0) = z ×1+z ×0 = z +z ×0, ce qui entraîne que 0 = z ×0. La démonstration
est valable dans tout corps.
2/ Soient z et z 0 deux complexes tels que zz 0 = 0, supposons z non nul, alors z a un inverse, d’où z −1 (zz 0 ) = z −1 × 0 = 0,
ce qui donne z 0 = 0 par associativité.

Solution 2.2
1/ a) Si deux complexes sont égaux, alors ils ont la même partie réelle et la même partie imaginaire. Réciproquement, si
les parties réelle et imaginaire sont identiques, alors les deux complexes ont la même écriture algébrique et sont
MO

donc égaux.
b) Si la partie imaginaire est nulle alors le complexe est réel car égal à sa partie réelle. Si le complexe est réel, alors
l’unicité des parties réelle et imaginaire entraîne que cette dernière est nulle.
c) Même type d’argument que la question précédente.
d) z + z 0 = Re(z) + Re(z 0 ) + i [Im(z) + Im(z 0 )], c’est la forme algébrique de z + z 0 , donc par unicité, Re(z + z 0 ) = Re(z) +
Re(z 0 ) et Im(z + z 0 ) = Im(z) + Im(z 0 ).
e) αz = αRe(z) + i αIm(z), c’est la forme algébrique de αz, donc par unicité, Re(αz) = αRe(z) et Im(αz) = αIm(z).
2/ Notons z = a + i b et z 0 = a 0 + i b 0 les deux formes algébriques, alors après développement, on a zz 0 = aa 0 − bb 0 +
i (ab 0 + ba 0 ), c’est la forme algébrique de zz 0 , donc Re(zz 0 ) = aa 0 − bb 0 et Im(zz 0 ) = ab 0 + ba 0 .

Solution 2.3 On effectue le produit z × 1z = z × 1z = 1 = 1, d’où 1


z = 1
z
(deux nombres sont inverses l’un de l’autre lorsque
leur produit vaut 1).

Solution 2.4
1/ U2 = {−1; 1}, U3 = 1; j ; j 2 , U4 = {1; i ; −1; −i }.
© ª

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 22 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 2 : Nombres complexes

2/ Si z et z 0 sont dans Un alors (zz 0 )n = z n × z 0n = 1 ×1 = 1, donc zz 0 est dans Un : la multiplication et donc interne dans
Un . Elle est associative et commutative dans C, donc en particulier dans Un . L’élément ¡ ¢neutre de la multiplication
n
est dans Un car 1n = 1. Si z est dans Un alors z est non nul (sinon z n = 0 6= 1), et 1z = z1n = 11 = 1, donc 1z est
dans Un : tout élément de Un a un symétrique dans Un pour la multiplication. En conclusion (Un , ×) est un groupe
commutatif.

NE
p
Solution 2.5 On écrit z = x + i y pavec x, y réels, on a alors z = e x e i y et 1 + i = 2e i π/4 . Résolution trigonométrique :
l’équation équivaut alors à e x = 2 (égalité des modules) et y = π4 + 2kπ avec k ∈ Z (égalité des arguments à 2π près),
l’ensemble des solutions est donc 12 ln(2) + i ( π4 + 2kπ) / k ∈ Z .
© ª

AIG
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 23 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 3

Calculs algébriques

Sommaire
I Sommes et produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2) Changement d’indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4) Sommes doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
II Binôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1) Factorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2) Coefficients binomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3) Formule du binôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
III Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2) Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
NT
I SOMMES ET PRODUITS

On se place dans C. Les sommes et les produits dont on va parler ne contiennent qu’un nombre fini de
termes.

1) Définition

Définition 3.1 (somme et produit sur une partie finie)


Soit A une partie finie de C, la somme des éléments de A est notée
P
a et le produit des éléments de
Q a∈A
A est noté a. Par convention, lorsque A est vide, la somme est nulle et le produit vaut 1.
a∈A
MO

Remarque 3.1 – Ces opérations étant commutatives dans C, l’ordre n’a pas d’importance. Comme elles sont
également associatives, il est inutile de préciser un parenthèsage pour la somme ou le produit.
ZExemple : La somme et le produit des racines n es de l’unité se notent ω et ω.
P Q
ω∈Un ω∈Un

Définition 3.2 (somme et produit d’une famille finie)


Soit (a k )k∈I une famille de complexes indexée par un ensemble fini I. La somme des éléments de la
P Q
famille est notée a k et le produit des éléments de la famille est noté a k . Par convention, lorsque
k∈I k∈I
I est vide, la somme est nulle et le produit vaut 1.

ZExemple : La famille des racines n es de l’unité est (e 2i kπ/n )k∈J0;n−1K , on peut donc écrire la somme et le
e 2i kπ/n et e 2i kπ/n .
P Q
produit ainsi :
k∈J0;n−1K k∈J0;n−1K

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 24 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Sommes et produits Chapitre 3 : Calculs algébriques

Définition 3.3 (lorsque I est un intervalle d’entiers)


Soit (a k )k∈I une famille de complexes indexée par un intervalle d’entiers I = Jn ; m K. La somme des
m
P m
Q
éléments de la famille est notée a k et le produit des éléments de la famille est noté a k . Par
k=n k=n

NE
convention, lorsque n > m, la somme est nulle et le produit vaut 1 (car dans ce cas l’intervalle Jn ; m K
est vide).

ZExemple : La famille des racines n es de l’unité est (e 2i kπ/n )k∈J0;n−1K , on peut donc écrire la somme et le
n−1 n−1
e 2i kπ/n et e 2i kπ/n .
P Q
produit ainsi :
k=0 k=0

Attention !
m
P
Dans la notation a k , il est implicite que l’indice k augmente de 1 lorsqu’on passe d’un terme au suivant
k=n
15
P
(idem pour le produit). Par exemple, la somme des entiers impairs de 1 à 15 ne s’écrit pas k (qui correspond à la
k=1
7

AIG
P
somme de tous les entiers de 1 à 15), mais 2k + 1.
k=0

Remarque 3.2 :
– Le terme a k est appelé terme général de la somme (ou produit), la valeur n est appelée valeur initiale de
l’indice et m la valeur finale.
– Dans les formules donnant la somme ou le produit, l’indice est une variable dite muette, on peut lui
donner le nom que l’on veut, le résultat ne dépend pas de l’indice.

Cas particuliers
m m
α = (m − n + 1)α et α = αm−n+1 si n 6 m.
P Q
– Terme général constant :
k=n k=n
– Sommes et produits télescopiques : soit (a k )k∈Jn;m+1K une famille de complexes, alors :
m m
P Q a k+1 a m+1
(a k+1 − a k ) = a m+1 − a n et si aucun terme ne s’annule, alors ak = an .
k=n k=n
– Sommes géométriques : somme de termes consécutifs d’une suite u géométrique de raison q ∈ C (i.e.
NT
∀k ∈ N, u k+1 = u k × q) :
( u −q×u
m n m
si q 6= 1
1−q
X
uk =
k=n (m − n + 1)u p sinon

p −q ×d
On retiendra la formule S = où p désigne le premier terme de la somme et d le dernier.
1−q
– Sommes arithmétiques : somme de termes consécutifs d’une suite u arithmétique de raison r ∈ C (i.e.
∀k ∈ N, u k+1 = u k + r ) :
Xm (m − n + 1)(u n + u m )
uk =
k=n 2

n(p + d )
MO

On retiendra la formule S = où p désigne le premier terme de la somme, d le dernier et n le


2
nombre de termes.

FExercice 3.1 Démontrer les deux formules ci-dessus.

2) Changement d’indice
Cas particuliers
Lorsque l’ensemble des indices est un intervalle d’entiers, les changements qui reviennent le plus souvent
m
P
dans les sommes a k (ou produits) sont les suivants (avec n 6 m) :
k=n
m
a k =, soit p ∈ Z, posons un nouvel indice k 0 = k + p (i.e.
P
– translation de l’indice : soit à calculer
k=n
k = k 0 − p), on a alors :
m
X m+p
X
ak = a k 0 −p
k=n k 0 =n+p

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 25 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Sommes et produits Chapitre 3 : Calculs algébriques
m+p
P m
P
En effet, a k 0 −p = a n + a n+1 + · · · + a m = ak .
k 0 =n+p k=n
m
a k =, soit p ∈ Z, posons un nouvel indice k 0 = p − k (i.e.
P
– symétrie de l’indice : soit à calculer
k=n
k = p − k 0 ) , on a alors :

NE
m
X p−n
X
ak = a p−k 0
k=n k 0 =p−m
p−n
P m
P
En effet, a p−k 0 = a m + a m−1 + · · · + a n = a n + a n+1 + · · · + a m = ak .
k 0 =p−m k=n

Attention !
n
P
Le nouvel indice doit également varier de 1 en 1. Considérons par exemple S = 2k = 2 + 4 + 6 + · · · + 2n, alors le
k=1
2n
changement d’indice k 0 = 2k n’est pas « valable », car k 0 = 2 + 3 + 4 + 5 + 6 + · · · + 2n 6= S.
P
k 0 =2

AIG
Formulation générale
Soit (a k )k∈I une famille finie de complexes indexée par I non vide, supposons qu’il existe une bijection
f : J → I (où J désigne un autre ensemble), par composition on a ainsi une autre famille, indexée par J, et qui
est (a f (k 0 ) )k 0 ∈J . La fonction f étant bijective les deux familles comportent exactement les mêmes termes à
l’ordre près, par conséquent la somme des termes des deux familles est la même, et le produit aussi (l’addition
et la multiplication étant commutatives) :
X X Y Y
ak = a f (k 0 ) et ak = a f (k 0 )
k∈I k 0 ∈J k∈I k 0 ∈J

On dit qu’on a fait le changement d’indice k = f (k 0 ) avec k 0 ∈ J.

FExercice 3.2 Résoudre dans C l’équation (1 − z)2n = (1 + z)2n et calculer le produit des solutions non nulles.

3) Propriétés
NT
Théorème 3.1
Soient α, a 1 , a 2 , . . . , a n , b 1 , . . . , b n , c 1 , . . . , c m des nombres complexes, p 6 q 6 n des entiers, on a :
- pour la somme :
q n n n n n n n
α × ak = α ×
P P P P P P P P
ak + ak = ak ; ak ; (a k + b k ) = ak + bk
k=p k=q+1 k=p k=p k=p k=p k=p k=p
- pour
à le produit
! Ã : ! Ã ! Ã !
q n n n n n n n
α × a k = αn−p+1 ×
Q Q Q Q Q Q Q Q
ak × ak = ak ; ak ; (a k × b k ) = ak × bk
k=p k=q+1 k=p k=p k=p k=p k=p k=p

Preuve : Celle-ci est simple et laissée en exercice. 


MO

4) Sommes doubles
Sur un rectangle
Soit (a k,l )(k,l )∈Jp;q K×Jn;m K une famille indexée par Jp ; q K × Jn ; m K où p 6 q et n 6 m sont des entiers. La
P P
somme de la famille est appelée somme double et notée a k,l = a k,l .
(k,l )∈Jp;q K×Jn;m K p 6k 6q
n 6l 6m
Disposons ces nombres dans un tableau en indexant les lignes de p et q, et les colonnes de n à m :

a p,n a p,n+1 ··· a p,m


a p+1,n a p+1,n+1 ··· a p+1,m
.. .. .. ..
. . . .
a q,n a q,n+1 ··· a q,m

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 26 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Sommes et produits Chapitre 3 : Calculs algébriques
m
P
La somme des nombres figurant sur la ligne k est S k = a k,n + a k,n+1 + · · · + a k,m =a k,l . Si maintenant

NE
l =n
q q m
µ ¶
P P P
nous faisons le total des sommes sur chaque ligne, nous obtenons S p + · · · + S q = Sk = a k,l , or ce
k=p k=p l =n
total représente la somme des nombres de la famille (car l’addition est commutative et associative), d’où :
à !
X q
X m
X
a k,l = a k,l
p 6k 6q k=p l =n
n 6l 6m

q
P
De même, la somme des nombres figurant sur la colonne l est Cl = a p,l + a p+1,l + · · · + a q,l = a k,l . Si
k=p
Pm
maintenant nous faisons le total des sommes sur chaque colonne, nous obtenons Cn + · · · + Cm = Cl =
à ! l =n
m
P q
P
a k,l , or ce total représente la somme des nombres de la famille (car l’addition est commutative et

AIG
l =n k=p
associative), d’où finalement :
à ! à !
X q
X m
X m
X q
X
a k,l = a k,l = a k,l
p 6k 6q k=p l =n l =n k=p
n 6l 6m

À retenir : produit de deux sommes simples


Soit (a k )k∈Jp;q K et (b l )l ∈Jn;m K deux familles alors :
q q
¶ Ã q !µ
m m m
µ ¶ µ ¶
P P P P P P P
ak bl = ak bl = ak bl = ak bl
p 6k 6 q k=p l =n k=p l =n k=p l =n
n 6l 6m

Sur un triangle
NT
Soit (a k,l )(k,l )∈A une famille indexée par A = {(k, l ) | 1 6 k 6 l 6 n} où n est un entier. La somme de la
P P
famille est notée a k,l = a k,l .
(k,l )∈A 1 6k 6l 6n
Disposons ces nombres dans un tableau en indexant les lignes de 1 à n :

a 1,1 a 1,2 ··· a 1,n


a 2,2 ··· a 2,2
.. ..
. .
a n,n
n
P
La somme des nombres figurant sur la ligne k est S k = a k,k + a k,k+1 + · · · + a k,n =
a k,l . Si maintenant
l =k
n n n
µ ¶
P P P
nous faisons le total des sommes sur chaque ligne, nous obtenons S 1 + · · · + S n = Sk = a k,l , or ce
k=1 k=1 l =k
total représente la somme des nombres de la famille (car l’addition est commutative et associative), d’où :
MO

à !
X n
X n
X
a k,l = a k,l
16k 6l 6n k=1 l =k

l
P
De même, la somme des nombres figurant sur la colonne l est Cl = a 1,l + a 2,l + · · · + a l ,l = a k,l . Si
k=1
Pn
maintenant nous faisons le total des sommes sur chaque colonne, nous obtenons C1 + · · · + Cn = Cl =
l =1
n l
µ ¶
P P
a k,l , or ce total représente la somme des nombres de la famille (car l’addition est commutative et
l =1 k=1
associative), d’où finalement :
à ! à !
X n
X n
X n
X l
X
a k,l = a k,l = a k,l
16k 6l 6n k=1 l =k l =1 k=1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 27 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Binôme de Newton Chapitre 3 : Calculs algébriques

II BINÔME DE NEWTON

1) Factorielle

Définition 3.4

NE
n
Soit n ∈ N∗ , on pose n! =
Q
k = 1 × 2 × · · · × n. Par convention, on pose 0! = 1.
k=1

ZExemple : 1! = 1, 2! = 2, 3! = 6, 4! = 24, ...

À retenir
∀n ∈ N, (n + 1)! = (n + 1) × n!

n
FExercice 3.3 Montrer que ∀ n ∈ N∗ , (n + 1)! = 1 +
P
k(k!).
k=1

AIG
2) Coefficients binomiaux

Définition 3.5
¡n ¢ n!
Soient n, p deux entiers positifs tels que p 6 n, on pose p = p!(n−p)! (lire p parmi n).

¡n ¢ ¡n ¢ ¡n ¢ n(n−1)
ZExemple : 0 = 1; 1 =n; 2 = 2 .
En simplifiant dans la formule n! avec (n − p)!, il reste :

À retenir : formule pour le calcul pratique


¡n ¢ n(n−1)···(n−p+1)
Si 1 6 p 6 n alors p = p! .
NT
¡x ¢ x(x−1)···(x−p+1)
Cette formule pratique permet d’étendre la définition à tout réel x (et p ∈ N) en posant : p = p!
¡x ¢
et 0 = 1.

Attention !
La fonction factorielle telle que nous l’avons définie, ne s’applique qu’à des entiers positifs.

Théorème 3.2 (propriétés)


Soient 0 6 p 6 n :
n
¡ ¢ ¡ n ¢
- n−p (symétrie).
p =
¡n+1 ¡n ¢
- p+1 = n+1
¢
p+1 p .
MO

- np + p+1
¡ ¢ ¡ n ¢ ¡n+1¢
= p+1 (relation de Pascal).

Preuve :¡La
¢ première formule découle directement¡n+1¢ de la définition.
n+1 n n+1 n! (n+1)!
p+1 p = p+1 (n−p)!p! = (n+1−(p+1))!(p+1)! = p+1 .
¡n ¢ ¡ n ¢ n!(p+1)+n!(n−p)
n! n! (n+1)!
= n+1
¡ ¢
p + p+1 = (n−p)!p! + (n−p−1)!(p+1)! = (n−p)(p+1)! = (n−p)!(p+1)! p+1 . 

Triangle de Pascal
La relation de Pascal permet de calculer les coefficients binomiaux de proche en proche dans un tableau :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 28 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Systèmes linéaires Chapitre 3 : Calculs algébriques

n\p 0 1 2 3 4 5 6 7 8
0 1
1 1 1
2 1 2 1

NE
3 1 3 3 1
4 1 4 6+ 4 1
=
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
7 1 7 21 35 35 21 7 1
8 1 8 28 56 70 56 28 8 1

3) Formule du binôme

Théorème 3.3
n ¡ ¢ n ¡ ¢
n n
Soient a, b ∈ C et n ∈ N, alors : (a + b)n = a k b n−k = a n−k b k .
P P

AIG
k k
k=0 k=0

Preuve : Par récurrence sur n : au rang 0 la formule donne 1 ce qui correspond bien à (a + b)0 . Si la formule est
démontrée au rang n, alors :

(a + b)n+1 = (a + b)(a + b)n = a(a + b)n + b(a + b)n


à ! à !
n n n n
k+1 n−k
a k b n+1−k
X X
= a b +
k=0 k k=0 k
à ! à !
n+1 n n n
p n+1−p
a k b n+1−k (changement d’indice p = k + 1 dans la première somme)
X X
= a b +
p=1 p − 1 k=0 k
à ! à !
n+1 n n n
k n+1−k
a k b n+1−k
X X
= a b +
k=1 k − 1 k=0 k
"Ã ! Ã !#
n n n
n+1 n+1
a k b n+1−k (on regroupe les sommes sur J1 ; n K)
X
NT
=a +b + +
k=1 k −1 k
à !
n n +1
n+1 n+1
a k b n+1−k (relation de Pascal)
X
=a +b +
k=1 k
à !
n+1
X n + 1 k n+1−k
= a b (formule au rang n + 1)
k=0 k

La formule est donc établie pour tout n ∈ N. 


ZExemples :
n ¡ ¢
n
= (1 + 1)n = 2n .
P
– k
k=0
MO

n ¡n ¢ n ¡n−1¢
= n2n−1 .
P P
– Si n > 1, k k = n k−1
k=1 k=1
n ¡ ¢ p
n
cos(k π3 ) = Re([1 + e i π/3 ]n ) = 3n cos(n π6 ).
P
– k
k=0

III SYSTÈMES LINÉAIRES

1) Définition

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 29 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Systèmes linéaires Chapitre 3 : Calculs algébriques

Définition 3.6
Un système (S) linéaire à n équations et p inconnues est un système d’équations de la forme :

 a 1,1 x 1 + a 1,2 x 2 + · · · + a 1,p x p
 = b1
.. ..

NE
(S) . .


a n,1 x 1 + a n,2 x 2 + · · · + a n,p x p = bn

où x 1 , . . . , x p sont des nombres inconnus, b 1 , . . . , b n sont des nombres donnés (appelés seconds
membres) et la famille de nombres (a i , j )(i , j )∈J1;n K×J1;p K est donnée (ce sont les coefficients, on dit
qu’ils forment la matrice du système).
Résoudre (S) c’est trouver tous les p-uplets de nombres (x 1 , . . . , x p ) vérifiant (S). Deux systèmes sont
dits équivalents si et seulement si ils ont les mêmes solutions.

Codage
Les différentes équations d’un système linéaire sont notées du haut vers le bas L1 , L2 , . . . , Ln :

AIG

 a 1,1 x 1 + a 1,2 x 2 + · · · + a 1,p x p = b 1 (L1 )

.. ..
(S) . .


a n,1 x 1 + a n,2 x 2 + · · · + a n,p x p = b n (Ln )
Les différentes colonnes du système sont notées de gauche à droite C1 , C2 , . . . , Cp .

2) Interprétation géométrique
Lorsque p = 2 : si les coefficients a i ,1 et a 1,2 ne sont pas nuls simultanément, alors l’équation a i ,1 x 1 +
a i ,2 x 2 = b i peut être interprétée comme l’équation d’une droite Di dans un plan muni d’un repère (O, → −
ı ,→− ),
les solutions étant les coordonnées des points M(x 1 , x 2 ) de la droite Di . Résoudre (S) revient alors à chercher
un point commun à plusieurs droites, c’est à dire D1 ∩ · · · ∩ Dn . Dans le cas où n = 2, il y a trois cas possibles :
– Soit D1 et D2 sont sécantes et alors le système a une unique solution.
– Soit D1 et D2 sont confondus et alors les solutions du système sont les coordonnées des points de D1 .
– Soit D1 et D2 sont strictement parallèles et alors il n’y a pas de solutions au système.
NT
Lorsque p = 3 : si les coefficients a i ,1 , a 1,2 et a i ,3 ne sont pas nuls simultanément, alors l’équation
a i ,1 x 1 + a i ,2 x 2 + a i ,3 x 3 = b i peut être interprétée comme l’équation d’un plan P i dans un plan muni d’un
repère (O, → −
ı ,→ − , →

k ), les solutions étant les coordonnées des points M(x , x , x ) du plan P . Résoudre (S)
1 2 3 i
revient alors à chercher un point commun à plusieurs plan c’est à dire P 1 ∩ · · · ∩ P n . Dans le cas où n = 2, il y
a trois cas possibles :
– Soit P 1 et P 2 sont confondus et alors les solutions du système sont les coordonnées des points de P 1 .
– Soit P 1 et P 2 sont strictement parallèles et alors il n’y a pas de solutions au système.
– Soit P 1 et P 2 se coupent suivant une droite D1,2 . S’il y a une troisième équation, il s’agit ensuite
d’étudier l’intersection D1,2 ∩ P 3 , il y a plusieurs cas :
• Soit la droite coupe le plan en un point I et ses coordonnées forment l’unique solution du système.
• Soit la droite est incluse dans le plan et l’intersection est la droite.
MO

• Soit la droite est strictement parallèle au plan et il n’y a pas de solution.

3) Méthode du pivot de Gauss


Systèmes triangulaires
Un système linéaire (S) est dit triangulaire lorsque les coefficients situés sous la diagonale principale
(les coefficients a i , j avec i > j ) sont nuls. Lorsqu’un système triangulaire a ses coefficients diagonaux non
nuls, on le résout par substitutions remontantes. Exemple :
  
x + 2y − z + t = 1
 x + 2y − z + t = 1
 x + 2y − z + t = 1

y − z + 2t = 0 ⇐⇒ y − z + 2t = 0 ⇐⇒ y = z − 2t = 1 − 3t

 
 

z +t =1 z = 1−t z = 1−t

x = 1 − 2y + z − t = 4t

⇐⇒ y = 1 − 3t


z = 1−t

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 30 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Systèmes linéaires Chapitre 3 : Calculs algébriques

L’ensemble des solutions est donc {(4t , 1 − 3t , 1 − t , t ) | ∈ R}. Sur cet exemple, on voit que l’inconnue t peut-
être quelconque et que les autres s’écrivent en fonction de t . On dit que t est une inconnue auxiliaire et que
x, y, z sont les inconnues principales.

Opérations élémentaires

NE
Les opérations élémentaires de la méthode de Gauss sont :
– L’échange de deux équations Li et L j avec i 6= j , notée Li ↔ L j , elle transforme le système en un
système équivalent car le connecteur « et » est commutatif.
– L’échange de deux colonnes Ci et C j avec i 6= j , notée Ci ↔ C j , elle transforme le système en un
système équivalent car l’addition est commutative.
– Multiplier une ligne Li par un nombre α non nul, notée Li ← αLi , elle transforme le système en un
système équivalent car la nouvelle équation Li est équivalente à l’ancienne puisque α 6= 0.
– Ajouter à une ligne Li un multiple d’une autre ligne L j (i 6= j ), elle notée Li ← Li + λL j , elle transforme
le système en un système équivalent car l’opération Li ← Li − λL j nous permet de revenir à l’ancien
système.

À retenir

AIG
La méthode du pivot de Gauss consiste à transformer, avec des opérations élémentaires, le système
linéaire initial (S) en un système équivalent triangulaire dont les coefficients diagonaux sont non nuls.

La méthode est une succession d’étapes, voici le descriptif de l’étape k, celle-ci se déroule en trois temps :
1. On choisit un coefficient non nul dans les lignes Lk à Ln et les colonnes Ck à Cp . Ce coefficient sera
appelé le pivot de l’étape k (noté p k ), pour les calculs à la main on essaie de choisir si possible un
coefficient égal à 1 ou −1.
2. On amène le pivot p k à sa place, c’est à dire ligne Lk et colonne Ck , il peut être nécessaire pour cela
d’échanger deux lignes et/ou deux colonnes.
3. On « élimine » les coefficients situés sous le pivot dans les lignes Lk+1 à Ln avec des opérations du type
Li ← Li + λLk , c’est à dire qu’à chaque ligne (sous celle du pivot) on ajoute un certain nombre de fois la
ligne du pivot pour faire disparaître le coefficient qui est dans la colonne du pivot, ceci est possible en
NT
a
faisant Li ← Li − pi k,k Lk si a i ,k est le coefficient de la ligne i et colonne k.
À l’issue de l’étape k on obtient un système de la forme :


 p 1 x1 + a 1,2 x 2 + ··· ··· ··· +a 1,p x p = b1
p 2 x2 + ··· ··· ··· +a 2,p x p = b2




.. .. ..


.



 . .
p k xk + ··· · · · +a k,p x p = bk ,



 a k+1,k+1 x k+1 + · · · +a k+1,p x p = b k+1
.. .. ..



. . .




a n,k+1 x k+1 + · · · +a n,p x p = bn

MO

La méthode s’arrête à l’issue de l’étape k lorsqu’on est arrivé à la dernière ligne, ou bien lorsqu’il n’est
plus possible de trouver un pivot parce que tous les coefficients des lignes Lk+1 à Ln et des colonnes Ck+1 à
Cp sont nuls. On peut alors procéder aux substitutions remontantes.
Exemple
 :

 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1

3x 1 + 6x 2 − 2x 3 + 5x 4 + 9x 5 = 0

(S)


 7x 1 + 18x 2 − 2x 3 + 7x 4 + 7x 5 = 2
2x 1 + 4x 2 − 2x 3 + 3x 4 + x 5 = −1

Étape1 :

 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1

3x 2 + 5x 3 − 2x 4 + 12x 5 = −3 L2 ← 2L2 − 3L1

⇐⇒


 15x 2 + 17x 3 − 14x 4 = −3 L3 ← 2L3 − 7L1
x 2 + x 3 − x 4 − x 5 = −2 L4 ← L4 − L1

Étape 2 (L2 ↔ L4 ) :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 31 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 3 : Calculs algébriques


 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1

x2 + x3 − x4 − x5 = −2 L2 ← L4

⇐⇒


 15x 2 + 17x 3 − 14x 4 = −3
3x 2 + 5x 3 − 2x 4 + 12x 5 = −3 L4 ← L2

NE

 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1

x2 + x3 − x4 − x5 = −2

⇐⇒


 2x 3 + x 4 + 15x 5 = 27 L3 ← L3 − 15L2
2x 3 + x 4 + 15x 5 = 3 L4 ← L4 − 3L2

Étape3 :


 2x 1 + 3x 2 − 3x 3 + 4x 4 + 2x 5 = 1
x2 + x3 − x4 − x5



 = −2
⇐⇒ 2x 3 + x 4 + 15x 5 = 27

0 = −24 L4 ← L4 − L3






On voit donc que le système n’a pas de solution.

AIG
 (1 − λ)x − y + z = 0


FExercice 3.4 Résoudre en fonction du paramètre λ le système −x + (1 − λ)y − z = 0 .

x − y + (1 − λ)z = 0

IV SOLUTION DES EXERCICES

Solution 3.1
1/ Pour la suite arithmétique de raison r , si le premier terme est p, alors le suivant est p + r , puis p + 2r , etc, et le dernier
est d = p + (n − 1)r , la somme s’écrit alors S = np + r × (1 + 2 + · · · + (n − 1)), or 1 + 2 + · · · + (n − 1) = n(n−1)
2 (cela peut
n(2p+r (n−1) n(p+d )
se vérifier par récurrence), d’où S = np + nr (n−1)
2 = 2 = 2 .
2/ Pour la suite géométrique de raison q, si le premier terme est p, alors le suivant est pq, puis pq 2 , etc, et le dernier est
d = pq n−1 , la somme s’écrit alors S = p × (1 + q + q 2 + · · · + q n−1 ), or (1 − q) × (1 + q + q 2 + · · · + q n−1 ) = 1 − q n après
1−q n p−qd
simplifications, donc si q 6= 1 alors 1 + q + q 2 + · · · + q n−1 = et donc S = 1−q , par contre, si q = 1, alors tous les
NT
1−q
termes de la somme sont égaux à p et dans ce cas, S = np.



ei
¡ 1+z ¢2n 1+z
= ei
n −1
Solution 3.2 L’équation équivaut à = 1, ou encore n avec k ∈ J0 ; 2n − 1K, ce qui donne z = ou
1−z 1−z i kπ
e n +1
encore z = i tan( kπ
2n ) avec k
∈ J0 ; n − 1K ∪ Jn + 1 ; 2n − 1K.
n−1 2n−1
i tan( kπ i tan( kπ
Q Q
Le produit des solutions non nulles est P = 2n ) × 2n ), en posant q = k − n dans le deuxième
k=1 k=n+1
n−1 n−1
i tan( kπ − i qπ , d’où P = i n−1 × (−1)n−1 × i n−1
Q Q
produit, on obtient P = 2n ) × = 1.
k=1 q=1 tan( 2n )

Solution 3.3 C’est une récurrence sur n. Pour n = 1 la somme vaut 1 + 1 = 2 qui est bien (1 + 1)!. Soit n ∈ N∗ , supposons la
n+1
P n
P
propriété vraie au rang n, alors 1+ k(k!) = 1+ k(k!)+(n +1)((n +1)!) = (n +1)!+(n +1)(n +1)! = (n +1)![1+n +1] =
MO

k=1 k=1
(n + 2)!, la relation est donc vérifiée au rang n + 1.

 (1 − λ)x − y + z = 0


Solution 3.4 Notons (S λ ) le système −x + (1 − λ)y − z = 0 , alors :

x − y + (1 − λ)z = 0

 z − y + (1 − λ)x = 0  z − y + (1 − λ)x = 0
 
 
(S λ ) ⇐⇒ −z + (1 − λ)y − x = 0 ⇐⇒ −λy − λx = 0 L2 ← L2 + L1
 
(1 − λ)z − y + x = 0 −λy + λ(2 − λ)x = 0 L3 ← L3 + (λ − 1)L1
 

Si λ = 0 : le système se réduit à une équation z − y + x = 0 d’où y = z + x avec z et x quelconques.


z − y + (1 − λ)x = 0 z − y + (1 − λ)x = 0
 
 
Lorsque λ 6= 0 : (S λ ) ⇐⇒ y + x = 0 ⇐⇒ y +x =0
 
y + (λ − 2)x = 0 (λ − 3)x = 0 L3 ← L3 − L2
 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 32 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 3 : Calculs algébriques

Si λ ∉ {0; 3} alors l’unique solution est (0, 0, 0).


Si λ = 3 : alors x est quelconque, y = −x et z = y + 2x = x.

NE
AIG
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 33 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 4

Généralités sur les fonctions

Sommaire
I Rappels et compléments sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

AIG
1) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2) Opérations sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
II Continuité, dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2) Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3) Plan d’étude d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
III Primitives, intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2) Calculs d’intégrales et de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3) Primitives de certaines fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . 41
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

Dans ce chapitre, les fonctions considérées sont définies sur un intervalle non trivial de R.
NT
I RAPPELS ET COMPLÉMENTS SUR LES FONCTIONS

Rappels :
a) Deux fonctions sont égales lorsqu’elles ont le même ensemble de départ, le même ensemble d’arrivée,
et le même graphe.
b) Si f : I → R est une fonction, on appelle « image de f », l’ensemble noté f (I) et défini par :

f (I) = {y ∈ R / ∃ x ∈ I, f (x) = y},

c’est l’ensemble des images par f des éléments de I.

1) Vocabulaire
MO

– Représentation graphique : soit P un plan muni d’un répère (O, → −ı ,→


− ), la représentation graphique de
f est l’ensemble C f = M(x, f (x)) | x ∈ I . On dit que y = f (x) est une équation de la courbe représen-
© ª

tative de f car M(x; y) ∈ C f ⇐⇒ y = f (x).


– Sens de variation : soit f : I → R une fonction, on dit que f est :
• constante sur I lorsque : ∀ x, y ∈ I, f (x) = f (y).
• croissante sur I lorsque : ∀ x, y ∈ I, x 6 y =⇒ f (x) 6 f (y).
• strictement croissante sur I lorsque : ∀ x, y ∈ I, x < y =⇒ f (x) < f (y).
• décroissante sur I lorsque : ∀ x, y ∈ I, x 6 y =⇒ f (x) > f (y).
• strictement décroissante sur I lorsque : ∀ x, y ∈ I, x < y =⇒ f (x) > f (y).
• monotone sur I lorsque : f est ou bien croissante ou bien décroissante.
• strictement monotone sur I lorsque : f est ou bien strictement croissante ou bien strictement
décroissante.

FExercice 4.1 Étudier le sens de variation de la composée de deux fonctions monotones, puis de la somme, puis du
produit.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 34 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Rappels et compléments sur les fonctions Chapitre 4 : Généralités sur les fonctions

– Bornée : soit f : I → R une fonction, on dit que f est :


• majorée sur I lorsqu’il existe un réel M tel que ∀ x ∈ I, f (x) 6 M. Si c’est le cas, la courbe de f est sous
la droite y = M.
• minorée sur I lorsqu’il existe un réel m tel que ∀ x ∈ I, f (x) > m. Si c’est le cas, la courbe de f est
au-dessus la droite y = m.

NE
• bornée sur I lorsque f est à la fois minorée et majorée, ce qui équivaut à : | f | est majorée.
– Parité : soit f : I → R une fonction, on dit que f est :
• paire lorsque : ∀ x ∈ I, −x ∈ I et f (−x) = f (x). Dans ce cas la courbe représentative de f admet l’axe
des ordonnées comme axe de symétrie.
Plus généralement, si ∀ x ∈ I, 2a − x ∈ I et f (2a − x) = f (x), alors la courbe de f admet la droite
d’équation x = a comme axe de symétrie.
• impaire lorsque : ∀ x ∈ I, −x ∈ I et f (−x) = − f (x). Si c’est le cas, alors la courbe de f admet un centre
de symétrie, l’origine du repère.
Plus généralement, si ∀ x ∈ I, 2a − x ∈ I et f (2a − x) = 2b − f (x), alors la courbe de f admet le point
A(a, b) comme centre de symétrie.
– Périodicité : soit f : I → R une fonction et soit a ∈ R∗ , on dit que a est une période de f lorsque :

AIG
∀ x ∈ I, x ± a ∈ I et f (x + a) = f (x). Si c’est le cas, le courbe de f est invariante par les translations


de vecteurs na i où n ∈ Z. Si f est périodique, on appelle période fondamentale de f la plus petite
période strictement positive si elle existe.

FExercice 4.2 Soit f : I → R une fonction


© périodique, on note
G f = T ∈ R | ∀x ∈ I, x + T ∈ I, x − T ∈ I, f (x + T) = f (x)
ª

Montrer que (G f , +) est un groupe (appelé groupe des périodes de f ). Lorsque f admet une période fondamentale a,
montrer que G f = aZ.
– Extremum global : on dit que f : I → R admet un :
• maximum global en x 0 ∈ I lorsque : ∀ x ∈ I, f (x) 6 f (x 0 ). Si c’est le cas, on pose f (x 0 ) = max f (x).
x∈I
• minimum global en x 0 ∈ I lorsque : ∀ x ∈ I, f (x) > f (x 0 ). Si c’est le cas, on pose f (x 0 ) = min f (x).
x∈I

Attention !
Une fonction même bornée n’a pas forcément de maximun ou de minimum. Par exemple, la fonction
arctan a pour ensemble image Im(arctan) =] − π2 ; π2 [, la fonction est donc bornée mais n’a ni maximum, ni
NT
minimum.

2) Opérations sur les fonctions


L’ensemble des fonctions de I vers R est noté F (I, R).

Définition 4.1
Soient f , g ∈ F (I, R) et soit λ ∈ R, on pose :
– f + g la fonction de I vers R définie par : ∀ x ∈ I, ( f + g )(x) = f (x) + g (x).
– f × g la fonction de I vers R définie par : ∀ x ∈ I, ( f × g )(x) = f (x)g (x).
– λ. f la fonction de I vers R définie par : ∀ x ∈ I, (λ. f )(x) = λ f (x).
MO

Propriétés
a) Pour l’addition :
– elle est commutative, associative,
– elle admet un élément neutre : la fonction nulle (notée 0),
– toute fonction f de I vers R admet un opposé qui est la fonction − f : x 7→ − f (x),

donc (F (I, R), +) est un groupe abélien.

b) Pour le produit par un réel : si f , g ∈ F (I, R) et α, β ∈ R :


– 1. f = f ,
– (α + β). f = α. f + β. f ,
– α.( f + g ) = α. f + α.g ,
– α.(β. f ) = (αβ). f ,

donc (F (I, R), +, .) est un R - espace vectoriel.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 35 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Continuité, dérivabilité Chapitre 4 : Généralités sur les fonctions

c) Pour la multiplication :
– elle associative, commutative,
– elle possède un élément neutre, la fonction constante qui à x donne 1 (notée 1),
– elle est distributive sur l’addition,
– seules les fonctions f qui ne s’annulent jamais ont un inverse (la fonction 1f ).

NE
donc (F (I, R), +, ×) n’est pas un corps, mais seulement un anneau commutatif, celui - ci n’est pas
intègre, par exemple χQ × (1 − χQ ) = 0.

Définition 4.2 (fonctions max et min)


Soient f , g : I → R deux fonctions, on pose max( f , g ) et min( f , g ) les fonctions de I vers R définies
par : ∀ x ∈ I, max( f , g )(x) = max( f (x), g (x)) et min( f , g )(x) = min( f (x), g (x)). En particulier on pose
f + = max( f , 0) et f − = max(− f , 0), on a alors f + − f − = f et f + + f − = | f |.

f +g +| f −g | f +g −| f −g |
FExercice 4.3 Montrer que max( f , g ) = 2 et que min( f , g ) = 2 .

AIG
II CONTINUITÉ, DÉRIVABILITÉ

1) Continuité

Définition 4.3
- Une fonction f : I → R est continue en x 0 ∈ I, lorsque lim f (x) = f (x 0 ).
x→x 0
- On dit que f est continue sur I si elle est continue en tout point de I, et l’ensemble des fonctions
continues sur I est noté C 0 (I, R).

Remarque 4.1 :
– Si f a une limite à gauche en x 0 égale à f (x 0 ), on dit que f est continue à gauche en x 0 .
– Si f a une limite à droite en x 0 égale à f (x 0 ), on dit que f est continue à droite en x 0 .
NT
– Si f est continue à gauche et à droite en x 0 , alors f est continue en x 0 .

Définition 4.4 (prolongement par continuité)


Soit a ∈ I, si f est définie sur I \ {a} et si f a une limite finie ` en a, alors la fonction f˜ : I → R définie
(
˜ f (x) si x 6= a
par f (x) = , est appelée prolongement de f par continuité en a.
` si x = a

1
ZExemple : La fonction f définie sur R∗ par f (x) = e − x 2 admet un prolongement par continuité en 0 car f a
une limite finie (égale à 0 ici) en 0.
MO

Théorème 4.1 (théorèmes généraux)


• Les fonctions usuelles vues jusque là, sont continues sur leur ensemble de définition.
• Si f , g : I → R sont continues sur I alors les fonctions f + g , f × g , λ. f (λ ∈ R) sont continues sur I.
• Si f : I → R est continue sur I et ne s’annule pas, alors 1f est continue sur I.
• Si f : I → R est continue sur I, si g : J → R est continue sur J, et si f (I) ⊂ J, alors la composée g ◦ f est
continue sur I.

FExercice 4.4 Étudier la continuité de la fonction f définie par f (x) = |x ln(|x|)|.

Théorème 4.2 (théorème des valeurs intermédiaires)


Si f est continue sur l’intervalle I, alors l’ensemble f (I) est un intervalle de R. Plus précisément,
soient a, b ∈ I, pour tout réel α compris entre f (a) et f (b), il existe un réel c compris entre a et b tel
que f (c) = α.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 36 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Continuité, dérivabilité Chapitre 4 : Généralités sur les fonctions

Théorème 4.3 (image d’un segment)


Si f est continue sur un segment [a; b] ( avec a < b), alors f a un maximum (M) et un minimum (m).
On a donc f ([a; b]) = [m; M].

NE
Attention !
Une fonction continue sur un intervalle peut être majorée (ou minorée) sans avoir de maximum (ou de minimum).
Par exemple, la fonction x 7→ x1 est continue sur ]0 ; +∞[, elle est minorée (par 0) mais n’a pas de minimum. La
fonction x 7→ x et continue sur [0 ; 1[, majorée, mais n’a pas de maximum.

Théorème 4.4 (de la bijection continue)


Si f : I → R est continue sur l’intervalle I et est strictement monotone sur I, alors elle réalise une
bijection entre I et f (I) (tout élément de f (I) a un unique antécédent par f dans I). De plus, la
bijection réciproque est continue sur l’intervalle f (I). Dans un repère orthonormé, la courbe de la
réciproque est l’image de la courbe de f par la symétrie orthogonale par rapport à la droite d’équation

AIG
y = x.

Remarque 4.2 – Ce théorème sera exploité dans le prochain chapitre pour définir de nouvelles fonctions.

2) Dérivation

Définition 4.5
f (x)− f (x )
Une fonction f : I → R est dérivable en x 0 ∈ I, lorsque le taux d’accroissement x−x0 0 admet une
limite finie en x 0 . Si c’est le cas, cette limite est notée f 0 (x 0 ) et appelée nombre dérivé de f en x 0 , et
dans le plan muni d’un repère, la droite d’équation y = f 0 (x 0 )(x − x 0 ) + f (x 0 ) est appelé tangente à la
courbe C f au point d’abscisse x 0 .
NT
Attention !
Les fonctions usuelles vues jusque là sont dérivables sur leur ensemble de définition SAUF :
- La valeur absolue qui n’est pas dérivable en 0.
- La racine carrée qui pas dérivable en 0.

Théorème 4.5 (théorèmes généraux)


• Si f est dérivable en x 0 alors f est continue en x 0 (réciproque fausse).
• Si f , g : I → R sont dérivables sur I alors les fonctions f + g , f × g , λ. f (λ ∈ R) sont dérivables sur I, et
on a les formules de dérivation :
( f + g )0 = f 0 + g 0 ; ( f g )0 = f 0 g + f g 0 ; (λ f )0 = λ f 0 .
• Si f : I → R est dérivable sur I et ne s’annule pas, alors 1f est dérivable sur I, et on a la formule :
MO

³ ´0
1 −f 0
f = f2 .
• Si f : I → R est dérivable sur I, si g : J → R est dérivable sur J, et si f (I) ⊂ J, alors la composée g ◦ f est
dérivable sur I, et on a la formule :
(g ◦ f )0 = f 0 × g 0 ◦ f (ou encore [g ( f )]0 = f 0 × g 0 ( f )).

³ ´0
f f f 0g −f g 0
Remarque 4.3 – Si f et g sont dérivables et si g ne s’annule pas, alors g est dérivable et g = g2
.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 37 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Continuité, dérivabilité Chapitre 4 : Généralités sur les fonctions

Fonction Dérivée

u α (α constant) αu 0 u α−1
p u0
u p
2 u

NE
u0
ln(|u|) u

eu u0e u

sin(u) u 0 cos(u)

cos(u) −u 0 sin(u)
u0
tan(u) u 0 (1 + tan2 (u)) = cos2 (u)

sh(u) u 0 ch(u)

ch(u) u 0 sh(u)

AIG
p1 x p
FExercice 4.5 Calculer la dérivée (si elle existe) des fonctions suivantes : 1
1+x 2
;e x ; cos3 ( ex ) ; ln(x + 1 + x 2 ).

Théorème 4.6 (de la bijection dérivable)


Si f : I → R est continue, dérivable sur l’intervalle I et est strictement monotone sur I, alors elle réalise
une bijection entre I et f (I). On sait déjà que la bijection réciproque est continue sur l’intervalle f (I).
Si de plus la dérivée de f n’annule pas sur I, alors la bijection réciproque (notée f −1 ) est dérivable sur
¢0
f (I), et on a la formule : f −1 = f 0 ◦1f −1 .
¡

Théorème 4.7 (sens de variation)


• Une fonction dérivable f sur un intervalle I est constante si et seulement si sa dérivée est nulle sur I.
• Si f est dérivable sur un intervalle I et f 0 > 0 (respectivement f 0 6 0 alors f est croissante sur I
(respectivement décroissante), et si de plus f 0 ne s’annule pas, alors la monotonie de f est stricte.
NT
3) Plan d’étude d’une fonction
Ensemble de définition, ensemble d’étude

– D f est l’ensemble des réels de l’ensemble de départ ayant une image par f .
– Si D f est symétrique par rapport à un réel a, il se peut que la courbe de f présente une symétrie :
• un axe d’équation x = a lorsque ∀ x ∈ D f , f (2a − x) = f (x).
• un centre de symétrie de coordonnées (a, b) lorsque ∀ x ∈ D f , f (2a − x) = 2b − f (x).
Dans les deux cas, on peut restreindre l’étude à D f ∩ [a ; +∞[.
– S’il existe un réel T > 0 tel que : ∀ x ∈ D f , x ± T ∈ D f , f (x + T) = f (x), alors f est T-périodique. On peut
restreindre l’étude à un intervalle de longueur une période : D f ∩ [a ; a + T[ (a peut être quelconque),
on complète ensuite la courbe avec les translations de vecteurs nT→ −ı , n ∈ Z.
MO

Prolongements éventuels aux bords

Il se peut que f admette un prolongement par continuité aux bornes (finies) de D f . C’est un calcul de
limite, si celle-ci existe dans R, alors il y a un prolongement. Si celle-ci est infinie, alors il y a une asymptote
verticale.
S’il y a un prolongement, on étudie la fonction prolongée, ce qui change l’ensemble de définition.

Continuité, dérivabilité

– On cherche à appliquer les théorèmes généraux, pour cela il faut regarder comment est faite la fonction
(somme, produit, composée...).
– Il reste parfois des points où ces théorèmes ne s’appliquent as, on étudie alors la continuité en revenant
à la définition (calcul de limite). S’il y a continuité, alors on étudie s’il y a dérivabilité en ce même
point, il y a plusieurs méthodes : le théorème sur la limite de la dérivée, ou la définition (limite du taux
d’accroissement).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 38 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Primitives, intégrales Chapitre 4 : Généralités sur les fonctions

Sens de variation

On rappelle que le théorème qui donne le sens de variation en fonction du signe de la dérivée, n’est
valable que sur un intervalle.
– On peut parfois éviter l’étude du signe de la dérivée : sens de variation d’une somme, d’une composée,
p

NE
d’un produit... Par exemple, les fonctions ln(u), u, e u ont le même sens de variation que u.
– Lorsqu’on ne peut pas faire autrement, on étudie le signe de la dérivée (sur un intervalle).
– Les résultats sont consignés dans le tableau des variations, où doivent figurer :
• l’ensemble d’étude,
• les valeurs particulières qui sont intervenues dans l’étude de la continuité, la dérivabilité et l’étude
du signe de la dérivée,
• le signe de la dérivée (si on est passé par là),
• les limites aux bornes de l’ensemble d’étude.

Étude des branches infinies

C f désigne la courbe de f dans un repère orthogonal.

AIG
– Si x 0 est un réel de D f ou une borne et si f a une limite infinie en x 0 , alors on dit que C f admet une
asymptote verticale d’équation x = x 0 .
– Si ∞ est une borne de D f , et si lim f = ` ∈ R, alors on dit que C f admet une asymptote horizontale

d’équation y = `.

Représentation graphique

– On commence par placer : les asymptotes, les tangentes remarquables, les points particuliers (anguleux,
de rebroussement, d’intersection avec les axes...),
– On donne ensuite l’allure de la courbe d’après le tableau de variation. Il est parfois nécessaire d’étudier
la position de la courbe par rapport à certaines tangentes ou asymptotes.

III PRIMITIVES, INTÉGRALES


NT
1) Généralités

Définition 4.6
Soit F, f : I → R deux fonctions, on dit que F est une primitive de f sur I lorsque F est dérivable sur I et
F0 = f .

Théorème 4.8
• Si F et G sont deux primitives de la fonction f sur l’intervalle I, alors il existe une constante α ∈ C
telle que : ∀ t ∈ I, F(t ) = G(t ) + α.
• Si f admet des primitives sur l’intervalle I, si x 0 ∈ I et a ∈ R, alors il existe une unique primitive F de
MO

f sur I telle que F(x 0 ) = a.

Preuve : On a F0 = G0 = f , d’où (F − G)0 = 0 la fonction nulle, ce qui entraîne que la fonction F − G est constantes sur
l’intervalle I. 
Le théorème clé que nous établirons dans le chapitre sur l’intégration dit la chose suivante :

À retenir
Toute fonction f : I → R continue sur un intervalle I, admet des primitives sur cet intervalle.

Les primitives usuelles se lisent dans le tableau des dérivées usuelles, en faisant une lecture de droite à
gauche.
p
FExercice 4.6 Déterminer une primitive (en précisant l’intervalle) de : x 7→ tan(x) ; x 7→ tan2 (x) ; x 7→ x 1 + x 2 ; x 7→ ln(x)
x .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 39 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Primitives, intégrales Chapitre 4 : Généralités sur les fonctions

2) Calculs d’intégrales et de primitives


Rappel
Si f : I → R est continue sur l’intervalle I, si F est une primitive de f sur I alors pour tous réels a et b de I,
Z b
f (t ) dt = [F(t )]ba = F(b) − F(a) .

NE
on a
a

Propriétés à bien connaître


Soient f , g : I → R continues sur l’intervalle I, et a, b ∈ I :
Z a Z b Z a
a) f (t ) dt = − f (t ) dt et f (t ) dt = 0.
b a a
Z a Z b Z b
b) [α f (t ) + βg (t )] dt = α f (t ) dt + β g (t ) dt , c’est la linéarité de l’intégrale.
b a a
Z b
c) Si 0 6 f sur [a; b] (avec a 6 b), alors 0 6 f (t ) dt , c’est la positivité de l’intégrale. On en déduit que si
Z b a Z b
f 6 g sur [a; b] (avec a 6 b) alors f (t ) dt 6 g (t ) dt (c’est la croissance de l’intégrale).

AIG
a a
Z b Z c Z b
d) Si a, b, c sont dans I, alors f (t ) dt = f (t ) dt + f (t ) dt , c’est la relation de Chasles pour l’inté-
a a c
grale.
b b
¯Z ¯ Z
¯ ¯
e) Si a 6 b alors ¯¯ f (t ) dt ¯¯ 6 | f (t )| dt , c’est la majoration en valeur absolue de l’intégrale.
a a

¯R ¯
¯ 1 tn 2
FExercice 4.7 Montrer que ¯ dt ¯ 6 n+1 .
¯
−1 1+t 2

Théorème 4.9
Si f : I → R est continue sur I, si λ ∈ R et x 0 ∈ I, alors l’unique primitive de f sur I qui prend la valeur λ
Rx
en x 0 est la fonction F définie par : ∀x ∈ I, F(x) = λ + x0 f (t ) dt .
NT
Preuve : Soit G une primitive de f sur I, on a F(x) = λ + G(x) − G(x 0 ) = G(x) + λ − G(x 0 ), donc F est une primitive de f
car λ − G(x 0 ) est une constante, et F(x 0 ) = λ. 
Les deux outils fondamentaux pour le calcul d’intégrales, sont : le théorème de l’intégration par parties et
le théorème du changement de variable dont voici les énoncés :

Théorème 4.10 (IPP)


Si f et g sont dérivables sur I avec leur dérivée continue, alors on a la formule d’intégration par
Z b Z b
¤b
f 0 (t )g (t ) dt = f (t )g (t ) a − f (t )g 0 (t ) dt .
£
parties (IPP) :
a a

Preuve : Celle-ci est simple et laissée en exercice. 


MO

Théorème 4.11 (changement de variable)


Soit f : I → R une fonction continue, u : [a; b] → I une fonction dérivable à dérivée continue, on a :
Z b Z u(b)
0
f (u(t ))u (t ) dt = f (x) dx
a u(a)

Z b
Preuve : Soit F une primitive de f sur I, alors F ◦ u est une primitive de u f (u) et donc 0
f (u(t ))u 0 (t ) dt = [F(u)]ba =
Z u(b) a

F(u(b)) − F(u(a)) = f (x) dx. 


u(a)

Dans la pratique on rédige ainsi : posons x = u(t ) alors dd xt = u 0 (t ) d’où d x = u 0 (t )d t et f (x) = f (u(t )).
Pour les bornes : lorsque t = a on a x = u(a) et pour t = b on a x = u(b), puis on remplace dans l’intégrale, ce
Z b Z u(b)
0
qui donne : f (u(t ))u (t ) dt = f (x) dx.
a u(a)
ZExemples :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 40 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Primitives, intégrales Chapitre 4 : Généralités sur les fonctions
Z 1p
– Calculer 1 − x 2 dx. On pose x = sin(t ) avec t ∈ [0; π2 ], alors d x = cos(t )d t , pour t = 0 on a x = 0 et
0
π
pour t = 2 on a x = 1, d’où :
Z 1p Z π/2 q
1 − x 2 dx = 1 − sin2 (t ) cos(t ) dt

NE
0 0
Z π/2
= cos2 (t ) dt
0
Z π/2
1 + cos(2t )
= dt
0 2
t sin(2t ) π/2
· ¸
= +
2 4 0
π
=
4
Z x
– Calculer une primitive de la fonction ln sur ]0 ; +∞[. Une primitive est (par exemple) x 7→ ln(t ) dt
1

AIG
0
pour x > 0, cette intégrale se calcule par parties en posant f (t ) = 1 et g (t ) = ln(t ) :
Z x Z x
ln(t ) dt = [t ln(t )]1x − 1 dt
1 1
= x ln(x) − (x − 1) = x ln(x) − x + 1

donc une primitive de la fonction ln sur ]0 ; +∞[ est la fonction x 7→ x ln(x) − x (on peut évidemment
ajouter n’importe quelle constante).

FExercice 4.8
1/ Déterminer une primitive de x 7→ x 2 e x à l’aide d’IPPs.
2/ Déterminer une primitive de x 7→ cos5 (x) avec la changement de variable u = sin(x).

3) Primitives de certaines fractions rationnelles


NT
1
n avec a ∈ R et n ∈ N .

– Fractions du type f (x) = (x−a)
Sur l’intervalle I = ]−∞ ; a[ (ou ]a ; +∞[), f est continue et admet donc des primitives. Si n = 1 alors une
−1
primitive est F(x) = ln(|x − a|) et si n > 2, une primitive est F(x) = (n−1)(x−a) n−1 .
αx+β
– Fractions du type f (x) = (x−a)(x−b) avec α, β, a et b des réels tels que a 6= b .

À retenir
αx+β c d
Il existe c et d réels tels que (x−a)(x−b) = x−a + x−b , ce qui nous ramène au cas précédent.

En effet : en réduisant au(même dénominateur, on a au numérateur (c + d )x − (bc + ad ), il suffit donc


c +d = α c +d = α
(
de choisir c et d tels que ce qui équivaut à et on voit que ce système
MO

bc + ad = −β (b − a)d = β + bα
a une unique solution puisque a 6= b.
αx+β
– Fractions du type f (x) = (x−a)2 avec α, β et a des réels.

À retenir
1
On intègre ce type de fraction par parties, en posant u 0 (x) = (x−a)2
et v(x) = αx + β.

– Fractions du type f (x) = x 2ax+b


+px+q
avec a, b, p q des réels tels que p 2 − 4q < 0. Le dénominateur n’a pas
de racine réelle, f est donc définie sur R. La méthode est la suivante :

À retenir
• on fait apparaître la dérivée du trinôme x 2 + px + q au numérateur et on compense les x en
multipliant par un facteur adéquat, puis on compense les constantes en ajoutant ce qu’il faut,

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 41 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 4 : Généralités sur les fonctions
ce qui donne :
ax + b a 2x + p ap 1
= + (b − ) .
x 2 + px + q 2 x 2 + px + q 2 x 2 + px + q
0
La première de ces deux fractions est facile à intégrer puisqu’elle est du type uu .

NE
• Pour la deuxième fraction : on met le trinôme x 2 + px + q sous forme canonique afin de mettre
u0
la fraction sous la forme : α 1+u 2 où α est une constante et u est une fonction de x, cette fonction
a
s’intègre en α arctan(u) .
a. Les fonction arctan sera étudiée dans le chapitre suivant.

x−2
Par exemple, soit f (x) = x 2 −x+1
:

x −2 1 2x − 1 3 1
f (x) = = −
x2 − x + 1 2 2
2 x −x +1 2 x −x +1
et : p
1 1 2 2/ 3
= =p ³ .
x 2 − x + 1 (x − 12 )2 + 34
´2

AIG
3 2x−1
p +1
3
p
On en déduit qu’une primitive de f sur R est F : x 7→ 12 ln(x 2 − x + 1) − 3 arctan( 2x−1
p ).
3

IV SOLUTION DES EXERCICES

Solution 4.1
1/ Si f : I → R et g : J → R sont monotones et si f (I) ⊂ J, alors on vérifie que g ◦ f est :
– croissante si f et g ont le même sens de variation ;
– décroissante dans le cas contraire.
2/ Si f : I → R et I : J → R sont monotones, alors on vérifie que f + g est :
– croissante si f et g sont croissantes ;
– décroissante si f et g sont décroissantes.
On ne peut rien dire en général sinon.
NT
3/ Si f : I → R+ et I : J → R+ sont monotones et positives, alors on vérifie que f + g est :
– croissante si f et g sont croissantes ;
– décroissante si f et g sont décroissantes.
On ne peut rien dire en général sinon.

Solution 4.2 Soient T et T 0 deux périodes de f , alors pour x ∈ D f , on a x+T+T 0 = (x+T)+T 0 ∈ D f , x−(T+T 0 ) = (x−T)−T 0 ∈
D f et f (x + T + T 0 ) = f (x + T) = f (x) car T 0 et T sont deux périodes de f , il en découle que T + T 0 ∈ G f . L’addition est donc
interne dans G f , on sait qu’elle est associative et commutative dans R, donc elle l’est dans G f puisque G f ⊂ R. D’autre
part 0 ∈ G f , il y donc un élément neutre pour l’addition dans G f . Enfin, si x ∈ D f , alors f (x − T) = f (x − T + T) = f (x),
donc −T ∈ G f : tout élément de G f a un opposé dans G f , donc (G f , +) est un groupe commutatif.

f (x)+g (x)+| f (x)−g (x)| f (x)+g (x)− f (x)+g (x)


Solution 4.3 Simple vérification. Soit x ∈ I, supposons f (x) 6 g (x), alors 2 = 2 = g (x)
MO

et c’est bien le maximum entre f (x) et g (x). L’autre cas se traite de la même façon en échangeant les rôles de f et de g ,
f +g +| f −g |
d’où max( f , g ) = 2 .
L’autre égalité se traite sur le même principe, ou bien en remarquant que pour tous réels a et b, min(a, b) =
− max(−a, −b).

Solution 4.4 La fonction f est paire et définie sur R∗ . Sur ]0 ; +∞[ on a f (x) = x| ln(x)| donc g est continue sur ]0 ; +∞[ (en
appliquant les théorèmes généraux) ; f étant paire, elle continue sur R∗ . On a lim f (x) = 0, il y a donc un prolongement
x→0
par continuité en 0 en posant f (0) = 0, ainsi prolongée, f est continue sur R.

Solution 4.5
h i0
1 −2x
1/ 1+x 2 = (1+x 2 )2 , sur R.
· 1 ¸0
p p1
2/ e x = − 2x1px e x , sur R∗+ .
h x
i0 x x x
3/ cos3 ( ex ) = − (1−x)e x2
sin( ex ) cos2 ( ex ), sur R∗+ .
h p i0
4/ ln(x + 1 + x 2 ) = p 1 2 , sur R.
1+x

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 42 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 4 : Généralités sur les fonctions

Solution 4.6
1/ Une primitive sur ]− π2 ; π2 [ est F(x) = − ln(| cos(x)|).
2/ Une primitive sur ]− π2 ; π2 [ est F(x) = tan(x) − 1.
3
3/ Une primitive sur R est F(x) = 31 (1 + x 2 ) 2 .

NE
4/ Une primitive sur ]0 ; +∞[ est F(x) = 21 ln2 (x).

|t |n
¯R ¯ R ¯ n ¯ ¯ n ¯
¯ 1 tn 1 ¯ t ¯ ¯ t ¯ 1
Solution 4.7 ¯ −1 1+t 2 dt ¯ 6 −1 ¯ 1+t 2 ¯ dt (majoration en valeur absolue), or ¯ 1+t 2 ¯ = 6 |t |n car 6 1, d’où
¯
¯R ¯ 1+t 2 1+t 2
¯ 1 tn ¯ R1 R1 R0 2
¯ −1 1+t 2 dt ¯ 6 −1 |t |n dt = 0 t n dt + −1 (−1)n t n dt = n+1 .

Solution 4.8
1/ Soit f (x) = x 2 e x , f est continue Rsur R, elle admet donc des primitives sur R, la primitive qui s’annule en 0 (par
x
exemple) est F définie par F(x) = 0 t 2 e t dt . On fait une IPP en R xposant u 0 = e t et 2 t 0
R xv =t t , d’où u = e et v = 2t (u et v
x 0 2 x
sont bien dérivables à dérivée continue), on a F(x) = [uv]0 − 0 uv = x e − 2 0 t e dt . Pour la deuxième intégrale
on
R x refait une IPP enRposant u 0 = e t Ret v = t , d’où u = e t et v 0 = 1 (u et v sont bien dérivables à dérivée continue), on a
t x x 0 x x t x x 2 x
0 t e dt = [uv]0 − 0 uv = xe − 0 e dt = xe − e + 1, d’où F(x) = (x − 2x + 2)e − 2.
sur R, elle

AIG
2/ La fonction est continue
Rx R xadmet donc des primitives. La primitive qui s’annule en 0 (par exemple) est F
définie par F(x) = 0 cos5 (t ) dt = 0 cos4 (t ) cos(t ) dt . On pose u = sin(t ) (continue dérivable, à dérivée continue sur
R), d’oùR du = cos(t ) dt et donc : ¤sin(x) sin5 (x) 2 sin3 (x)
sin(x) R sin(x)
F(x) = sin(0) (1 − u 2 )2 du = 0 (u 4 − 2u 2 + 1) du 15 u 5 − 23 u 3 + u 0
£
= 5 − 3 + sin(x).
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 43 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 5

Fonctions usuelles

Sommaire
I Fonctions circulaires - Inversions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

AIG
1) Fonctions circulaires : rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2) Inversion des fonctions circulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
II Fonctions logarithme et exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1) Logarithme népérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2) La fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
III Fonctions puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1) Puissance quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2) Croissance comparée de ces fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
IV Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2) Trigonométrie hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

I FONCTIONS CIRCULAIRES - INVERSIONS


NT
1) Fonctions circulaires : rappels
Le plan P est muni d’un repère orthonormé direct (O, → −
u ,→

v ). Soit x un réel, et M(x) le point du cercle

− −−→
trigonométrique tel que ( u , OM ) = x (mod 2π) alors les coordonnées de M(x) sont (cos(x), sin(x)), lorsque
x ∈ R \ π2 + kπ | k ∈ Z , on pose tan(x) = cos(x)
sin(x)
© ª
.

M tan(x)
sin(x)
MO

O A
cos(x)

_
Remarque 5.1 – Le réel x représente également la longueur de l’arc de cercle AM avec A(1, 0), le cercle étant
orienté dans le sens direct.
Quelques propriétés :
– ∀x ∈ R, cos2 (x) + sin2 (x) = 1.
– Les fonctions sinus et cosinus sont 2π-périodiques définies continues dérivables sur R, à valeurs dans
[−1; 1], et on a sin0 = cos et cos0 = − sin.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 44 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions circulaires - Inversions Chapitre 5 : Fonctions usuelles

– La fonction tangente est π-périodique, définie continue dérivable sur R \ { π2 + kπ | k ∈ Z} et on a


tan0 (x) = 1 + tan2 (x) = cos12 (x) .
– Les fonctions sinus et tangente sont impaires alors que la fonction cosinus est paire.

À retenir

NE
Si u est une fonction dérivable alors sin(u) et cos(u) sont dérivables avec les formules :
[sin(u)]0 = u 0 cos(u) et [cos(u)]0 = −u 0 sin(u)
Si de plus la fonction cos(u)) ne s’annule pas, alors la fonction tan(u) est dérivable et :
0
[tan(u)]0 = u 0 (1 + tan2 (u)) = cosu2 (u)

5
1
4
C sin
0 3
−π − π2 0 π π
2 2

−1 1

AIG
0 C tan

− π2 0 π
2
1 −1
C cos
−2
0
π −3
−π − π2 0 π
2
−4
−1
−5

– On a les relations sin(π + x) = − sin(x) et cos(π + x) = − cos(x).


π π π π
x 0 6 4 3 2
p p
1 2 3
sin(x) 0 2 2 2 1
– On a les valeurs remarquables : p p ,
3 2 1
cos(x) 1 0
NT
2 2 2
p
tan(x) 0 p1 1 3
3
comme sin(π − x) = sin(x) et cos(π − x) = − cos(x), on peut compléter le tableau avec les valeurs
2π 3π 5π
3 , 4 , 6 et π, la parité permet ensuite d’avoir un tableau de −π à π.
– Formules d’addition : ∀x, y ∈ R on a :
• cos(x + y) = cos(x) cos(y) − sin(x) sin(y). En particulier, cos(2x) = 2 cos2 (x) − 1 = 1 − 2 sin2 (x).
• sin(x + y) = sin(x) cos(y) + cos(x) sin(y). En particilier, sin(2x) = 2 sin(x) cos(x).
tan(x)+tan(y) 2 tan(x)
• tan(x + y) = 1−tan(x) tan(y) . En particulier, tan(2x) = 1−tan 2 (x) .

1−u 2
• En posant u = tan( x2 ), on a sin(x) = 2u
1+u 2
et cos(x) = 1+u 2
.

FExercice 5.1
x2
MO

1/ Montrer que ∀x ∈ R, | sin(x)| 6 |x|, 0 6 1 − cos(x) 6 2 .


2/ Montrer que ∀x ∈] − π2 ; π2 [, | tan(x)| > |x|.

2) Inversion des fonctions circulaires


La fonction arcsin
La fonction f : [− π2 ; π2 ] → [−1 ; 1] définie par f (x) = sin(x) est continue et strictement croissante sur I =
[− 2 ; 2 ], elle réalise donc une bijection entre I et f (I) = J = [sin(− π2 ) ; sin( π2 )] = [−1 ; 1]. La bijection réciproque
π π

est notée f −1 = arcsin [arcsinus], elle est définie par :


arcsin : [−1; 1] → [− π2 ; π2 ] .
½ π π
y ∈ [− 2 ; 2 ]
x 7→ arcsin(x) = y tel que
sin(y) = x
ZExemple : arcsin(−1) = − π2 , arcsin(1) = π2 , arcsin(0) = 0, arcsin( 12 ) = π6 , . . .
La fonction f étant strictement croissante et continue sur I, la fonction f −1 = arcsin est strictement
croissante et continue sur [−1; 1] ; f est dérivable sur I et sa dérivée s’annule en − π2 et π2 , mais pas sur

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 45 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions circulaires - Inversions Chapitre 5 : Fonctions usuelles

l’intervalle ouvert, la réciproque est donc dérivable sur ] − 1; 1[ mais pas en −1 ni en 1 [tangente verticale en
ces points], on a la formule suivante :
1 1
∀x ∈] − 1; 1[, arcsin0 (x) = =p .
cos(arcsin(x)) 1 − x2

NE
p
Car : cos2 (arcsin(x)) + sin2 (arcsin(x)) = 1, c’est à dire cos2 (arcsin(x)) + x 2p
= 1 d’où cos(arcsin(x)) = ± 1 − x 2 ,
mais ce cosinus est positif car arcsin(x) ∈ [− π2 ; π2 ], donc cos(arcsin(x)) = 1 − x 2 .

À retenir
Si u est une fonction dérivable à valeurs dans ] − 1; 1[ alors la fonction arcsin(u) est dérivable et :
0
[arcsin(u)]0 = p u 2
1−u

C arcsin
π
2

1 C sin

AIG
x −1 0 +1
+ π2 − π2 −1
arcsin 0 1 π
2
− π2

−1

− π2

Propriétés :
– ∀x ∈ [−1; 1], sin(arcsin(x)) = x.
– ∀x ∈ [− π2 ; π2 ], arcsin(sin(x)) = x.
– ∀x ∈ [−1; 1], arcsin(−x) = − arcsin(x)
p [fonction impaire].
NT
– ∀x ∈ [−1; 1], cos(arcsin(x)) = 1 − x 2 .
– ∀x ∈ [−π; π], arcsin(cos(x)) = π2 − |x|.

Attention !
La fonction f : x 7→ arcsin(sin(x)) n’est pas l’identité, elle est 2π- périodique et impaire, il suffit donc l’étudier
sur [0; π], mais elle vérifie f (π − x) = f (x), la droite x = π2 est donc un axe de symétrie et l’étude se réduit à [0; π2 ],
intervalle sur lequel f (x) = x.

La fonction arccos
La fonction f : [0; π] → [−1; 1] définie par f (x) = cos(x), est continue et strictement décroissante, elle
définit donc une bijection entre [0; π] et f ([0; π]) = [ f (π); f (0)] = [−1; 1]. Par définition, la bijection réciproque
est notée f −1 = arccos [arccosinus], elle est définie par :
MO

arccos : [−1; 1] → [0; π] .


y ∈ [0; π]
½
x 7→ arccos(x) = y tel que
cos(y) = x

ZExemple : arccos(−1) = π, arccos(1) = 0, arccos(0) = π2 , arccos(− 12 ) = 2π


3 , ...
La fonction f étant strictement décroissante et continue sur I = [0; π], la fonction f −1 = arccos est
strictement décroissante et continue sur [−1; 1] ; f est dérivable sur I et sa dérivée s’annule en 0 et et π, mais
pas sur l’intervalle ouvert, la réciproque est donc dérivable sur ] − 1; 1[ mais pas en −1 ni en 1 [tangente
verticale en ces points], on a la formule suivante :
−1 −1
∀x ∈] − 1; 1[, arccos0 (x) = =p .
sin(arccos(x)) 1 − x2
p
Car : sin2 (arccos(x)) + cos2 (arccos(x)) = 1, c’est à dire sin2 (arccos(x))p
+ x 2 = 1 d’où sin(arccos(x)) = ± 1 − x 2 ,
mais ce sinus est positif car arccos(x) ∈ [0 ; π], donc sin(arccos(x)) = 1 − x 2 .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 46 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions circulaires - Inversions Chapitre 5 : Fonctions usuelles

À retenir
Si u est une fonction dérivable à valeurs dans ] − 1; 1[ alors la focntion arccos(u) est dérivable et :
0
[arccos(u)]0 = p−u 2
1−u

NE
C arccos
π

x −1 0 +1 π
2
π
π 1
arccos 2
0 π
2 π
−1 1

AIG
−1
C cos

Propriétés :
– ∀x ∈ [−1; 1], cos(arccos(x)) = x.
– ∀x ∈ [0; π], arccos(cos(x)) = x.p
– ∀x ∈ [−1; 1], sin(arccos(x)) = 1 − x 2 .
– ∀x ∈ [−1; 1], arccos(x) + arcsin(x) = π2 .
– ∀x ∈ [−1; 1], arccos(−x) = π − arccos(x).

Attention !
La fonction f : x 7→ arccos(cos(x)) n’est pas l’identité, elle est 2π- périodique et paire, il suffit donc l’étudier sur
[0; π] intervalle sur lequel f (x) = x.

La fonction arctan
NT
La fonction f : ] − π2 ; π2 [→ R définie par f (x) = tan(x), est continue et strictement croissante, elle réalise
donc une bijection entre ] − π2 ; π2 [ et f (] − π2 ; π2 [) = R. Par définition, la bijection réciproque est notée f −1 =
arctan [arctangente], elle est définie par :

arctan : R → ] − π2 ; π2 [ .
y ∈] − π2 ; π2 [
½
x 7→ arctan(x) = y tel que
tan(y) = x

p
ZExemple : arctan(0) = 0, arctan(1) = π4 , arctan( 3) = π3 , . . .
La fonction f étant strictement croissante et continue sur I =] − π2 ; π2 [, la fonction f −1 = arctan est
strictement croissante et continue sur R ; f est dérivable sur I et sa dérivée ne s’annule pas sur I, la réciproque
MO

est donc dérivable sur R, et on a la formule suivante :

1 1
∀x ∈ R, arctan0 (x) = = .
1 + tan2 (arctan(x)) 1 + x 2

À retenir
Si u désigne un fonction dérivable, alors la fonction arctan(u) est dérivable et :
u0
[arctan(u)]0 = 1+u 2

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 47 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions logarithme et exponentielle Chapitre 5 : Fonctions usuelles
C tan

π
2

x −∞

NE
0 +∞
π C arctan
2
arctan 0 − π2 π
2
− π2

− π2

Propriétés :
– ∀x ∈ R, tan(arctan(x)) = x.
– ∀x ∈] − π2 ; π2 [, arctan(tan(x)) = x.

AIG
– ∀x ∈ R, arctan(−x) = − arctan(x).
– ∀x ∈ R∗+ , arctan(x) + arctan( x1 ) = π2 .
³ ´
– ∀x ∈ R, arctan(x) = arcsin p x 2 .
1+x
– ∀x ∈ R, arctan(x) = Arg(1 + i x).

II FONCTIONS LOGARITHME ET EXPONENTIELLE

1) Logarithme népérien
1
La fonction x 7→ x est continue sur ]0 ; +∞[, elle admet une unique primitive qui s’annule en 1.

Définition 5.1
L’unique primitive de la fonction x 7→ x1 sur ]0 ; +∞[ qui s’annule en 1 est appelée logarithme népérien
Rx
et notée ln. On a donc ∀x > 0, ln(x) = 1 dtt .
NT
1
Cette fonction est donc dérivable sur I]0 ; +∞[ et ln0 (x) = , elle est donc strictement croissante sur I.
x
Soit y > 0, la fonction f : x 7→ ln(x y) et dérivable sur I et f 0 (x) = y x1y = x1 , on en déduit que f (x) = ln(x) + c
où c est une constante, on a ln(y) = f (1) = ln(1) + c = c, par conséquent on obtient :

Théorème 5.1 (Propriété fondamentale du logarithme)


∀x, y > 0, ln(x y) = ln(x) + ln(y).

Conséquences :
u0
– Si u est une fonction dérivable qui ne s’annule pas, alors [ln(|u|)]0 =
MO

u.
– ∀x, y ∈ R∗ , ln(|x y|) = ln(|x|) + ln(|y|).
– ∀x, y ∈ R∗ , ln(| xy |) = ln(|x|) − ln(|y|).
– ∀n ∈ Z∗ , ∀x ∈ R∗ , ln(|x n |) = n ln(|x|).

Théorème 5.2 (Limites du logarithme népérien)


ln(x) ln(x)
lim ln(x) = +∞; lim+ ln(x) = −∞; lim = 0; lim+ x ln(x) = 0; lim = 1.
x→+∞ x→0 x→+∞ x x→0 x→1 x −1

Preuve : ∀n ∈ N, ln(2n ) = n ln(2) or ln(2) > 0, donc la suite (ln(2n )) tend vers +∞ ce qui prouve que la fonction ln n’est
pas majorée, par conséquent elle tend +∞.
En posant X = x1 on a lim X = +∞ donc lim ln(x) = lim − ln(X) = −∞.
x→0+ x→0+ X→+∞
lim ln(x) 0
= ln (1) = 1.
x→1 x−1
p Rx dt p
Pour t > 1 on a t 6 t et donc pour x > 1 on a 0 6 ln(x) 6 1 p = 2[ x − 1], le théorème des gendarmes entraîne
t
ln(x)
lim x = 0. 
x→+∞

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 48 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions logarithme et exponentielle Chapitre 5 : Fonctions usuelles

Courbe représentative :

NE
C ln
x 0 1 +∞ 0
ln0 + + 0 1 2 3 4
+∞
−1
ln 0
−∞
−2

−3

AIG
Théorème 5.3 (Inégalité de convexité)
∀x > 0, ln(x) 6 x − 1.

Preuve : Il suffit d’étudier la fonction f : x 7→ ln(x) − x + 1. 

2) La fonction exponentielle
La fonction ln est strictement croissante sur I = ]0 ; +∞[, elle définit donc une bijection de I sur J = Im(ln),
comme elle est continue on a Im(ln) = ]lim ln ; lim ln[ = R.
0 +∞

Définition 5.2
La réciproque est appelée fonction exponentielle et notée exp, elle est définie par :

exp : R → ]0 ; +∞[
NT
.
x 7→ exp(x) = y tel que y > 0 et ln(y) = x

Propriétés :
– La fonction exp est strictement croissante sur R et continue, de plus exp(0) = 1.
– La fonction ln est dérivable sur ]0 ; +∞[ et sa dérivée ne s’annule pas, donc la fonction exp est dérivable
1
sur R et exp0 (x) = 0 = exp(x) .
ln (exp(x))
– Dans un repère orthonormé, la courbe de la fonction exp et celle de la fonction ln sont symétriques
par rapport à la première bissectrice.

C exp
MO

1 C ln

0
−4 −3 −2 −1 0 1 2 3 4
−1

−2

−3

−4

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 49 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions puissances Chapitre 5 : Fonctions usuelles

Soient x, y ∈ R, notons X = exp(x) et Y = exp(y) alors X et Y sont dans ]0 ; +∞[ on peut donc écrire
ln(XY) = ln(X) + ln(Y) ce qui donne x + y = ln(XY), par conséquent exp(x + y) = XY = exp(x) exp(y), on peut
donc énoncer :

Théorème 5.4 (Propriété fondamentale de l’exponentielle)

NE
∀x, y ∈ R, exp(x + y) = exp(x) exp(y).
1
Il en découle en particulier que exp(−x) = exp(x) .

Notation : On déduit de ce théorème que pour tout entier n ∈ Z et pour tout réel x on a exp(nx) = [exp(x)]n .
En particulier on a pour x = 1, exp(n) = [exp(1)]n . On pose alors e = exp(1) , d’où exp(n) = e n . On convient
alors d’écrire pour tout réel x :
exp(x) = e x .
Les propriétés s’écrivent alors :
– e x+y = e x × e y .
– e 0 = 1, e −x = e1x , ∀n ∈ Z, e nx = [e x ]n .

AIG
– Si u désigne une fonction dérivable alors [e u ]0 = u 0 × eu .
– ∀x ∈ R, e x > x + 1.
Preuve : Soit X = e x , on sait que ln(X) 6 X − 1 ce qui donne l’inégalité. 

Théorème 5.5 (Limites de la fonction exponentielle)


ex ex − 1
lim e x = 0, lim e x = +∞, lim = +∞, lim = 1.
x→−∞ x→+∞ x→+∞ x x→0 x

Preuve : La fonction exp est continue et strictement croissante sur R donc Im(exp) = ]lim exp ; lim exp[ = ]0 ; +∞[. Soit
−∞ +∞
ex X e x −1
X = e x alors lim = lim = +∞. lim = exp0 (0) = 1. 
x→+∞ x X→+∞ ln(X) x→0 x

Remarque 5.2 – Il en découle que lim x e−x = 0.


x→+∞
NT
III FONCTIONS PUISSANCES

Les puissances entières sont supposées connues.

1) Puissance quelconque

Définition 5.3
Si α est un réel et si x > 0 alors on pose x α = e α ln(x) .

Cela définit une fonction f α continue et dérivable sur ]0 ; +∞[ avec la formule : [x α ]0 = αx α−1 .
Il en découle que si u est une fonction dérivable à valeurs strictement positives, alors la fonction u α est
MO

dérivable et :
¡ α ¢0
u = α × u 0 × u α−1

si α > 0
½
0
On a lim f α (x) = . Dans le premier cas on pose 0α = 0, dans le second cas il y a une
x→0 +∞ si α < 0
asymptote verticale.
si α > 1
½
x α −0 0
(α−1) ln(x)
Lorsque α > 0 : =e −−−→ , lorsque α > 1 on a une tangente horizontale
x x→0 +∞ si 0 < α < 1
et lorsque α < 1 on a une tangente verticale.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 50 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions puissances Chapitre 5 : Fonctions usuelles

α<0

4 α>1 α=1

NE
3

2
0<α<1

0
−1 0 1 2 3 4

AIG
−1

Cas particuliers (avec x > 0) :


¢n
a) Lorsque α = n ∈ Z, on retrouve bien les puissances entières car exp(n ln(x)) = exp(ln(x)) = x n .
¡

b) Lorsque α = n1 avec n ∈ N∗ : soit y = x α , on a y n = exp( nn ln(x)) = x, comme y est positif, on dit que y
p
est la racine n e de x. Notation pour x > 0 : x 1/n = n x.
p p
c) Lorsque α = ∈ Q avec p ∈ Z et q ∈ N∗ : soit y = x α , on a y q = exp(q q ln(x)) = x p , comme y est positif,
q
p
y est la racine q e de x p . Autrement dit, pour x > 0, x p/q = x p .
q

Théorème 5.6 (Propriétés)


Avec x, y > 0 et α, β ∈ R :
– ln(x α ) = α ln(x).

– x α × x β = x α+β , et donc x −α = 1
x α , et x β = x α−β .
NT
– (x α )β = x αβ .
– (x y)α = x α × y α .
1
– Pour α non nul, y = x α ⇐⇒ x = y α .

Preuve : Celle-ci est simple et laissée en exercice. 

FExercice 5.2
1/ Soient u et v deux fonctions dérivables avec u > 0, calculer la dérivée de la fonction x 7→ u(x)v(x) .
¢x
2/ Calculer lim 1 + x1 .
¡
x→+∞

2) Croissance comparée de ces fonctions


MO

Comparaison des puissances : si α < β alors x α est négligeable devant x β au voisinage de +∞ et x β est
négligeable devant x α au voisinage de 0, c’est à dire :

xα xβ
lim = 0 et lim+ =0
x→+∞ xβ x→0 xα

Comparaison des puissances et des logarithmes : si α et β sont des réels strictement positifs, alors [ln(x)]α
est négligeable devant x β au voisinage de +∞ et | ln(x)|α est négligeable devant x1β au voisinage de 0, c’est à
dire :
[ln(x)]α
lim = 0 et lim+ x β | ln(x)|α = 0
x→+∞ xβ x→0

ln(u) α
µα ¶ ³ ´α ³ ´α β
[ln(x)]α β α ln(u)
Preuve : xβ
= u = β u avec u = x α , ce qui donne la première limite. La deuxième en découle avec
le changement de variable u = x1 . 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 51 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions hyperboliques Chapitre 5 : Fonctions usuelles

Comparaison des puissances et des exponentielles : si α est un réel et si β > 0, alors x α est négligeable
devant e βx au voisinage de +∞, c’est à dire :

lim x α e −βx = 0 .
x→+∞

NE
[ln(u)]α
Preuve : Lorsque α 6 0 il n’y a rien à démontrer. Lorsque α > 0, u = e x −−−−−→ +∞ et on a x α e −βx = uβ
−−−−−→ 0. 
x→+∞ u→+∞

β
FExercice 5.3 Comparer x α et e x au voisinage de +∞ avec α et β strictement positifs.

IV FONCTIONS HYPERBOLIQUES

1) Définition

Définition 5.4
e x +e −x e x −e −x
Pour x ∈ R, on pose ch(x) = 2 [cosinus hyperbolique], sh(x) = 2 [sinus hyperbolique] et

AIG
sh(x) e x −e −x
th(x) = ch(x) = e x +e −x [tangente hyperbolique].

Le cosinus hyperbolique : la fonction ch est paire, définie continue dérivable sur R et ch0 (x) = sh(x), on en
déduit le tableau de variation et la courbe :

4
C ch
x −∞ 0 +∞ 3
+∞ +∞
ch 2
1
1
NT
0
−3 −2 −1 0 1 2

Quelques propriétés :
– ∀x ∈ R, ch(x) > 1.
– lim ch(x)
x = +∞ et lim
ch(x)
x = 12 .
x→+∞ x→+∞ e
Le sinus hyperbolique : la fonction sh est impaire, définie continue dérivable sur R et sh0 (x) = ch(x), on en
déduit le tableau de variation et la courbe :

5
4
MO

3 C sh
2
x −∞ 0 +∞
1
+∞ 0
sh 0 −3 −2 −1 0 1 2
−1
−∞
−2
−3
−4
−5
−6

Quelques propriétés :
– ∀x ∈ R, ch(x) > 1.
– lim ch(x)
x = +∞ et lim
ch(x)
x = 12 .
x→+∞ x→+∞ e
x
– ∀x ∈ R, ch(x) + sh(x) = e et ch(x) − sh(x) = e −x .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 52 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 5 : Fonctions usuelles

– ∀x > 0, x < sh(x) < ch(x).


– lim sh(x)
x = +∞ et lim
sh(x)
x = 12 .
x→+∞ x→+∞ e
La tangente hyperbolique : la fonction th est impaire, définie continue dérivable sur R et

ch2 (x) − sh2 (x) 1

NE
th0 (x) = 2
= 1 − th2 (x) = 2
ch (x) ch (x)
d’où les variations et la courbe :

C th
x −∞ 0 +∞
+1
th 0 −3 −2 −1 0 1 2
−1

2)
AIG
Quelques propriétés :
– ∀x ∈ R, −1 < th(x) < 1.
– ∀x > 0, th(x) < x.

Trigonométrie hyperbolique
– ∀x ∈ R, ch2 (x) − sh2 (x) = 1.
−1

– Formules d’addition : ∀x, y ∈ R on a :


• ch(x + y) = ch(x) ch(y) + sh(x) sh(y).
NT
• sh(x + y) = sh(x) ch(y) + ch(x) sh(y).
th(x)+th(y)
• th(x + y) = 1+th(x)th(y) .
ch(2x) = 2 ch2 (x) − 1 = 1 + 2 sh2 (x)
En particulier : sh(2x) = 2 sh(x) ch(x) .
th(2x) = 2th(x)
2
1+th (x)
x+y x−y
– Transformations de somme en produit : ∀x, y ∈ R, en posant p = 2 et q = 2 , on a x = p + q et
y = p − q, on obtient :
x+y x−y
• ch(x) + ch(y) = 2 ch( 2 ) ch( 2 ).
x+y x−y
• ch(x) − ch(y) = 2 sh( 2 ) sh( 2 ).
x+y x−y
• sh(x) + sh(y) = 2 sh( 2 ) ch( 2 ).
sh(x+y)
• th(x) + th(y) = ch(x) ch(y) .
MO

V SOLUTION DES EXERCICES

Solution 5.1
1/ Il suffit de le démontrer pour x positif en étudiant la fonction x 7→ x − sin(x), puis on intègre de 0 à x ce qui donne la
deuxième inégalité.
2/ On étudie x 7→ x − tan(x) sur [0 ; π2 [. Pour x ∈ ]− π2 ; 0], on applique l’inégalité précédente à −x.

Solution 5.2
1/ Comme l’exposant varie, on passe à la forme exponentielle : u v = e v ln(u) , d’où la dérivée : [u v ]0 = [v ln(u)]0 e v ln(u) =
0
v 0 ln(u)u v + v uu u v = v 0 ln(u)u v + vu 0 u v−1 .
¢x 1 ln(1+X)
2/ Comme l’exposant varie, on passe à la forme exponentielle : 1 + x1 = e x ln(1+ x ) = e X avec X = x1 −−−−−→ 0, or on
¡
x→+∞
ln(1+X)
sait que lim X = 1, et donc la limite cherchée vaut e 1 = e (par continuité de l’exponentielle).
X→0

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 53 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 5 : Fonctions usuelles
β
Solution 5.3 Il faut étudier la limite du quotient, c’et à dire la limite en +∞ de x α e −x .
β
On pose X = x β −−−−−→ +∞, on a alors x = X 1/β et x α e −x = X α/β e −X −−−−−→ 0 d’après les croissances comparées.
x→+∞ X→+∞

NE
AIG
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 54 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 6

Équations différentielles

Sommaire
I Fonctions à valeurs complexes (et variable réelle) . . . . . . . . . . . . . . . . . . . . . . . . . 55

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2) Continuité, dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3) Primitives, intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
II Équations différentielles linéaires du premier ordre . . . . . . . . . . . . . . . . . . . . . . . 57
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . 58
III Équations différentielles linéaires du second ordre . . . . . . . . . . . . . . . . . . . . . . . . 59
1) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . 60
IV Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1) Changement de variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2) Équations à variables séparées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3) Équation de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
NT
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

I FONCTIONS À VALEURS COMPLEXES (ET VARIABLE RÉELLE)

1) Définition
Soit I un intervalle de R, et f : I → C une fonction à valeurs complexes.
Pour t ∈ I, on pose u(t ) = Re( f (t )) et v(t ) = Im( f (t )), on définit ainsi deux fonctions u et v à valeurs
réelles telles que ∀ t ∈ I, f (t ) = u(t ) + i v(t ).

Définition 6.1
MO

• La fonction u est appelée partie réelle de f et la fonction v est appelée partie imaginaire de f .
• La fonction f = up − i v est appelée fonction conjuguée de f .
• La fonction | f | = u 2 + v 2 est appelée fonction module de f .
• f est bornée si et seulement si ∃M ∈ R, ∀t ∈ I, | f (t )| 6 M (i.e. les images sont dans le disque de centre
l’origine et de rayon M).

ZExemples :
– Soit f définie sur R par f (t ) = e i t , on a Re( f ) = cos et Im( f ) = sin, elle est bornée.
t2 t2 −t 3
– Soit f définie sur R par f (t ) = 1+i t , on a Re( f ) : t 7→ 1+t 2 et Im( f ) : t 7→ 1+t 2 , elle n’est pas bornée.

2) Continuité, dérivation

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 55 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions à valeurs complexes (et variable réelle) Chapitre 6 : Équations différentielles

Définition 6.2 (Continuité)


• Soit f : I → C une fonction, soit u sa partie réelle et v sa partie imaginaire, on dit que f est continue
en t 0 ∈ I lorsque les fonctions u et v sont continues en t 0 .
• On dit que f est continue sur I si elle est continue en tout point de I et l’ensemble des fonctions

NE
continues sur I est noté C 0 (I, C).

À retenir
• Les théorèmes généraux sont les mêmes que pour les fonctions continues à valeurs réelles.
• Le théorème des valeurs intermédiaires ne s’applique pas pour les fonctions continues complexes.
• Si f est continue sur le segment [a; b], alors | f | possède un maximum et un minimum.

Définition 6.3
Soit f : I → C une fonction, soit u sa partie réelle et v sa partie imaginaire, on dit que f est dérivable en
t 0 lorsque les fonctions u et v sont dérivables en t 0 . Si c’est le cas, alors on pose f 0 (t 0 ) = u 0 (t 0 )+i v 0 (t 0 ).

AIG
¢0 ¢0
On remarquera que si f est dérivable sur I, alors Re( f 0 ) = Re( f ) et Im( f 0 ) = Im( f ) .
¡ ¡

Les résultats suivants sont identiques au cas réel :

À retenir
- Si f est dérivable en t 0 alors f est continue en t 0 (réciproque fausse).
- Une fonction dérivable f sur un intervalle I est constante si et seulement si sa dérivée est nulle sur I.
- La somme, le produit et la composée de deux fonctions dérivables sont dérivables. Si f est dérivable
et ne s’annule pas alors 1f est dérivable (théorèmes généraux de la continuité).
- Formules de dérivation pour les opérations algébriques (λ ∈ C) : ³ ´ 0 −g 0
( f + g )0 = f 0 + g 0 ; (λ f )0 = λ f 0 ; ( f g )0 = f 0 g + f g 0 ; g1 = g 2
- Dérivation d’une composée : si f : I → R est dérivable sur I, si g : J → C est dérivable sur J et si f (I) ⊂ J,
alors g ◦ f est dérivable sur I et :
NT
(g ◦ f )0 = f 0 × g 0 ◦ f (ou encore [g ( f )]0 = f 0 × g 0 ( f )).

1 −i
t est dérivable sur R et f (t ) = (1+i t )2 .
0
ZExemple : La fonction f définie par f (t ) = 1+i
Remarque 6.1 :
– On remarquera que les formules de dérivation sont les mêmes pour les fonctions à valeurs complexes que
pour les fonctions à valeurs réelles.
f 0 f 0g −f g 0
³ ´
f
– Si f et g sont dérivables et que g ne s’annule pas, alors g est dérivable et g = g2
.

Théorème 6.1
Soit f : I 7→ C une fonction dérivable, alors la fonction t → e f (t ) est dérivable sur I (exponentielle
MO

complexe de f (t )) et : ³ ´ 0
e f (t ) = f 0 (t )e f (t )

Preuve : On pose f (t ) = a(t ) + i b(t ) sous forme algébrique. e f (t ) = e a(t ) × [cos(b(t )) + i sin(b(t ))], la partie réelle est
donc g (t ) = e a(t ) cos(b(t )) et sa partie imaginaire est h(t ) = e a(t ) sin(b(t )). Ces fonctions sont dérivables sur I, donc e f
est dérivable sur I et sa dérivée est g 0 (t ) + i h 0 (t ), il suffit alors de comparer g 0 (t ) + i h 0 (t ) avec f 0 (t )e f (t ) pour constater
l’égalité. 

3) Primitives, intégrales

Définition 6.4
Soit F, f : I → C deux fonctions, on dit que F est une primitive de f sur I lorsque F est dérivable sur I et
F0 = f .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 56 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Équations différentielles linéaires du premier ordre Chapitre 6 : Équations différentielles

FExercice 6.1 Calculer une primitive de : h(t ) = e αt où α ∈ C∗ ; f (t ) = 1+i


1 t
t et de g (t ) = e cos(t ).
Les propriétés des primitives citées dans le cas réel restent valables. La définition de l’intégrale à partir
d’une primitive est également la même et on retrouve les propriétés qui ne font pas intervenir la notion de
signe : linéarité, relation de Chasles, majoration en module. En particulier la linéarité permet d’écrire que si
Rb Rb Rb

NE
f = u + i v (forme algébrique de f ), alors a f (t ) dt = a u(t ) dt + i a v(t ) dt .

FExercice 6.2 Montrer que ¯ 0π e (1+i )t dt ¯ 6 e π − 1.


¯R ¯

Les deux outils fondamentaux pour le calcul d’intégrales sont encore valables : le théorème de l’intégra-
tion par parties et le théorème du changement de variable.

Dans la suite de ce chapitre, la lettre K désigne l’ensemble R ou bien l’ensemble C (K = R ou K = C), et les
fonctions considérées sont définies sur un intervalle I de R.

II ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES DU PREMIER ORDRE

Une équation différentielle est une équation dont l’inconnue est une fonction y : I → K intervenant sous

AIG
forme dérivée (première ou supérieure). On rencontre ce genre d’équations en mécanique (lois de Newton),
en électricité (circuits RLC), ... etc.

1) Définitions

Définition 6.5
Une équation différentielle scalaire linéaire d’ordre 1 est une équation différentielle de la forme :

(E) : ∀t ∈ I, a(t )y 0 (t ) + b(t )y(t ) = c(t ), notée plus simplement : a(t )y 0 + b(t )y = c(t )

où a, b, c : I → K sont trois fonctions définies continues sur un intervalle I de R et y : I → K une


fonction dérivable inconnue. On suppose de plus que la fonction a n’est pas la fonction nulle. On
appelle équation homogène associée à (E) l’équation différentielle :

(H) : ∀t ∈ I, a(t )y 0 + b(t )y = 0.


NT
La fonction c est souvent appelée second membre de l’équation (E).

Dans la pratique on a souvent en plus une condition sur la fonction inconnue y du type : y(t 0 ) = α où t 0
et α sont des données. Cette condition est appelée condition initiale, et on appelle problème de Cauchy 1 le
système :
(
∀t ∈ I, a(t )y 0 + b(t )y = c(t )
.
y(t 0 ) = α

ZExemple : L’équation différentielle : y 0 − y = 0 avec y(0) = 1 est utilisée en terminale pour introduire l’expo-
nentielle.
MO

2) Étude de l’équation homogène

Théorème 6.2
Soit S I (H) l’ensemble des solutions sur I de l’équation homogène (H), alors on a les propriétés :
– 0 ∈ S I (H) (la fonction nulle est dans S I (H)).
– ∀ f , g ∈ S I (H), f + g ∈ S I (H).
– ∀ α ∈ K, ∀ f ∈ S I (H), α f ∈ S I (H).

Preuve : Celle-ci est simple et laissée en exercice. 

1. CAUCHY Augustin-Louis (1789 – 1857) : un des plus grands mathématiciens français.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 57 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Équations différentielles linéaires du premier ordre Chapitre 6 : Équations différentielles

Résolution de (H)
On se place sur un intervalle I où la fonction a ne s’annule pas, on a alors ∀ t ∈ I, y 0 = − ba y. Soit F une
primitive de la fonction − ba sur I, on a alors :

d ¡ −F ¢
y ∈ S I (H) ⇐⇒ y 0 = F0 y ⇐⇒ y 0 e −F − F0 e −F y = 0 ⇐⇒ = 0 ⇐⇒ ∃ λ ∈ K, ∀ t ∈ I, y(t ) = λe F(t ) .

NE
ye
dt
On peut donc énoncer :

Théorème 6.3
Lorsque la fonction a ne s’annule pas sur l’intervalle I alors les solutions de (H) sont les fonctions :

y : t 7→ λe F(t ) ,

où F désigne une primitive de la fonction − ba sur I, et λ un élément quelconque de K.

À retenir

AIG
Si la fonction a ne s’annule pas sur I :
- Le problème de Cauchy pour l’équation (H) a une unique solution. Car la condition initiale détermine
complètement la constante λ.
- L’unique solution sur I qui s’annule en un point donné est la fonction nulle. Par conséquent toutes
les autres solutions ne s’annulent jamais sur I, lorsque K = R elles ont toutes un signe constant (car
elles sont continues).

ZExemples :
– y 0 + ωy = 0 où ω ∈ K est une constante : les solutions sont les fonctions définies sur R par y(t ) = λe −ωt
avec λ ∈ K quelconque.
– t y 0 = y sur R : on se place d’abord sur I =]0; +∞[, sur cet intervalle on a y 0 = 1t y d’où y(t ) = αt (α ∈ K
quelconque). Puis on se place sur J =]−∞; 0[, sur cet intervalle on a encore y 0 = 1t y d’où y(t ) = λ|t | = βt
(β = −λ ∈ K quelconque). Soit maintenant y une solution sur R, alors y est en particulier solution
sur I donc il existe α tel que ∀ t > 0, y(t ) = αt , de même y est solution sur J, donc il existe β tel que
NT
∀t < 0, y(t ) = βt , mais y doit être dérivable en 0, ce qui entraîne α = β, finalement ∀t ∈ R, y(t ) = αt . On
vérifie pour terminer que cette fonction est bien solution.

3) Étude de l’équation avec second membre


On revient au cas général : (E) : a(t )y 0 + b(t )y = c(t ).

Théorème 6.4 (structure des solutions)


Si l’ensemble des solutions de (E) n’est pas vide, et si y 1 est une solution de (E), alors les solutions
de (E) sont les fonctions s’écrivant comme somme de y 1 avec une solution de (H), c’est à dire les
fonctions de la forme : y : t 7→ y 1 (t ) + y H (t ) avec y H solution quelconque de (H).
MO

Preuve : Soit y une solution de (E), posons f = y − y 1 , alors a f 0 + b f = a y 0 − a y 10 + b y − b y 1 = c − c = 0 donc f ∈ S I (H).


Réciproquement, soit f ∈ S I (H) et soit y = y 1 + f , alors a y 0 + b y = a y 10 + a f + b y 1 + b f = 0 + c = c, donc y ∈ S I (E). 
Pour déterminer toutes les solutions de (E) on est donc ramené à résoudre l’équation homogène puis à
trouver une solution particulière de (E).

Recherche d’une solution particulière : on se place de nouveau sur un intervalle I où la fonction a ne


s’annule pas et on applique la méthode de la variation de la constante :
Soit F une primitive de − ba sur I, on cherche une solution particulière sous la forme y = λe F où λ est une
fonction dérivable sur I. La fonction y est solution de (E) si et seulement si a[λ0 e F + λF0 e F ] + bλe F = c, ce qui
équivaut à aλ0 e F + λ[aF0 e F + be F ] = c ou encore λ0 = ac e −F , car e F est solution de (H). Donc λ doit être une
primitive de la fonction ac e −F , celle-ci est continue sur l’intervalle I, elle admet donc des primitives sur cet I,
ce qui prouve l’existence de λ. Une solution de (E) est donc :
Z t Z t
c(s) −F(s) b(s)
y 1 = λe F avec λ(t ) = e d s et F(t ) = − d s,
t 0 a(s) t0 a(s)

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 58 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Équations différentielles linéaires du second ordre Chapitre 6 : Équations différentielles

et les solutions de (E) sont les fonctions :

y = y 1 + αe F avec α ∈ K quelconque [et y(t 0 ) = α].

NE
À retenir
Lorsque la fonction a ne s’annule pas sur l’intervalle I, le problème de Cauchy a une unique solution.

ZExemples :
– t y 0 + y = sin(t ) sur R : sur l’intervalle I = ]0 ; +∞[ les solutions de (H) sont les fonctions y = λt avec λ ∈ K
quelconque. On cherche une solution particulière de la forme y = λt avec λ dérivable sur I ce qui donne
λ0 = sin(t ), une solution particulière est donc y 1 = − cos(t )
t , et les solutions de (E) sur I sont les fonctions
y = λ−cos(t
t
)
avec λ ∈ K quelconque. On se place ensuite sur l’intervalle J =] − ∞; 0[ où le raisonnement
est le même. On vérifie ensuite que la seule solution sur R est la fonction :

1 − cos(t ) 1
y : t 7→ avec y(0) = 0 et y 0 (0) = .

AIG
t 2

– cos(t )y 0 −sin(t )y = t 2 sur I =]− π2 ; π2 [ : les solutions de l’équation homogène sont les fonctions y = λ
cos(t )
λ
avec λ ∈ K quelconque. On cherche une solution particulière sous la forme y = cos(t ) avec λ dérivable
2 t3
sur I, ce qui donne λ = t . On peut donc prendre comme solution particulière y 1 =
0
3 cos(t ) , et les
solutions de (E) sont les fonctions :

λ+ t3
y : t 7→ avec λ ∈ K.
3 cos(t )

Remarque 6.2 – Résoudre de telles équations différentielles revient donc à calculer des intégrales, d’où les
expressions que l’on rencontre parfois comme : « intégrer une équation différentielle », ou « solution intégrale
d’une équation différentielle ».

FExercice 6.3 Résoudre sur R l’équation x 3 y 0 − (3x 2 + 2)y = x 3 .


NT
III ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES DU SECOND ORDRE

On s’intéressera uniquement au cas où les coefficients sont des constantes, c’est à dire aux équations
différentielles de la forme : a y 00 + b y 0 + c y = f où a, b, c ∈ K, a 6= 0, et f : I → K une fonction continue (second
membre). L’équation homogène associée est (H) : a y 00 + b y0 + c y = 0.
00 0
a y + b y + c y = f


Pour de telles équations, le problème de Cauchy est : y(t 0 ) = α , où t 0 , α et β sont des don-

 y 0 (t ) = β

0
nées.
MO

1) Étude de l’équation homogène

Théorème 6.5
Soit S I (H) l’ensemble des solutions sur I de l’équation homogène (H), alors on a les propriétés :
– 0 ∈ S I (H) (fonction nulle).
– ∀ f , g ∈ S I (H), f + g ∈ S I (H).
– ∀ α ∈ K, ∀ f ∈ S I (H), α f ∈ S I (H).

Preuve : Celle-ci est simple et laissée en exercice. 

Résolution de (H)
On cherche les solutions de la forme y = e λt avec λ ∈ K, on obtient alors y ∈ S R (H) ⇐⇒ aλ2 + bλ + c = 0,
λ doit donc être solution de l’équation ax 2 + bx + c = 0, que l’on appelle équation caractéristique de (H). Il
faut donc distinguer plusieurs cas :
– K=C:

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 59 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Équations différentielles linéaires du second ordre Chapitre 6 : Équations différentielles

• Si ∆ = b 2 − 4ac 6= 0 : il y a deux solutions distinctes à l’équation caractéristique : λ1 et λ2 . On


y
pose φ1 (t ) = e λ1 t . Soit y deux fois dérivable, posons z = φ1 , on a alors y = zφ1 , en remplaçant dans
l’équation on obtient que y est solution de (H) si et seulement si az 00 +(2aλ1 +b)z 0 +(aλ21 +bλ1 +c)z =
0, c’est à dire az 00 + (2aλ1 + b)z 0 = 0 car λ1 est racine de l’équation caractéristique. En posant Z = z 0
on a une équation différentielle linéaire homogène en Z, dont les solutions sont Z(t ) = z 0 (t ) =

NE
γe −(2λ1 +b/a)t = γe (λ2 −λ1 )t , ce qui équivaut à z(t ) = βe (λ2 −λ1 )t + α, et donc y(t ) = αe λ1 t + βe λ2 t avec
α, β ∈ C des constantes quelconques.
• Si ∆ = b 2 −4ac = 0 : alors il y a une solution double à l’équation caractéristique : λ. Posons φ1 (t ) = e λt
y
et z = φ1 i.e. y = zφ1 . Le calcul précédent montre que y ∈ S(H) ⇐⇒ z 00 = 0 c’est à dire il existe α, β ∈ C
tels que z(t ) = βt + α, ce qui donne y(t ) = (α + βt )e λt .
– K = R (a, b, c ∈ R, avec a 6= 0) : la démarche est la même, on cherche les solutions de l’équation
caractéristique, d’où la discussion :
• Si ∆ > 0 : deux racines distinctes λ1 et λ2 , comme dans le cas complexe, on montre que les solutions
de H sont les fonctions y : t 7→ αe λ1 t + βe λ2 t avec α, β ∈ R.
• Si ∆ = 0 : une racine double λ, comme dans le cas complexe, on montre que les solutions de H sont
les fonctions y : t 7→ (α + βt )e λt avec α, β ∈ R.

AIG
• Si ∆ < 0 : deux racines complexes non réelles conjuguées λ = r + i ω et λ. Les solutions complexes
de (H) sont les fonctions y(t ) = αe λt + βe λt avec α, β ∈ C, une telle solution est réelle ssi y(t ) = y(t ) =
αe λt + βe λt , ce qui équivaut à α = β. Les solutions réelles sont donc les fonctions y(t ) = αe λt + αe λt =
2Re(αe λt ) = e r t [u cos(ωt ) + v sin(ωt )], avec u = Re(α)/2 et v = −Im(α)/2 réels quelconques (car α est
un complexe quelconque). On a encore que les solutions de (H) sont les fonctions y = uφ1 + vφ2
avec u, v ∈ R et φ1 (t ) = e r t cos(ωt ) et φ2 (t ) = e r t sin(ωt ).

À retenir : solutions de l’équation homogène


Soit x 2 + ax + b = 0 l’équation caractéristique et ∆ = b 2 − 4ac son discriminant :
– Si K = C (a, b et c sont complexes avec a 6= 0) :
• Si ∆ 6= 0, l’équation caractéristique à deux solutions distinctes : λ1 et λ2 . Les solutions sont les
fonctions : t 7→ αe λ1 t + βe λ2 t avec α, β ∈ C.
• Si ∆ = 0, l’équation caractéristique à une solution double : λ1 = λ2 . Les solutions sont les fonc-
NT
tions : t 7→ (α + βt )e λ1 t avec α, β ∈ C.
– Si K = R (a, b et c sont réels avec a 6= 0) :
• Si ∆ > 0, l’équation caractéristique à deux solutions distinctes : λ1 et λ2 . Les solutions sont les
fonctions : t 7→ αe λ1 t + βe λ2 t avec α, β ∈ R.
• Si ∆ = 0, l’équation caractéristique à une solution double : λ1 = λ2 . Les solutions sont les fonc-
tions : t 7→ (α + βt )e λ1 t avec α, β ∈ R.
• Si ∆ < 0, l’équation caractéristique possède deux solutions complexes non réelles et conjuguées :
λ et λ, en posant λ = r + i ω (forme algébrique), les solutions sont les fonctions :

t 7→ (α cos(ωt ) + β sin(ωt ))e r t = A cos(ωt + ϕ)e r t avec α, β, A, ϕ ∈ R


MO

Théorème 6.6
Soient a, b, c ∈ R avec a 6= 0, les solutions réelles de l’équation a y 00 +b y 0 +c y = 0 sont les parties réelles
des solutions complexes.

Preuve : Celle-ci est simple et laissée en exercice. 

2) Étude de l’équation avec second membre

Théorème 6.7 (structure des solutions)


Si f : I → K est une fonction continue, alors l’équation (E) : a y 00 + b y 0 + c y = f admet des solutions
sur I. Si y 1 est une solution de (E), alors les solutions de (E) sont les fonctions définies sur I par
y : t 7→ y 1 (t ) + y H (t ) avec y H solution quelconque de (H). De plus, le problème de Cauchy a une
unique solution.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 60 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Équations différentielles linéaires du second ordre Chapitre 6 : Équations différentielles

Preuve : L’existence dans le cas général d’une solution particulière est admise. Soit y 1 une solution de (E), soit g ∈ S I (H),
il est facile de vérifier que y 1 + g est solution de (E), réciproquement, si g est solution de (E), il est facile de vérifier
que g − y 1 est solution de (H). Les solutions au problème de Cauchy sont les fonctions de la forme y = y 1 + αφ1 + βφ2
vérifiant y(t 0 ) = c 1 et y 0 (t 0 ) = c 2 . Ce qui donne le système :

NE
(
αφ1 (t 0 ) + βφ2 (t 0 ) = c 1 − y 1 (t 0 )
.
αφ01 (t 0 ) + βφ02 (t 0 ) = c 2 − y 10 (t 0 )

Lorsque φ1 (t ) = e λ1 t et φ2 (t ) = e λ2 t avec λ1 et λ2 les racines distinctes de l’équation caractéristique, le déterminant du


système est D = (λ2 − λ1 )e (λ1 +λ2 )t0 6= 0. Lorsque les deux racines sont confondues, alors φ1 (t ) = e λt et φ2 (t ) = t φ1 (t ),
dans ce cas, le déterminant du système est D = e 2λt0 6= 0, dans les deux cas, le système a une unique solution. 
Remarque 6.3 – Dans le cas réel avec ∆ < 0, l’unique solution complexe au problème de Cauchy est une
solution réelle.
Dans la suite on s’intéressera seulement au cas où le second membre est de la forme f (t ) = αe λt où α et λ
sont des constantes dans K.

Théorème 6.8

AIG
L’équation a y 00 + b y 0 + c y = αe λt admet une solution particulière de la forme y 1 (t ) = βe λt (β ∈ K) si
λ n’est pas racine de l’équation caractéristique, de la forme y 1 (t ) = βt e λt si λ est racine simple de
l’équation caractéristique (∆ 6= 0), et de la forme y 1 (t ) = βt 2 e λt si λ est racine double de l’équation
caractéristique (∆ = 0),

Preuve : On pose y(t ) = Q(t )e λt , y est solution si et seulement si aQ00 (t ) + (2aλ + b)Q0 (t ) + (aλ2 + bλ + c)Q(t ) = α, d’où
la discussion :
α
– Si λ n’est pas racine de l’équation caractéristique : on voit que la constante Q(t ) = aλ2 +bλ+c convient.
αt
– Si λ est solution simple de l’équation caractéristique (2aλ + b 6= 0) : alors Q(t ) = 2a+λ .
αt 2
– Si λ est solution double de l’équation caractéristique (2aλ + b = 0) : on a Q(t ) = 2a convient.


Théorème 6.9
• Lorsque le second membre est de la forme f (t ) = ni=1 αi e λi t , on cherche une solution particulière y i
P
NT
à l’équation a y 00 + b y 0 + c y = αi e λi t pour i allant de 1 à n, la fonction y = y 1 + · · · + y n est une solution
particulière de a y 00 + b y 0 + c y = f , c’est le principe de superposition.
• Si a, b, c sont réels et si y 0 est solution de a y 00 + b y 0 + c y = f (t ) alors Re(y 0 ) est solution de a y 00 +
b y 0 + c y = Re( f ) et Im(y 0 ) est solution de a y 00 + b y 0 + c y = Im( f )

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemples :
– y 00 + ω2 y = 1 avec ω ∈ R∗ , ici λ = 0, il y a une solution particulière évidente qui est y 1 : t 7→ ω12 Les
solutions réelles de l’équation homogène sont les fonctions y H : t 7→ α cos(ωt ) + β sin(ωt ), (α, β ∈ R), et
les solutions de l’équation sont donc les fonctions y : t 7→ ω12 + α cos(ωt ) + β sin(ωt ).
– y 00 − 4y 0 + 4y = 3(1 + sin(t ) + e 2t ) sur R : l’équation caractéristique est x 2 − 4x + 4 = 0 = (x − 2)2 , il y
MO

a une solution double 2, les solutions de l’équation homogène sont les fonctions y(t ) = (α + βt )e 2t .
Cherchons une solution particulière en prenant comme second membre :
– f 1 (t ) = 3 : il y a une solution particulière constante y 1 (t ) = 34 .
– f 2 (t ) = 3e 2t : on chercher une solution particulière de la forme y = Q(t )e 2t , ce qui donne Q00 (t ) = 3 et
donc on peut prendre y 2 (t ) = 32 t 2 e 2t .
– f 3 (t ) = 3 sin(t ) : on prend en fait f 3 (t ) = 3e i t puis on prendra la partie imaginaire d’une solution
particulière. On cherche y sous la forme y(t ) = Q(t )e i t ce qui donne Q00 (t )+(2i −4)Q0 (t )+(3−4i )Q(t ) = 3,
3
d’où Q(t ) = 3−4i = 3 3+4i 3+4i i t 9 12
25 . Une solution particulière est donc y 3 (t ) = Im(3 25 e ) = 25 sin(t ) + 25 cos(t ).
Les solutions sont donc les fonctions :
3 9 12 3
y(t ) = + sin(t ) + cos(t ) + (α + βt + t 2 )e 2t .
4 25 25 2

FExercice 6.4 Résoudre y 00 − y 0 − 6y = 10e 3x + e −2x .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 61 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Compléments Chapitre 6 : Équations différentielles

IV COMPLÉMENTS

1) Changement de variable
Il arrive que pour certaines équations différentielles qui n’entrent pas dans le cadre étudié précédemment,

NE
un changement de variable (et non pas de fonction inconnue) permette de s’y ramener. En voici un exemple,
soit à résoudre (E) x 2 y 00 − x y 0 + y = x pour x > 0, en faisant le changement de variable x = e t avec t ∈ R. Soit
y une fonction deux fois dérivable sur I = ]0 ; +∞[, pour t ∈ R posons g (t ) = y(e t ) [= y(x)], alors g est deux
fois dérivable sur R et on a g 0 (t ) = e t y 0 (e t ), et g 00 (t ) = e t y 0 (e t ) + e 2t y 00 (t ), d’où :

(E) ⇐⇒ ∀x > 0, x 2 y 00 (x) − x y 0 (x) + y(x) = x


⇐⇒ ∀t ∈ R, e 2t y 00 (e t ) − e t y 0 (e t ) + y(e t ) = e t
⇐⇒ ∀t ∈ R, g 00 (t ) − 2g 0 (t ) + g (t ) = e t (E0 )

La fonction g vérifie donc une EDL2 à coefficients constants, l’équation caractéristique est X 2 − 2X + 1 = 0
qui admet 1 comme racine double, les solutions de l’équation homogène sont les fonction g H : t → (a + bt )e t

AIG
avec (a, b) ∈ R2 . D’après le cours, il existe une solution particulière g 0 de la forme g 0 (t ) = c t 2 e t , d’où g 00 (t ) =
ce t (t 2 +2t ) et g 000 (t ) = ce t (t 2 +4t +2), en reportant dans l’équation on obtient ce t [t 2 +4t +2−2t 2 −4t +t 2 ] = e t
1 t2 t 0 t2 t
ce qui donne c = 2 2 e , les solutions générales de (E ) sont les fonctions g : t 7→ (a + bt + 2 )e ,
et donc g ( t ) =
2
et donc les solutions de (E) sont les fonctions y : x 7→ (a + b ln(x) + ln 2(x) )x car g (t ) = y(x) avec t = ln(x).

2) Équations à variables séparées

Définition 6.6
Une équation différentielle à variables séparées est une équation de la forme : y 0 b(y) = a(t ) où a, b
sont deux fonctions continues données.

À retenir : méthode de résolution


NT
Si a est continue sur un intervalle I et b sur un intervalle J, on peut considérer une primitive A de
a sur I et une primitive B de b sur J, dans ce cas l’équation équivaut à : ddt [B(y)] = A0 (t ), et donc
B(y) = A(t ) + λ où λ désigne une constante. On regarde ensuite si la fonction B est localement ou
globalement bijective, auquel cas on pourra écrire y(t ) = B−1 (A(t ) + λ).

ZExemple : t 3 y 0 + y 3 = 0 avec y(1) = −1, y ne doit pas être constamment nulle, si une telle solution existe, il doit
exister un intervalle I sur lequel y ne s’annule pas, un tel intervalle ne peut pas contenir 0 et sur I l’équation
y0
est équivalente à : y3
= −1 t3
, c’est une équation à variable séparée. Elle est équivalente à : − y12 = t12 + λ, ce
2
t
qui donne y 2 = − 1+λt 2 , on voit que la condition initiale donne la constante λ = −2. Comme y ne s’annule
q
2
pas sur I, y garde un signe constant et donc ∀ t ∈ I, y(t ) = − 2tt2 −1 . Cette solution est définie sur l’intervalle
] p1 ; +∞[.
MO

3) Équation de Bernoulli

Définition 6.7
Une équation de Bernoulli 2 est une équation différentielle de la forme y 0 = a(t )y λ + b(t )y où a et b
sont deux fonctions continues sur un intervalle I, et λ ∈ R∗ \ {1}.

À retenir : méthode de résolution


La fonction nulle est solution. S’il existe une solution y non constamment nulle, alors il doit exister
un intervalle J sur lequel y ne s’annule pas, sur un tel intervalle y est de signe constant, on peut donc
faire le changement de fonction y = εz α avec ε = ±1 suivant le signe de y, l’équation devient alors :

2. BERNOULLI Jakob (1654 – 1705) : c’est le plus illustre d’une grande famille de mathématiciens suisses.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 62 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 6 : Équations différentielles
αz 0 = b(t )z + a(t )z α(λ−1)+1 , en prenant α = 1
1−λ , on a une équation différentielle linéaire du premier
ordre, on sait donc la résoudre.

1
ZExemple : t 2 y 0 + y + y 2 = 0 avec y(1) = 1 : y est une solution non constamment nulle, on pose z = y ce qui
1 − 1t
donne : z 0 = z + t12 . Les solutions de l’équation homogène sont les fonctions z(t ) = λe

NE
t2
et une solution
− 1t
particulière est z 1 (t ) = −1, les solutions générales sont donc les fonctions z(t ) = −1 + λe , la condition
initiale donne λ = 2e d’où y(t ) = 1−11 . Cette solution est définie sur l’intervalle ] 1+ln(2)
1
; +∞[.
2e t −1

FExercice 6.5 Résoudre y 0 = x y 2 + y avec y(0) = 1.

V SOLUTION DES EXERCICES

Solution 6.1
1/ Une primitive de h est H : t 7→ α1 e αt .

AIG
1−i t 1 −t i 2
2/ f (t ) = 1+t 2
= 1+t 2
+ i 1+t 2 , donc une primitive F de f sur R est définie par F(t ) = arctan(t ) − 2 ln(1 + t ).

e it
3/ g (t ) est la partie réelle de h(t ) = e t e i t = e at avec a = 1 + i . Une primitive de h sur R est H(t ) = a1 e at = e t 1+i . Une
i t (1−i )
primitive G de g sur R est définie par G(t ) = Re(H(t )) = e t Re( e 2 ) = 12 e t (cos(t ) + sin(t )).

¯R π ¯ Rπ¯ ¯R π
6.2 ¯ 0 e (1+i )t dt ¯ 6 0 ¯e (1+i )t ¯ dt (majoration en module), or e (1+i )t = e t e i t donc |e (1+i )t | = e t , d’où ¯ 0 e (1+i )t dt ¯ 6
¯ ¯
Solution
Rπ t π
0 e dt = e − 1.

Solution 6.3 Équation différentielle linéaire d’ordre 1, le coefficient de y 0 s’annule en 0.


1 1
3 ln(|x|)− −
– Résolution sur ] − ∞; 0[ : (H) ⇐⇒ y 0 = ( x3 + x23 )y ⇐⇒ y = λe x2 = αϕ(x) avec α ∈ R et ϕ(x) = x 3 e x2 .
1 1
1 1 x2
La méthode de la variation de la constante donne λ = 0
ϕ(x) = x3
e , on peut donc prendre λ = − 21 e x 2 ce qui
3
donne la solution particulière y 1 (x) = − x2 . Les solutions générales sur cet intervalle sont les fonctions y : x 7→
3 1
3 − x2
− x2+ λx e .
– Sur ]0 ; +∞[ : mêmes résultats.
NT
1
x3 3 −

 y(x) = − 2 + λx e x 2
 si x < 0
– Sur R : y est solution sur R ssi y(x) = 0 si x = 0 avec λ, α ∈ R, on vérifie qu’une telle fonction
3 − 1

y(x) = − x2 + αx 3 e x 2

si x > 0
est bien dérivable en 0.

Solution 6.4 Équation différentielle linéaire d’ordre 2 à coefficients constants. L’équation caractéristique est x 2 − x − 6 = 0
et ses racines sont 3 et −2, les solutions de l’équation homogène sont les fonctions y : x 7→ αe 3x βe −2x avec α, β ∈ R.
Cherchons une solution particulière en prenant comme second membre :
– 10e 3x , en posant y 1 (x) = axe 3x où a est une constante. On obtient la condition 5a = 10, et donc y 1 (x) = 2xe 3x .
– e −2x , en posant y 2 (x) = axe −2x . On obtient la condition −5a = 1, et donc y 2 (x) = − x5 )e −2x .
x 2
Les solutions générales sont les fonctions y : x 7→ (α + 2x)e 3x + (β − 10 − x5 )e −2x (principe de superposition).
MO

Solution 6.5 Équation de Bernoulli, on cherche une solution y qui ne s’annule par sur un intervalle I contenant 0. On
0
pose z = 1y ce qui donne − zz2 = zx2 + 1z ou encore z 0 = −z + x avec la condition z(0) = 1. C’est une équation différentielle
linéaire d’ordre 1, les solutions de l’équation homogène sont les fonctions z : x 7→ λe −x et la fonction z 1 : x 7→ 1 − x est
solution particulière. Les solutions générales sont les fonctions z : x 7→ 1 − x + λe −x , la condition z(0) = 1 donne λ = 0, d’où
1
z(x) = 1 − x et donc y : x 7→ 1−x , définie sur I = ]−∞ ; 1[.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 63 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 7

Applications - Relations

Sommaire
I Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

AIG
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2) Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3) Famille d’éléments d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
II Injection, surjection, bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1) Injection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2) Surjection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3) Bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
III Images directes, images réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
IV Relations binaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2) Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3) Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
NT
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

I APPLICATIONS

La notion d’application (ou fonction) entre deux ensembles E et F (non vides) est une notion clé en
mathématiques. C’est l’idée d’associer, ou de faire correspondre, à chaque élément de E un élément de F.

1) Définitions

Définition 7.1
Une relation R est la donnée de :
MO

– Un ensemble de départ : E (non vide).


– Un ensemble d’arrivée : F (non vide).
– D’un graphe G qui est une partie de E × F (G ⊂ E × F).
Soient x ∈ E et y ∈ F, on dira que x est relation avec y pour R lorsque (x, y) ∈ G, on écrira xR y. Si c’est
le cas, on dira que y est une image de x par R et que x est un antécédent de y par R.
Lorsque tout élément de E a une et une seule image par R, on dit que R est une application (ou
fonction). Si c’est le cas, et si xR y, alors on écrira plutôt y = R(x), on dira que y est l’image de x par
R. L’ensemble des applications de E vers F est noté F (E, F) ou encore FE .

Pour désigner une application on utilise en général une lettre minuscule. Si ¯f est une application de E
© ª
vers F on écrit : f : E → F , et le graphe de f est l’ensemble G f = (x; f (x) ¯ x ∈ E .
x 7→ f (x)
ZExemples :
– L’exponentielle est une application de R vers R.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 64 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications Chapitre 7 : Applications - Relations

– Le logarithme est une application de ]0 ; +∞[ vers R.


– Soit f : R → R définie par f (x) = x1 n’est pas une application car 0 n’a pas d’image, on dit que son
ensemble de définition est D f = R∗ . Par contre, la restriction de f à son ensemble de définition est une
application, on la note f |D f : D f → R. Lorsqu’une application g est une restriction d’une application f ,
on dit que f est un prolongement de g .

NE
Définition 7.2 (identité d’un ensemble)
Soit E un ensemble, l’identité de E est l’application de E dans E qui à chaque élément de E associe
lui-même. On la note idE : E → E .
x 7→ idE (x) = x

Diagramme sagittal
Lorsque les ensembles E et F ont très peu d’éléments, on peut représenter une application f : E → F sous
forme d’un diagramme sagittal :

E F

AIG
e1 f1

e2 f2
f3
e3
f4
e4 f5

© ª
Dans cet exemple, le graphe de f est G f = (e 1 , f 3 ); (e 2 , f 1 ); (e 3 , f 3 ); (e 4 , f 2 ) .

Attention ! (égalité de fonctions)


Deux fonctions f et g sont égales si et seulement si elles ont :
– le même ensemble de départ E,
NT
– le même ensemble d’arrivée F,
– le même graphe, c’est à dire : ∀x ∈ E, f (x) = g (x).
Par exemple, la fonction f : R → R définie par f (x) = x 2 et la fonction g : R → R+ définie par g (x) = x 2 ne sont pas
égales !

Définition 7.3 (ensemble image)


Soit f : E → F une application, on appelle ensemble image de f l’ensemble de toutes les images par
f , on le note f (E) (parfois Im( f )). C’est donc une partie de F, plus précisément c’est l’ensemble des
éléments de F qui ont au moins un antécédent par f dans E :
© ¯ ª
f (E) = y ∈ F ¯ ∃x ∈ E, y = f (x)
MO

ZExemples : © ª
– Dans l’exemple du diagramme sagittal, l’ensemble image est Im( f ) = f 1 ; f 2 ; f 3 .
– L’ensemble image de la fonction cosinus est [−1; 1]. Plus généralement, pour déterminer l’ensemble
image d’une fonction f : I → R où I est un intervalle de R, on étudie les variations de f et sa continuité
(en vue d’appliquer le théorème des valeurs intermédiaires).
– L’ensemble image de la fonction g : C → C définie par ∀z ∈ C, g (z) = z 2 est g (C) = C.

2) Composition
Lorsque l’ensemble d’arrivée d’une application coïncide avec l’ensemble de départ d’une autre applica-
tion, alors il est possible « d’enchaîner » les deux, c’est la composition :
f g
E → F → G
x 7→ f (x) 7→ g ( f (x))

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 65 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications Chapitre 7 : Applications - Relations

Définition 7.4
Soient E, F, G trois ensembles, f : E → F et g : F → G deux applications. La composée g ◦ f est l’appli-
cation de E vers G définie par : ∀x ∈ E, (g ◦ f )(x) = g ( f (x)) :

NE
g◦f : E → G
x 7 → (g ◦ f )(x) = g ( f (x))

Attention !
On prendra garde à l’ordre dans l’écriture de g ◦ f .

Remarque 7.1 :
– Lorsqu’on a deux applications f : E → F et g : H → G avec seulement F ⊂ H (au lieu de F = H), alors on
peut encore définir la composée et on la note encore g ◦ f même si théoriquement on devrait plutôt écrire
¡ ¢
g |F ◦ f .
– Lorsque f est une application d’un ensemble E vers lui-même, alors on peut composer f avec elle-même,

AIG
et autant de fois que l’on veut. Si n est un entier strictement positif, on notera f n = f ◦ · · · ◦ f . Par
convention, on pose f 0 = idE .
ZExemple : Si f est l’application de R vers R définie par ∀x ∈ R, f (x) = x + 1, alors ∀n ∈ N, f n est l’application
de R vers R définie par ∀x ∈ R, f n (x) = x + n.

1
FExercice 7.1 Écrire la fonction f : ]1 ; +∞[ → R définie par f (x) = px−1 , comme composée de trois fonctions.

Théorème 7.1 (propriétés)


Soient f : E → F, g : F → G et h : G → H trois applications.
– idF ◦ f = f et f ◦ idE = f .
– (h ◦ g ) ◦ f = h ◦ (g ◦ f ), c’est l’associativité de la composition.

Preuve : Celle-ci est simple et laissée en exercice. 


NT
3) Famille d’éléments d’un ensemble

Définition 7.5
Soit I un ensemble non vide, et soit E un ensemble. On appelle famille d’éléments de E indexée par I,
toute application u : I → E, on note généralement cette famille (u i )i ∈I , et pour i ∈ I, on note u(i ) = u i
(appelé terme d’indice i ). L’ensemble de départ I est appelé ensemble des indices de la famille. Une
famille d’éléments de E indexée par N est appelée suite d’éléments de F. L’ensemble des familles
d’éléments de E indexées par I se note F (I, E) ou EI .

Familles de parties d’un ensemble E


MO

Conformément à la définition ci-dessus, une famille de parties de E indexée par un ensemble I non vide,
est une application A : I → P (E), que l’on peut noter (Ai )i ∈I (Ai étant une partie de E pour tout i ∈ I). On peut
alors généraliser les notions d’intersection et de réunion de la manière suivante :
S
– La réunion de la famille (Ai )i ∈I est Ai = {x ∈ E | ∃i ∈ I, x ∈ Ai }.
i ∈I T
– L’intersection de la famille (Ai )i ∈I est Ai = {x ∈ E | ∀i ∈ I, x ∈ Ai }.
i ∈I

FExercice 7.2
1/ Pour n ∈ N, on pose An =]n; n + 1]. Déterminer
S T
An et An .
n∈N n∈N
1 1
2/ Même question avec n ∈ N∗ et An = [ n+1 ;1− n+1 ].
Les propriétés vues dans le chapitre I se généralisent :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 66 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Injection, surjection, bijection Chapitre 7 : Applications - Relations

Théorème 7.2
Soit (Ai )i ∈I une famille de parties de E et soit B une partie de E, alors :
µ ¶ µ ¶
S S T T
– B∩ Ai = (B ∩ Ai ) et B ∪ Ai = (B ∪ Ai ) (distributivité).
i ∈I i ∈I i ∈I i ∈I

NE
µ ¶ µ ¶
S T T S
– CE Ai = CE (Ai ) et CE Ai = CE (Ai ) (lois de De Morgan).
i ∈I i ∈I i ∈I i ∈I

Preuve : Celle-ci est simple et laissée en exercice. 

II INJECTION, SURJECTION, BIJECTION

Dans cette partie nous allons dégager des propriétés éventuelles des applications. Ces notions joueront
un rôle important par la suite.

1) Injection

AIG
Définition 7.6
Soit f : E → F une application, on dit que f est une injection (ou f est injective) lorsque tout élément
de l’ensemble d’arrivée a au plus un antécédent dans l’ensemble de départ. Ce qui revient à dire :
pour tout élément y de F, l’équation y = f (x) a plus une solution x dans E.

E F E F

e1 f1 e1 f1

e2 f2 e2 f2
f3 f3
e3 e3
f4 f4
NT
e4 f5 e4 f5

Injective Non Injective

ZExemples :
– Si E est un ensemble non vide, idE est injective. Soit A une partie non vide de E, l’application f : A → E
x 7→ x
est injective, c’est l’injection canonique de A dans E.
x+1
– f : R \ {1} → R définie par f (x) = x−1 est une injection.
– g : ]0 ; +∞[ → R définie par g (x) = ln(x) est une injection.
– h : R → R définie par h(x) = x 2 n’est pas une injection.
MO

– Une fonction f : I → R strictement monotone sur l’intervalle I est injective.

Théorème 7.3 (définition équivalente)


f : E → F est injective si et seulement si : ∀x, y ∈ E, f (x) = f (y) =⇒ x = y.
Ce qui équivaut encore par contra-position à : ∀x, y ∈ E, x 6= y =⇒ f (x) 6= f (y).

Preuve : Si f est injective : soit x, y ∈ E tels que f (x) = f (y), x et y sont donc deux antécédents d’un même élément de
F, f étant injective ces deux éléments ne peuvent pas être distincts (sinon on a une contradiction) donc x = y.
Supposons que f vérifie : ∀x, y ∈ E, f (x) = f (y) =⇒ x = y. Soit z ∈ F ayant deux antécédents distincts x et y dans E,
alors z = f (x) = f (y), on en déduit que x = y ce qui est absurde, donc z ne peut pas avoir deux antécédents distincts,
par conséquent f est injective. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 67 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Injection, surjection, bijection Chapitre 7 : Applications - Relations

Théorème 7.4 (propriétés)


Soient f : E → F et g : F → G deux applications :
– Si f et g sont injectives alors g ◦ f est injective.
– Si g ◦ f est injective alors f est injective mais pas forcément g .

NE
Preuve : Celle-ci est simple et laissée en exercice. 

FExercice 7.3 Soit f : E → F une application, montrer que f est injective si et seulement si il existe h : F → E telle que
h ◦ f = idE .

2) Surjection

Définition 7.7
Soit f : E → F une application, on dit que f est une surjection (ou f est surjective) lorsque tout
élément de l’ensemble d’arrivée a au moins un antécédent dans l’ensemble de départ. Ce qui revient
à dire : pour tout élément y de F, l’équation y = f (x) a moins une solution x dans E, ou encore

AIG
∀y ∈ F, ∃x ∈ E, y = f (x).

E F E F

e1 f1 e1 f1
e2 e2
f2 f2
e3 e3
e4 f3 e4 f3

e5 f4 e5 f4

Surjective Non surjective


NT
À retenir
Dire que f : E → F est surjective, équivaut à Im( f ) = F.

ZExemples :
– Si E est un ensemble non vide, idE est surjective.
– f : C → C définie par f (z) = z 2 et une surjection.
– f : R → U définie par f (x) = e i x est une surjection.
– h : R \ {1} → R définie par h(x) = 2x+1
x−1 n’est pas surjective.
– Si f : E → F est une application, alors f induit une surjection entre E et Im( f ) qui est l’application
MO

g : E → Im( f ) définie par g (x) = f (x).

Théorème 7.5 (propriétés)


Soient f : E → F et g : F → G deux applications :
– Si f et g sont surjectives alors g ◦ f est surjective.
– Si g ◦ f est surjective alors g est surjective mais pas forcément f .

Preuve : Celle-ci est simple et laissée en exercice. 

FExercice 7.4 Soit f : E → F une application, montrer que f est surjective si et seulement si il existe h : F → E telle que
f ◦ h = idF .

FExercice 7.5 Soit E un ensemble non vide, et f une application de E vers P (E). En considérant la partie A = x ∈ E ¯ x ∉ f (x) ,
© ¯ ª

montrer que f ne peut pas être surjective.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 68 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Injection, surjection, bijection Chapitre 7 : Applications - Relations
3) Bijection

Définition 7.8
Soient E, F deux ensembles et f : E → F une application, on dit que f est une bijection (ou application
bijective) lorsque tout élément de F a un unique antécédent par f , ce qui peut s’écrire de la manière

NE
suivante : ∀y ∈ F, ∃! x ∈ E, f (x) = y.

E F E F

e1 f1 e1 f1
e2 f2 e2 f2
e3 f3 e3 f3
e4 f4 e4 f4

AIG
Bijective Non bijective

Dire que tout élément de F a un unique antécédent revient à dire que tout élément de F a au moins
un antécédent et au plus un antécédent. Par conséquent dire que f est bijective revient à dire que f est
surjective et injective.

À retenir
f est bijective ⇐⇒ f est surjective et injective.

ZExemples :
– Si E est un ensemble non vide, alors idE est une bijection.
– f : [0 ; +∞[ → [0 ; +∞[ définie par f (x) = x 2 est une bijection.
NT
– g : R → ]0 ; +∞[ définie par g (x) = e x est une bijection.
– h : R → R définie par h(x) = e x n’est pas une bijection.

À retenir
Si f : E → F est injective, alors f induit une bijection de E vers Im( f ) qui est f˜ : E → Im( f ) définie
par f˜(x) = f (x). Cela s’applique en particulier aux fonctions f : I → R strictement monotones sur
l’intervalle I.

Définition 7.9 (bijection réciproque)


Si f : E → F est une bijection, alors on peut considérer l’application qui va de F vers E et qui à
MO

tout élément x de F associe son unique antécédent par f , cette application est appelée bijection
réciproque de f , on la note f −1 . Autrement dit, f −1 : F → E .
x 7→ y défini par f (y) = x

Attention !
La notation f −1 n’a de sens que lorsque f est bijective.

ZExemples :
– Si E est un ensemble non vide, alors idE est une bijection et la bijection réciproque est id−1 E = idE .
2
– f : [0 ; +∞[ → [0 ; +∞[ définie par f (x) = x est une bijection et la bijection réciproque est la fonction
racine carrée.
– g : R → ]0 ; +∞[ définie par g (x) = e x est une bijection et la bijection réciproque est la fonction loga-
rithme népérien.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 69 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Images directes, images réciproques Chapitre 7 : Applications - Relations

À retenir
Lorsque f : E → F est bijective : ∀x ∈ F, ∀y ∈ E, f −1 (x) = y ⇐⇒ f (y) = x.

NE
E F
y = f −1 (x) x = f (y)

f −1

Théorème 7.6
Soit f : E → F une bijection.
¢−1
– On a f −1 ◦ f = idE et f ◦ f −1 = idF . De plus f −1 est une bijection et f −1
¡
=f.
– Si g : : F → G est une autre bijection, alors la composée g ◦ f est une bijection de E vers G, et sa
bijection réciproque est : (g ◦ f )−1 = f −1 ◦ g −1 .

AIG
Preuve : – La composée f −1 ◦ f existe et va de E dans E. Si x ∈ E, alors ( f −1 ◦ f )(x) = f −1 ( f (x)) = x car x est l’unique
antécédent de f (x) par f , on a donc f −1 ◦ f = idE . De même, f ◦ f −1 existe et va de F dans F. Si x ∈ F, alors ( f ◦ f −1 )(x) =
f ( f −1 (x)) = x car f −1 (x) est l’unique antécédent de x par f , on a donc f ◦ f −1 = idF . Le point suivant est évident.
– Si g : F → G est une autre bijection, soit y ∈ G, alors pour tout x ∈ E on a :

(g ◦ f )(x) = y ⇐⇒ g ( f (x)) = y
⇐⇒ f (x) = g −1 (y)
⇐⇒ x = f −1 (g −1 (y)) = ( f −1 ◦ g −1 )(y)

le résultat en découle. 

FExercice 7.6 Soient f : E → F et g : F → E deux applications telles que f ◦ g = idF et g ◦ f = idE . Montrer que f et g sont
bijectives et réciproques l’une de l’autre.

Remarque 7.2 – Le résultat de cet exercice est à connaître.


NT
Définition 7.10 (involution)
Soit E un ensemble non vide. Une involution de E est une application f de E vers lui-même telle que
f ◦ f = idE . Une telle application est bijective et elle est sa propre réciproque : f −1 = f .

ZExemples :
– Dans le plan, les symétries ponctuelles, les symétries axiales, sont des involutions du plan.
– La fonction f : R∗ → R∗ définie par f (x) = x1 est une involution de R∗ .
– La conjugaison dans C est une involution de C.
MO

III IMAGES DIRECTES, IMAGES RÉCIPROQUES

1) Définitions

Définition 7.11
Soit f : E → F une application, A une partie de E et B une partie de F.
– On appelle image directe de A par f , l’ensemble des images des éléments de A par ¯f , ou encore, l’en-
© ª
semble des éléments F qui ont un antécédent dans A par f . Notation : f (A) = y ∈ F ¯ ∃x ∈ A, f (x) = y ,
c’est une partie de F.
– On appelle image réciproque de B par f , l’ensemble des antécédents des éléments de B par f .
Notation : f −1 (B) = x ∈ E ¯ f (x) ∈ B , c’est une partie de E.
© ¯ ª

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 70 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Relations binaires Chapitre 7 : Applications - Relations

Attention !
La notation f −1 (B) ne suppose pas que f est bijective. Mais lorsque f est effectivement bijective, on peut vérifier
que l’image réciproque de B par f correspond à l’image directe de B par f −1 .

NE
Remarque 7.3 :
– On a f (E) = Im( f ) et f −1 (F) = E.
– Dans le cas d’une fonction f : I → R continue sur l’intervalle I, l’étude de la fonction permet de déterminer
l’image directe d’une partie de I et l’image réciproque d’une partie de R.
ZExemple : Soit f la fonction sinus, on a f ([0 ; π[) = [0; 1], f −1 ([0 ; 1]) =
S
[2kπ; (2k + 1)π].
k∈Z

2) Propriétés

Théorème 7.7
Soit f : E → F une application. Pour toutes parties A et B de E, on a :
– Si A ⊂ B alors f (A) ⊂ f (B).

AIG
– f (A ∪ B) = f (A) ∪ f (B).
– f (A ∩ B) ⊂ f (A) ∩ f (B).
– A ⊂ f −1 ( f (A)).

Preuve :
– Le premier point est évident.
– Si x ∈ A ∪ B alors x ∈ A ou x ∈ B donc f (x) ∈ f (A) ou f (x) ∈ f (B), c’est à dire f (x) ∈ f (A) ∪ f (B). On a donc
f (A ∪ B) ⊂ f (A) ∪ f (B). Réciproquement, on a f (A) ⊂ f (A ∪ B) et f (B) ⊂ f (A ∪ B) (d’après le premier point) et donc
f (A) ∪ f (B) ⊂ f (A ∪ B), d’où l’égalité.
– Si x ∈ A ∩ B alors f (x) ∈ f (A) et f (x) ∈ f (B) d’où f (x) ∈ f (A) ∩ f (B), donc f (A ∩ B) ⊂ f (A) ∩ f (B).
– Si x ∈ A alors f (x) ∈ f (A), d’où l’inclusion. 
Remarque 7.4 :
– Dans le cas de l’intersection (3e propriété), on n’a pas l’égalité en général. Par exemple, si f est la fonction
cosinus de R dans R, si A = [− π2 ; − π3 ] et B = [0 ; π], alors f (A) ∩ f (B) = [0 ; 12 ] alors que f (A ∩ B) = ∅.
NT
– De même pour la dernière propriété, par exemple, en reprenant la fonction cosinus avec A = [0 ; π], on a
f (A) = [−1 ; 1] et f −1 ( f (A)) = R.

FExercice 7.7
1/ Montrer que les propriétés 2 et 3 du théorème précédent se généralisent à une famille quelconque de parties de E.
2/ Soient f : E → F et g : F → G deux applications, soit A une partie de E, montrer que (g ◦ f )(A) = g ( f (A)). Soit B une
partie de G, montrer que (g ◦ f )−1 (B) = f −1 (g −1 (B)).
3/ Montrer que f : E → F est injective si et seulement si pour tout partie A de E on a f −1 ( f (A)) = A.

Théorème 7.8
Soit f : E → F une application. Pour toutes parties A et B de F, on a :
MO

– Si A ⊂ B alors f −1 (A) ⊂ f −1 (B).


– f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B).
– f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B).

Preuve :
– Si x ∈ f −1 (A) alors f (x) ∈ A donc f (x) ∈ B, d’où x ∈ f −1 (B).
– x ∈ f −1 (A ∪ B) ⇐⇒ f (x) ∈ A ou f (x) ∈ B ⇐⇒ x ∈ f −1 (A) ∪ f −1 (B).
– x ∈ f −1 (A ∩ B) ⇐⇒ f (x) ∈ A et f (x) ∈ B ⇐⇒ x ∈ f −1 (A) ∩ f −1 (B). 

IV RELATIONS BINAIRES

Nous revenons dans cette partie à la notion générale de relation définie en début de chapitre. Mais on
s’intéresse plus particulièrement aux relations d’un ensemble E dans lui-même.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 71 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Relations binaires Chapitre 7 : Applications - Relations
1) Définitions

Définition 7.12
Soit R une relation d’un ensemble E vers lui - même, on dit que R est :
– réflexive lorsque tout élément est en relation avec lui - même : ∀ x ∈ E, xRx.

NE
– symétrique lorsque : ∀ x, y ∈ E, si xR y alors yRx (le graphe de R est symétrique).
– antisymétrique lorsque : ∀ x, y ∈ E, si xR y et yRx alors x = y. On remarquera qu’il ne s’agit pas de
la négation de symétrique.
– transitive lorsque : ∀ x, y, z ∈ E, si xR y et yRz alors xRz.

ZExemples :
– Dans R, la relation R définie par : ∀ x, y ∈ R, xR y ⇐⇒ x 6 y, est une relation réflexive, antisymétrique
et transitive.
– Dans Z, la relation S définie par : ∀ x, y ∈ Z, xS y ⇐⇒ x − y ∈ 2Z, est une relation réflexive, symétrique
et transitive.
– Soit E un ensemble, la relation T définie dans P (E) par : ∀ A, B ∈ P (E), AT B ⇐⇒ A ⊂ B. Cette relation

AIG
T est réflexive antisymétrique et transitive.

2) Relation d’équivalence

Définition 7.13
Soit E un ensemble et R une relation de E dans E, on dit que R est une relation d’équivalence
lorsqu’elle est réflexive, symétrique et transitive. Si c’est le cas, alors pour tout élément a de E, on
appelle classe de a l’ensemble des x ∈ E en relation avec a, notation : Cl (a) = {x ∈ E | xRa}.

ZExemples :
– L’égalité dans un ensemble est une relation d’équivalence.
– Soit n ∈ Z, la relation définie dans Z, par ∀ x, y ∈ Z, xR y ⇐⇒ x − y ∈ n Z, est une relation d’équivalence.
Cette relation est appelée la congruence modulo n dans Z, et on note ∀x, y ∈ Z, x ≡ y (mod n) ⇐⇒
∃k ∈ Z, x − y = kn.
NT
– Soit a ∈ R, la relation définie dans R, par ∀ x, y ∈ R, xR y ⇐⇒ x − y ∈ a Z, est une relation d’équivalence.
Cette relation est appelée la congruence modulo a dans R, et on note ∀x, y ∈ R, x ≡ y (mod a) ⇐⇒
∃k ∈ Z, x − y = ka.

Théorème 7.9
Si R est une relation d’équivalence dans E, alors :
– ∀ a, b ∈ E, Cl(a) = Cl(b) ⇐⇒ aRb.
– Les classes d’équivalence forment une partition de E, c’est à dire :
• Les classes d’équivalence sont des parties de E non vides et deux à deux disjointes.
• La réunion des classes d’équivalence est égale à E.
MO

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemple : Considérons la relation de congruence modulo 5 dans Z, soit n ∈ Z, on a Cl(n) = {n + 5k / k ∈ Z}.
On peut vérifier qu’il n’y a que cinq classes pour cette relation, celles de 0, de 1, de 2, de 3 et de 4.

3) Relation d’ordre

Définition 7.14
– Soit R une relation dans un ensemble E, on dit que R est une relation d’ordre lorsque cette relation
est : réflexive, antisymétrique et transitive. Lorsque c’est le cas, on dit que (E, R) est un ensemble
ordonné.
– Deux éléments x et y de E sont dits comparables pour l’ordre R lorsque l’on a xR y ou bien yRx.
Lorsque tous les éléments de E sont comparables deux à deux, on dit que l’ordre R est total et que
(E, R) est un ensemble totalement ordonné, sinon on dit que l’ordre est partiel et que (E, R) est
partiellement ordonné.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 72 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 7 : Applications - Relations
– Une relation d’ordre est en général notée 6, c’est à dire que xR y est plutôt noté x 6 y.

ZExemples :
– L’ordre naturel sur les réels est une relation d’ordre total.
– Soit E un ensemble, (P (E), ⊂) est un ensemble partiellement ordonné (dès que card(E) > 2).

NE
– Soit I un ensemble non vide, on pose E = F (I, R) l’ensemble des fonctions définies sur I et à valeurs
réelles. On définit dans E la relation R : pour f , g ∈ E, f Rg ⇐⇒ ∀ x ∈ I, f (x) 6 g (x). On vérifie que R
est une relation d’ordre partiel (dès que card(I) > 1), cette relation est appelée ordre fonctionnel et
notée 6.
– Pour (x, y) et (x 0 , y 0 ) ∈ R2 , on pose :

0
x < x


(x, y)R(x 0 , y 0 ) ⇐⇒ ou

x = x 0 et y 6 y 0

On vérifie que R est une relation d’ordre total sur R2 (appelée ordre lexicographique et notée 6).

AIG
Remarque 7.5 – On prendra garde au fait que lorsque l’ordre est partiel, la négation de x 6 y est :

x et y ne sont pas comparables


ou


x et ysont comparables et x > y

Définition 7.15
Soit (E, 6) un ensemble ordonné et A une partie de E, on dit que :
– A est majoré dans E lorsque : ∃M ∈ E, ∀x ∈ A, x 6 M.
– A est minoré dans E lorsque : ∃m ∈ E, ∀x ∈ A, m 6 x.
– A est borné dans E lorsque A est à la fois majoré et minoré.
– A admet un maximum lorsque : ∃a ∈ A, ∀x ∈ A, x 6 a. Si c’est le cas, on note a = max(A).
NT
– A admet un minimum lorsque : ∃a ∈ A, ∀x ∈ A, a 6 x. Si c’est le cas, on note a = min(A).

Attention !
– Une partie d’un ensemble ordonné n’est pas forcément majoré (ou minoré), par exemple N est non majoré dans R.
– Une partie majorée (ou minorée) dans un ensemble ordonné n’a pas forcément de maximum (ou minimum). Par
exemple [0; 1[ dans R.

FExercice 7.8 Montrer que si A admet un maximum dans (E, 6), alors celui-ci est unique (même chose pour minimum).

V SOLUTION DES EXERCICES


MO

Solution 7.1 On a :
f : ]1 ; +∞[ → ]0 ; +∞[ → ]0 ; +∞[ → ]0 ; +∞[
p
x 7 → x −1 7 → x −1 7 → p1
x−1

Solution 7.2
1/ La réunion est ]0 ; +∞[, et l’intersection est vide.
©1ª
2/ La réunion est ]0 ; 1[ et l’intersection est le singleton 2 .

Solution 7.3 Si h existe alors f est injective d’après le théorème.


Réciproquement, si f est injective, soit y ∈ F, on pose h(y) = x avec x antécédent de y par f si y a un antécédent (on
sait alors qu’il est unique) et si y n’a pas d’antécédent par f on choisit ce qu’on veut pour h(y) dans E. On vérifie alors que
pour tout x ∈ E, h( f (x)) = x car x est l’unique antécédent de f (x) par f .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 73 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 7 : Applications - Relations

Solution 7.4 Si h existe alors f est surjective d’après le théorème.


Réciproquement, si f est surjective, soit y ∈ F, on pose h(y) = x avec x antécédent de y par f que l’on choisit car il en
existe. On vérifie alors que pour tout x ∈ E, f (h(x)) = x car h(x) est un antécédent de x par f .

Solution 7.5 Par l’absurde : si f est surjective, alors il existe x 0 ∈ E tel que f (x 0 ) = A, si x 0 ∈ A, alors x 0 ∈ f (x 0 ) et donc

NE
x 0 ∉ A (par définition de A), ce qui est absurde, donc x 0 ∉ A, mais alors x 0 ∉ f (x 0 ) et donc x 0 ∈ A, ce qui est de nouveau
absurde. Par conséquent f ne peut pas être surjective.

Solution 7.6 On sait que idF et idE sont injectives, on en déduit que g et f sont injectives. On sait aussi que idF et idE sont
surjectives, on en déduit que f et g sont surjectives. Ce sont deux donc deux bijections, d’où f = g −1 ◦ idE = g −1 .

Solution 7.7
1/ C’est le même raisonnement quand dans la preuve.
2/ Soient f : E → F et g : F → G deux applications. Soit A une partie de E :

z ∈ g ( f (A)) ⇐⇒ ∃y ∈ f (A), z = g (y) ⇐⇒ ∃x ∈ A, z = g ( f (x)) = (g ◦ f )(x) ⇐⇒ z ∈ (g ◦ f )(A)

Soit B une partie de G :

AIG
x ∈ (g ◦ f )−1 (B) ⇐⇒ g ( f (x)) ∈ B ⇐⇒ f (x) ∈ g −1 (B) ⇐⇒ x ∈ f −1 (g −1 (B))

3/ Si f est injective, soit A une partie de E, on sait que A ⊂ f −1 ( f (A)), si x ∈ f −1 ( f (A)), alors f (x) ∈ f (A), donc il existe
y ∈ A tel que f (x) = f (y), mais alors x = y ( f étant injective) et donc x ∈ A. Donc f −1 ( f (A)) = A.
Réciproque, si pour tout partie A de E on a f −1 ( f (A)) = A. Sot x ∈ E alors f −1 ( f ({x})) = {x}, donc si f (y) = f (x) alors
y ∈ {x}, d’où y = x. L’application f est donc injective.

Solution 7.8 Soient m 1 et m 2 deux maximums de A, alors m 1 6 m 2 car m 2 est un maximum, et inversement m 2 6 m 1
car m 1 est un maximum, d’où m 1 = m 2 .
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 74 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 8

Nombres réels

Sommaire
I L’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

AIG
1) Rappels sur les rationnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2) Opérations et ordre sur les réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
II Borne inférieure, borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
1) Propriété fondamentale de l’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . 76
2) Intervalles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3) La droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4) Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
III Approximation d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
1) Valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3) Approximations décimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

L’existence des ensembles Q et R est admise.


NT
I L’ENSEMBLE DES RÉELS

1) Rappels sur les rationnels


p
Un rationnel est un réel de la forme pq −1 (ou q ) où p et q sont deux entiers avec q 6= 0. L’ensemble
des rationnels est noté Q. Tout rationnel peut s’écrire de différentes manières sous forme de fractions,
p 2p −p
par exemple : q = 2q = −q . Mais tout nombre rationnel s’écrit de manière unique sous forme de fraction
p
irréductible, c’est à dire sous la forme q avec p ∈ Z, q ∈ N∗ et avec p et q premiers entre eux (i.e. sans autres
diviseurs communs que 1 et -1).

Opérations sur les rationnels


MO

p aq+bp p ap
On rappelle que : q + ba = bq et q × ba = bq . L’addition et la multiplication sont donc des lois de
composition internes dans Q, on vérifie que (Q, +, ×) est un corps commutatif. On vérifie également que
(Q, +), (Q∗ , ×) et (Q∗+ , ×) sont des groupes commutatifs.

L’ensemble des rationnels est insuffisant


En termes d’approximations numériques, Q peut paraître suffisant en sciences appliquées. Le problème
se pose lorsqu’on a besoin de connaître la valeur exacte de certaines grandeurs. Par exemple, peut - on
mesurer dans Q la longueur de la diagonale d’un carré de côté 1 ? D’après le théorème de Pythagore 1 , cela
revient à se demander p s’il existe un rationnel dont le carré est égal à 2, or nous avons déjà établi que la
réponse est négative ( 2 ∉ Q).
Cette lacune de Q avait été remarquée par les Pythagoriciens, ce qui a conduit les mathématiciens à
introduire de nouveaux nombres, les irrationnels, en concevant un ensemble plus vaste que Q, l’ensemble
des nombres réels noté R.
1. PYTHAGORE De Samos (569 av J.-C. – 500 av J.-C. (environ)) : mathématicien et philosophe grec dont la vie et l’œuvre restent
entourées de mystères.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 75 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Borne inférieure, borne supérieure Chapitre 8 : Nombres réels

2) Opérations et ordre sur les réels


L’ensemble R contient Q et possède une addition et une multiplication (qui prolongent celles de Q) qui
font que (R, +, ×) est un corps commutatif. On admettra également qu’il existe deux parties de R que l’on
note A et B et qui vérifient :

NE
– A et B sont stables pour l’addition.
– Q+ ⊂ A et Q− ⊂ B.
– R = A ∪ B.
– A ∩ B = {0}.
– Si x, y ∈ A alors x y ∈ A, si x, y ∈ B alors x y ∈ A et si x ∈ A et y ∈ B, alors x y ∈ B (règle des signes).
On définit alors une relation R dans R en posant : ∀ x, y ∈ R, xR y ⇐⇒ x − y ∈ B. Cette relation est :
– Réflexive : ∀ x ∈ R, xRx.
– Antisymétrique : si xR y et yRx alors x = y.
– Transitive : si xR y et yRz, alors xRz.
Le relation R est donc une relation d’ordre sur R. On la notera désormais 6, c’est à dire que xR y sera
noté x 6 y (i.e. x − y ∈ B).
On remarquera que x 6 0 signifie que x ∈ B, et que 0 6 x signifie que −x ∈ B et donc x ∈ A car x = (−1)(−x) :

AIG
produit de deux éléments de B. D’autre part, si x ∈ A et y ∈ B, alors x 6 y car y − x = y + (−x) : somme de deux
éléments de B.
Si x et y sont deux réels quelconques, on a x − y ∈ A ou x − y ∈ B, c’est à dire x − y ∈ B ou y − x ∈ B, c’est à
dire encore x 6 y ou y 6 x. Deux réels sont donc toujours comparables, l’ordre est total.
Notation : On pose A = R+ et B = R− .

Théorème 8.1
La relation d’ordre 6 est :
• Compatible avec l’addition, c’est à dire :
∀ x, y, z ∈ R, si x 6 y alors x + z 6 y + z.
• Compatible avec la multiplication par un réel positif :
∀ x, y, z ∈ R, si 0 6 z et x 6 y, alors xz 6 y z.

Preuve : Si x 6 y, alors x − y ∈ R− , mais (x + z) − (y + z) = x − y, donc (x + z) − (y + z) ∈ R− i.e. x + z 6 y + z. Si 0 6 z et


NT
x 6 y, alors x − y ∈ R− donc z(x − y) ∈ R− , i.e. zx 6 z y. On remarquera que si z 6 0 alors z(x − y) ∈ R+ donc z y 6 zx,
l’inégalité change de sens. 

Conséquences
– Si x 6 y et a 6 b, alors x + a 6 y + b.
– Si 0 6 x 6 y et 0 6 a 6 b alors 0 6 ax 6 b y.

II BORNE INFÉRIEURE, BORNE SUPÉRIEURE

1) Propriété fondamentale de l’ensemble des réels


Soit I une partie non vide de R et soit a un réel, on dit que :
MO

– I est majorée par a (ou a est un majorant de I), lorsque tout élément de I est inférieur ou égal à a :
∀ x ∈ I, x 6 a.
– I est minorée par a (ou a est un minorant de I), lorsque tout élément de I est supérieur ou égal à a :
∀ x ∈ I, x > a.
– I est bornée, lorsque I est à la fois minorée et majorée : ∃ m, M ∈ R, ∀ x ∈ I, m 6 x 6 M.
ZExemples :
2
x
– L’ensemble I = { 1+x 2 / x ∈ R} est borné (minoré par 0 et majoré par 1).
2
x
– L’ensemble I = { 1+|x| / x ∈ R} est minoré par 0, mais non majoré.
Remarque 8.1 –
– I est non majoré équivaut à : ∀ M ∈ R, ∃ x ∈ I, x > M.
– I est non minoré équivaut à : ∀ m ∈ R, ∃ x ∈ I, x < m.
– I est borné équivaut à : ∃ M ∈ R, ∀ x ∈ I, |x| 6 M.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 76 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Borne inférieure, borne supérieure Chapitre 8 : Nombres réels

Définition 8.1
Soit I une partie non vide de R. Si l’ensemble des majorants de I n’est pas vide et s’il admet un plus
petit élément, alors celui-ci est appelé borne supérieure de I et noté sup(I). La borne supérieure
(lorsqu’elle existe) est donc le plus petit des majorants.

NE
Si l’ensemble des minorants de I n’est pas vide et s’il admet un plus grand élément, alors celui-ci est
appelé borne inférieure de I et noté inf(I). La borne inférieure (lorsqu’elle existe) est donc le plus
grand des minorants.

ZExemples :
– I =]0; 1], l’ensemble des majorants est [1; +∞[, celui-ci admet un plus petit élément qui est 1, donc
sup(I) = 1. L’ensemble des minorants de I est ] − ∞; 0] qui admet un plus grand élément : 0, donc
inf(I) = 0.
– I =]1; +∞[, l’ensemble des majorants est vide donc I n’a pas de borne supérieure. L’ensemble des
minorants est ] − ∞; 1], celui-ci admet un plus grand élément : 1, donc inf(I) = 1.

AIG
Attention !
On remarquera qu’une borne inférieure (ou supérieure) d’un ensemble I n’a aucune raison d’appartenir à I.

Voici le lien entre minimum et borne inférieure (ou maximum et borne supérieure) :

Théorème 8.2
Soit I une partie non vide de R et soit a un réel :
• a = min(I) ssi a ∈ I et a = inf(I).
• a = max(I) ssi a ∈ I et a = sup(I).

Preuve : Celle-ci est simple et laissée en exercice. 


Il découle de la définition :

Théorème 8.3
NT
Soit I une partie non vide de R et(soit m un réel, alors :
m majore I
m = sup(I) ⇐⇒ .
∀ε > 0, m − ε ne majore pas I, i.e. ∃x ∈ I, m − ε < x
(
m minore I
m = inf(I) ⇐⇒ .
∀ε > 0, m + ε ne minore pas I, i.e. ∃x ∈ I, x < m + ε

Théorème 8.4 (Propriété fondamentale de R (admise))


Toute partie de R non vide et majorée admet une borne supérieure.

Conséquence : il en découle que toute partie de R non vide et minorée admet une borne inférieure.
MO

Preuve : Soit A une partie de R non vide et minorée par un réel m, alors l’ensemble −A = {−a / a ∈ A} est une partie
de R non vide et majorée par le réel −m. D’après le théorème précédent, −A admet une borne supérieure M et donc
l’ensemble des majorants de −A est [M, +∞[, on en déduit que l’ensemble des minorants de A est ] − ∞; −M] et donc A
admet une borne inférieure qui est −M, c’est à dire inf(A) = − sup(−A). 
ZExemples :
– Soit a un réel positif, on pose A = x ∈ R ¯ x 2 6 a . A est une partie non vide de R car 0 ∈ A, d’autre part
© ¯ ª

A est majoré par a + 1 car x > a + 1 =⇒ x 2 > a 2 + 2a + 1 > a. L’ensemble A admet donc une borne
p
supérieure M. En raisonnant par l’absurde on peut montrer que M2 = a, par conséquent M = a, c’est
une définition possible de la fonction racine carrée.
– Soient A et B deux parties de R non vides et bornées telles que A ⊂ B. Montrer que inf(B) 6 inf(A) et
sup(A) 6 sup(B).
Réponse : inf(B) est un minorant de B donc un minorant de A, par conséquent inf(B) 6 inf(A) car inf(A)
est le plus grand des minorants de A. De même, sup(B) majore B , donc majore A également, d’où
sup(A) 6 sup(B) car sup(A) est le plus petit des majorants de A.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 77 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Borne inférieure, borne supérieure Chapitre 8 : Nombres réels

– Soient A et B deux parties de R non vides et majorées, on pose A + B = {a + b | a ∈ A, b ∈ B}. Montrer que
sup(A + B) = sup(A) + sup(B).
Réponse : sup(A)+sup(B) majore A+B, donc A+B admet une borne sup. et sup(A+B) 6 sup(A)+sup(B).
Soient a ∈ A et b ∈ B, a + b 6 sup(A + B), donc a 6 sup(A + B) − b, ce qui signifie que A est majoré par
sup(A + B) − b, d’où sup(A) 6 sup(A + B) − b, mais alors b 6 sup(A + B) − sup(A), donc B est majoré par

NE
sup(A + B) − sup(A), d’où sup(B) 6 sup(A + B) − sup(A) et finalement sup(A) + sup(B) 6 sup(A + B) ce
qui prouve bien l’égalité.

2) Intervalles

Définition 8.2
Soit I une partie non vide de R, on dit que I est un intervalle lorsque : tout réel compris entre deux
éléments de I est lui-même élément de I, c’est à dire :

∀ x, y ∈ I, ∀ z ∈ R, x 6 z 6 y =⇒ z ∈ I.

AIG
Par convention, ∅ est un intervalle de R.

Théorème 8.5
Si I est un intervalle non vide de R alors on a :
– soit I = R,
– soit I = [a; +∞[ ou I =]a, +∞[,
– soit I =] − ∞; b] ou I =] − ∞; b[,
– soit I =]a; b[ ou I =]a; b] ou I = [a; b[ ou I = [a; b].

Preuve : Le premier correspond à I non borné, le deuxième à I minoré et non majoré, le troisième à I non minoré et
majoré, le quatrième à I borné. 
ZExemple : Z n’est pas un intervalle de R car 1, 2 ∈ Z mais pas 23 . Q n’est pas un intervalle de R.
NT
Théorème 8.6
On a les propriétés suivantes :
– L’intersection de deux intervalles de R est un intervalle de R.
– La réunion de deux intervalles de R non disjoints est un intervalle de R.

Preuve : Soient I et J deux intervalles de R, posons K = I ∩ J. Si K est vide, alors c’est un intervalle. Si K n’est pas vide,
alors soit x, y ∈ K et soit z un réel tel que x 6 z 6 y. Comme I est un intervalle contenant x et y, I contient z, de même J
contient z, finalement z ∈ K et donc K est un intervalle de R.
Supposons I et J non disjoints et soit K = I ∪ J. K est non vide, soit x, y ∈ K et soit z un réel tel que x 6 z 6 y. Si x et y
sont dans I, alors z est dans I et donc dans K, de même si x et y sont dans J. Si x est dans I et y dans J, soit t ∈ I ∩ J, si
z 6 t , alors z est compris entre x et t qui sont éléments de I, donc z ∈ I. Si t 6 z, alors z est compris entre t et y qui sont
éléments de J, donc z est élément de J. Dans les deux cas on a bien z ∈ K et donc K est un intervalle de R. 
MO

3) La droite numérique achevée


On ajoute à l’ensemble R deux éléments non réels (par exemple i et −i ), l’un de ces deux éléments est
noté −∞ et l’autre +∞.

Définition 8.3
L’ensemble R ∪ {−∞, +∞} est noté R et appelé droite numérique achevée.

On prolonge la relation d’ordre de R à R en posant pour tout réel x : −∞ < x < +∞. L’ensemble R devient
ainsi un ensemble totalement ordonné, de plus il possède un maximum (+∞) et un minimum (−∞).
Pour tout réel x on pose :
– (+∞) + x = x + (+∞) = +∞.
– (−∞) + x = x + (−∞) = −∞.
– (+∞) + (+∞) = +∞.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 78 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Approximation d’un réel Chapitre 8 : Nombres réels

– (−∞) + (−∞) = −∞.


– Si x > 0 : x(+∞) = (+∞)x = +∞ et (−∞)x = x(−∞) = −∞.
– si x < 0 : x(+∞) = (+∞) = −∞ et (−∞)x = x(−∞) = +∞.
– (+∞)(+∞) = +∞, (−∞)(−∞) = +∞ et (−∞)(+∞) = (+∞)(−∞) = −∞.
Remarque 8.2 – On prendra garde au fait que nous n’avons pas défini de loi de composition interne dans R

NE
puisque nous n’avons pas défini 0 × (±∞) ni (−∞) + (+∞). Les règles de calculs définies ci-dessus auront leur
utilité dans le chapitre sur les limites.

Théorème 8.7
Soit A une partie non vide de R, alors A admet une borne supérieure et une borne inférieure dans R.

Preuve : Soit A une partie non vide de R. Si A est majorée dans R alors admet une borne supérieure réelle (propriété
fondamentale de R). Si A n’est pas majorée dans R, alors dans R l’ensemble des majorants est {+∞}, donc il y a une
borne supérieure dans R qui est +∞ (le plus petit majorant). Le raisonnement est le même pour la borne inférieure. 

4) Voisinages

AIG
Définition 8.4
Soit x ∈ R, tout intervalle de la forme ]x − ε; x + ε[ où ε > 0 est appelé voisinage de x .
Tout intervalle ouvert de la forme ]a; +∞[ (a ∈ R) est appelé voisinage de +∞ .
Tout intervalle ouvert de la forme ] − ∞; a[ (a ∈ R) est appelé voisinage de −∞ .

Théorème 8.8
Soit V1 , V2 deux voisinages de x ∈ R, alors V1 ∩ V2 est un voisinage de x. Soit a, b ∈ R, si a < b alors il
existe un voisinage V de a et un voisinage V 0 de b tels que ∀x ∈ V et ∀y ∈ V 0 , x < y.

Preuve : Celle - ci est simple et laissée en exercice. 


NT
Définition 8.5
Soit P(x) une proposition dépendante de x ∈ R, et soit a ∈ R, on dit que la propriété P est vraie au
voisinage de a lorsqu’il existe au moins un voisinage V de a tel que :

∀ x ∈ V, P(x) est vraie.

ZExemple : Soit f (x) = x 2 + x −1, alors au voisinage de 0 on a f (x) < 0, et au voisinage de +∞, f (x) > 0. En effet,
le trinôme x 2 + x − 1 admet deux racines réelles : x 1 < 0 et x 2 > 0, posons ε = min(|x 1 |, |x 2 |), si x ∈]0 − ε; 0 + ε[
alors x ∈]x 1 ; x 2 [ et donc x 2 + x − 1 < 0, V =]0 − ε; 0 + ε[ est donc un voisinage de 0 et sur ce voisinage on a bien
f (x) < 0. Posons W =]x 2 ; +∞[, alors W est un voisinage de +∞ et sur ce voisinage on a bien f (x) > 0.
MO

III APPROXIMATION D’UN RÉEL

1) Valeur absolue
Soit x un réel, les deux nombres x et −x sont comparables puisque l’ordre est total, ce qui donne un sens
à la définition suivante :

Définition 8.6
Soit x ∈ R, on appelle valeur absolue de x le réel noté |x| et défini par : |x| = max(x, −x). On a donc
|x| = x lorsque 0 6 x, et |x| = −x lorsque x 6 0.

L’ensemble R peut être assimilé à une droite graduée (i.e. munie d’un repère (O, → −
u )), les réels sont alors
les abscisses des points de cette droite. Si A(a) et B(b) sont deux points de cette droite, alors le réel positif
|b − a| représente la distance de A à B, en particulier |x| représente la distance de l’origine au point d’abscisse
x.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 79 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Approximation d’un réel Chapitre 8 : Nombres réels

|b − a|

O →

u A(a) B(b) R

NE
Théorème 8.9
Soient x, y des réels :
– |x| ∈ R+ , |x| = | − x|, x 6 |x| et −x 6 |x|.
– |x| = 0 ⇐⇒ x = 0.
– |x y| = |x||y| et si x 6= 0 alors | x1 | = |x|
1
. On en déduit que k f r ac1x| = 1
|x| et ∀n ∈ N, |x n | = |x|n .
– ||x| − |y|| 6 |x − y| 6 |x| + |y| (inégalité triangulaire).

Preuve : Celle-ci est simple et laissée en exercice. 

AIG
À retenir
Soient a, b, x trois réels avec b positif :
– |a| 6 b ⇐⇒ a 6 b et − a 6 b ⇐⇒ −b 6 a 6 b.
– |a| > b ⇐⇒ a > b ou −a > b.
– |a − x| 6 b ⇐⇒ −b 6 a − x 6 b ⇐⇒ a − b 6 x 6 a + b.
– |a − x| > b ⇐⇒ x > a + b ou x 6 a − b.

Ces inégalités sont importantes, et peuvent se retrouver en raisonnant en termes de distance.

Définition 8.7
Soit a un réel et ε > 0, on appelle intervalle ouvert de centre a et de rayon ε, l’intervalle ]a − ε; a + ε[.
C’est l’ensemble des réels x tels que |x − a| < ε. On définit de la même façon l’intervalle fermé de
centre a et de rayon ε.
NT
On rappelle qu’un intervalle ouvert est un intervalle de la forme : ]a; b[ ou ]a; +∞[ ou ]−∞; b[. L’ensemble
vide et R sont des intervalles ouverts.

Théorème 8.10
Soit I un intervalle ouvert non vide, pour tout élément a de I il existe au moins un voisinage de a
inclus dans I : ∀ a ∈ I, ∃ ε > 0, ]a − ε; a + ε[⊂ I.

Preuve : Il suffit de passer en revue les différents cas pour I. Par exemple, si I =]α; β[ avec α < β (sinon I est vide), on
peut prendre ε = min(a − α, β − a). On remarquera que l’on peut remplacer intervalle ouvert de centre a par intervalle
fermé de centre a. 
MO

2) Partie entière

Théorème 8.11
L’ensemble R est archimédien, c’est à dire : ∀ x, y ∈ R∗+ , ∃ n ∈ N, x 6 n y.

Preuve : Par l’absurde, supposons que ∀ n ∈ N, x > n y. Soit A = {n y / n ∈ N}, A est non vide (contient y) et majoré par x,
donc A admet une borne supérieure. Soit b = sup(A), on a b − y < b donc il existe un entier n 0 ∈ N tel que b − y < n 0 y,
d’où b < (n 0 + 1)y ce qui est absurde car (n 0 + 1)y ∈ A. 

Théorème 8.12 (et définition)


Soit x ∈ R, il existe un unique entier n ∈ Z tel que n 6 x < n + 1, celui-ci est appelé partie entière de x,
noté bxc (ou E(x)).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 80 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Approximation d’un réel Chapitre 8 : Nombres réels

Preuve : Montrons l’existence : si x = 0 il suffit de prendre n = 0. Supposons x non nul et soit A = {n ∈ Z / x < n + 1}, on
vérifie que A est non vide (si x < 0 alors 0 ∈ A et si x > 0 on utilise que R est archimédien), de plus A est minoré par x − 1,
cet ensemble admet donc une borne inférieure c. On a c < c + 12 donc le réel c + 12 ne minore pas A donc il existe un
entier n 0 ∈ A tel que c 6 n 0 < c + 12 , si c < n 0 , alors n 0 ne minore pas A, donc il existe n 1 ∈ A tel que c 6 n 1 < n 0 < c + 12
ce qui est absurde car n 0 et n 1 sont deux entiers distincts dans un intervalle de longueur 12 . On en déduit que c = n 0 ∈ A

NE
d’où n 0 = min(A), mais alors n 0 − 1 ∉ A, c’est à dire x > n 0 − 1 + 1, par conséquent on a n 0 6 x < n 0 + 1.
Montrons l’unicité : soient n, n 0 ∈ Z tels que n 6 x < n + 1 et n 0 6 x < n 0 + 1, alors |n − n 0 | = |(x − n) − (x − n 0 )| < 1 car
x − n et x − n 0 sont dans l’intervalle [0; 1[, comme n et n 0 sont entiers, on en déduit que |n − n 0 | = 0 i.e. n = n 0 . 

Propriétés
a) La fonction partie entière est une fonction croissante sur R et elle constante sur tout intervalle de la
forme [n; n + 1[ lorsque n ∈ Z.

AIG
1
0
−4 −3 −2 −1 0 1 2 3 4
−1

−2

−3

−4

b) La fonction partie entière est continue sur R \ Z. Pour n ∈ Z, elle est continue à droite mais pas à gauche
en n.
c) Pour tout réel x et tout entier n, on a bx + nc = bxc + n.
d) La fonction x 7→ x − bxc est une fonction 1-périodique.
NT
bxc ∈ Z
½
e) La partie entière de x est entièrement caractérisée par : .
bxc 6 x < bxc + 1

Théorème 8.13
Tout intervalle de la forme ]a; b[ où a < b contient au moins un rationnel, on dit que Q est dense dans
R.
¥ 1 ¦
Preuve : Il existe q ∈ N∗ tel que q(b − a) > 1 (pendre q = 1 + b−a ), l’intervalle ]q a; qb[ a donc une
¥ longueur
¦ supérieure
à 1, il contient donc au moins un entier p (prendre p = qb − 1 si qb est entier, prendre p = qb sinon). On a alors
p p
q a < p < qb d’où a < a q < b et q ∈ Q. 
Remarque 8.3 – Ce théorème traduit que aussi près que l’on veut de n’importe quel réel, on peut trouver des
p
rationnels. De plus la démonstration fournit une méthode de construction de q .
MO

p p ¦
Par exemple, avec x = 2 et εp= 10−3 , on peut prendre q = 1000 et p = 1000 2 = 1414 (car 14142 6
¥
p
2.106 < 14152 ), d’où q = 1, 414 et | 2 − 1, 414| < 10−3 .

Théorème 8.14
Tout intervalle ]a; b[ où a < b contient au moins un irrationnel, donc l’ensemble des irrationnels,
R \ Q, est densedans R.
p p p
pQ dans R, il existe un rationnel r ∈]a − 2; b − 2[, ce qui donne r + 2 ∈]a; b[, et on
Preuve : D’après la densité de
montre par l’absurde que r + 2 est irrationnel. 

Définition 8.8 (Généralisation)


Soit A une partie non vide de R, on dit que A est dense dans R lorsque tout intervalle ouvert non vide
de R contient au moins un élément de A, ce qui équivaut à :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 81 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Approximation d’un réel Chapitre 8 : Nombres réels
∀ x ∈ R, ∀ ε > 0, ∃ a ∈ A, |x − a| < ε.

Remarque 8.4 –
– Ce qui signifie qu’aussi près que l’on veut de tout réel x, on peut trouver des éléments de A. Voici une
autre définition équivalente (et très utile) :

NE
– A est dense dans R ssi pour tout réel x il existe une suite (a n ) d’éléments de A qui converge vers x.

3) Approximations décimales

Définition 8.9
Soient a, x, ε trois réels avec ε > 0, on dit que a est une valeur approchée de x à ε près lorsque la
distance entre a et x et inférieure ou égale à ε : |a − x| 6 ε. On dit que a est une valeur approchée de x
par défaut (respectivement par excès) à ε près lorsque a 6 x 6 a + ε (respectivement a − ε 6 x 6 a).

Propriétés
a+b
a) Si a est une valeur approchée de x par défaut et b une valeur approchée de x par excès, alors 2 est

AIG
une valeur approchée de x à b−a
2 près.
b) Si a est une valeur approchée de x par défaut à ε près et b une valeur approchée de x par excès à ε près,
ε
alors a+b
2 est une valeur approchée de x à 2 près.

Soit x ∈ R et soit n ∈ N, on a bx10n c 6 x10n < 1 + bx10n c, en multipliant par 10−n on obtient :

bx10n c bx10n c
6 x < + 10−n .
10n 10n
n n
Ce qui signifie que bx10 c
10n est une valeur approchée de x par défaut à 10
−n
près, et que bx10 c
10n + 10
−n
est une
−n
valeur approchée de x par excès à 10 près. Il faut remarquer que ces deux approximations de x sont des
nombres décimaux (i.e. un entier sur une puissance de dix).

Définition 8.10
bx10n c
NT
On appelle approximation décimale de x par défaut à 10−n près, le nombre : 10n .

Remarque 8.5 – Posons r n = b10n xc, alors 10r n 6 10n+1 x < 10r n + 10 et donc 10r n 6 10n+1 x 6 10r n + 9, i.e.
¥ ¦

r n+1 ∈ [10r n ; 10r n + 9].


ZExemples : p n
– Prenons x = 2 et posons a n = bx10 10n
c

• 1 6 x 2 < 22 , donc 1 6 x < 2 et a 0 = bxc = 1 (partie entière de x).


• (10x)2 = 200 et 142 = 196 6 (10x)2 < 152 = 225, donc 14 6 10x < 15 et a 1 = b10xc /10 = 14/10 = 1, 4.
• (100x)2 = 20000 et 1412 6 (100x)2 < 1422 , donc 141 6 100x < 142 et a 2 = b100xc /100 = 141/100 =
1, 41...etc p
Si on continue le processus, on construit la suite (a n ) des approximations décimales de 2 à 10−n près
MO

par défaut.
n
Si on pose pour n ∈ N, a n = bx10 c −n
10n , alors on a l’inégalité |x − a n | 6 10 , ce qui prouve que la suite (a n )
converge vers x. On a donc une suite de rationnels qui converge vers x, ce qui est une autre façon de prouver
la densité de Q dans R. On remarquera que la suite (a n + 10−n ) (valeurs approchées décimales par excès)
converge également vers x.

Théorème 8.15
bx10n c
Soit x ∈ R et a n = 10n , pour n ∈ N∗ on pose d n = 10n (a n − a n−1 ), alors d n est un entier compris entre
0 et 9.

Preuve¥ : 10n a n¦ = b10n xc 6 10n x < 1 + b10n xc, d’autre part 10n a n−1 = 10 10n−1 x 6 10n x < 10 + 10 10n−1 x , d’où
¥ ¦ ¥ ¦

−10 − 10n−1 x < −10n x 6 −10n a n−1 , on en déduit que d n − 10 < 0 < d n + 1, par conséquent 0 6 d n < 10, or d n est un
entier, donc d n 6 9. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 82 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 8 : Nombres réels

Définition 8.11
Pour n > 1, l’entier d n = 10n (a n − a n−1 ) = b10n xc − 10 10n−1 x est appelé n e décimale de x.
¥ ¦

n
Remarquons que d n 10−n = a n − a n−1 , ce qui entraîne que a 0 , d 1 d 2 . . . d n = a 0 + d k 10−k = a n , or la suite
P

NE
k=1
(a n ) converge vers x, on écrit alors :
+∞
d k 10−k = a 0 , d 1 d 2 · · · (développement décimal infini de x)
X
x = a0 +
k=1

IV SOLUTION DES EXERCICES

AIG
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 83 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 9

Suites numériques

Sommaire
I Suites réelles, généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

AIG
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3) Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
II Suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3) Convergence et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4) Convergence et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5) Caractérisations séquentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
III Suites ayant une limite infinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2) Limite infinie et ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3) Limite infinie et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
IV Théorèmes d’existence d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
NT
1) Suites monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2) Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3) Le théorème de BOLZANO - WEIERSTRASS . . . . . . . . . . . . . . . . . . . . . . . . . 91
V Comparaison des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
VI Extension aux suites complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2) Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
MO

VII Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

I SUITES RÉELLES, GÉNÉRALITÉS

1) Définitions

Définition 9.1
Une suite numérique u est une application de A vers R : u : A → R, où A est une partie de N. Par
convention le réel u(n) est noté u n , et la suite u est parfois notée (u n )n∈A . Si la partie A est finie, on dit
que la suite u est une suite finie. L’ensemble des suites réelles définies sur A est donc l’ensemble des
applications de A vers R, c’est à dire F (A, R).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 84 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Suites réelles, généralités Chapitre 9 : Suites numériques

Remarque 9.1 – On prendra garde à ne pas confondre u n qui est un réel (terme de rang n) avec (u n )n∈A qui
désigne la suite u. Les suites finies présentant peu d’intérêt, on étudiera seulement le cas où A est une partie
infinie de N. On peut alors montrer qu’il est toujours possible de se ramener au cas où A = N, si bien que dans
la suite de ce chapitre on étudiera F (N, R) l’ensemble des suites réelles définies sur N.

NE
ZExemples :
– Une suite u est arithmétique si et seulement si il existe un réel r (appelé raison), tel que ∀n ∈ N, u n+1 =
u n +r . On a alors les formules suivantes : ∀n, p ∈ N, u n = u p +(n−p)r . La somme de n termes consécutifs
n(p+d )
est S = 2 où p désigne le premier terme, et d le dernier.
– Une suite u est géométrique si et seulement si il existe q ∈ R (appelé raison), tel que ∀n ∈ N, u n+1 =
qu n . On a alors les formules suivantes : ∀n, p ∈ N, u n = u p q n−p . La somme de n termes consécutifs est

 np si q = 1
S = p − qd , où p désigne le premier terme, d le dernier et q la raison.
 si q 6= 1
1−q

– Suites récurrentes à un pas : ce sont les suites u définies par : u 0 ∈ R, et ∀n ∈ N, u n+1 = f (u n ), où
f : I → R est une fonction donnée. Par exemple : u 0 = 12 et u n+1 = u n2 . Dans le plan, à l’aide de la courbe
représentative de f et de la première bissectrice, on peut construire géométriquement les termes de la

AIG
suite sur l’axe des abscisses.

1 x
y=

Cf

0
0 u3 u2 u1 u0 1
NT
– Suites récurrentes à deux pas : par exemple la suite de Fibonacci 1 qui est définie par : u 0 = u 1 = 1 et
∀n ∈ N, u n+2 = u n+1 + u n .

2) Vocabulaire
– Sens de variation : soit u une suite réelle et p un entier, on dit que la suite u est :
• croissante à partir du rang p lorsque : ∀n > p, u n 6 u n+1 .
• strictement croissante à partir du rang p lorsque : ∀n > p, u n < u n+1 .
• décroissante à partir du rang p lorsque : ∀n > p, u n+1 6 u n .
• strictement décroissante à partir du rang p lorsque : ∀n > p, u n+1 < u n .
• constante (ou stationnaire) à partir du rang p lorsque : ∀n > p, u n+1 = u n .
• monotone lorsque u est croissante ou bien décroissante.
MO

• strictement monotone lorsque u est strictement croissante ou bien strictement décroissante.


Remarque 9.2 – Étudier le sens de variation de u peut se faire en étudiant le signe de u n+1 − u n , ou
encore le signe de f (u n+1 ) − f (u n ) où f désigne une fonction monotone.
– Suite bornée : on dit qu’une suite réelle u est :
• majorée lorsque : ∃M ∈ R, ∀n ∈ N, u n 6 M.
• minorée lorsque : ∃m ∈ R, ∀n ∈ N, m 6 u n .
• bornée lorsque : ∃m, M ∈ R, ∀n ∈ N, m 6 u n 6 M (i.e. minorée et majorée).
Remarque 9.3 – Une suite u est bornée si et seulement si il existe un réel M positif tel que ∀n ∈ N, |u n | 6
M.
Par exemple, la suite (u n = sin(n)) est bornée, la suite (v n = n 2 ) est minorée mais non majorée, la suite
(w n = (−2)n ) est ni minorée ni majorée.

1. FIBONACCI Leonardo (1180 – 1250 (environ)) : mathématicien italien (de son vrai nom Leonardo da Pisa) qui œuvra pour
l’introduction de nombres arabes en Occident.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 85 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Suites convergentes Chapitre 9 : Suites numériques

– Suite périodique : on dit qu’une suite u est p-périodique (où p ∈ N∗ ) à partir du rang n 0 lorsque :
∀n > n 0 , u n+p = u n . Par exemple, la suite (u n ) = (−1)n ) est 2-périodique, la suite w définie par w 0 = 1,
w 1 = 1 et pour tout n w n+2 = −w n+1 − w n , est 3-périodique, mais la suite des décimales de π n’est pas
périodique car π est irrationnel.
– Suite extraite : soit u une suite réelle et soit σ : N → N une application strictement croissante, alors la

NE
suite v définie par v n = u σ(n) est appelée suite extraite de u (σ étant l’extraction). On remarquera que
l’on a : ∀n ∈ N, n 6 σ(n). Par exemple, la suite (u 2n ) est une suite extraite de u, c’est la suite des termes
de rangs pairs, de même la suite (u 2n+1 ) est extraite de u, c’est la suite des termes de rangs impairs.

3) Opérations sur les suites


Soient u et v deux suites réelles et soit λ ∈ R, on définit les suites :
– u + v : en posant pour tout n ∈ N, (u + v)n = u n + v n ;
– u × v : en posant (u × v)n = u n v n .
– λv : en posant (λv)n = λv n .
– v1 : si v ne s’annule pas à partir d’un certain rang n 0 , en posant : ( v1 )n = v1n .
On vérifie alors que :

AIG
– (F (N, R), +) est un groupe commutatif. Son élément neutre est la suite nulle (notée 0) et l’opposé d’une
suite u est la suite (−u n )n∈N (notée −u).
– La multiplication est associative, commutative, admet comme élément neutre la suite constante
(u n = 1)n∈N (notée 1), et elle est distributive sur l’addition. Mais il y a des suites non nulles qui n’ont
pas d’inverse, par exemple la suite u définie par u n = 1 + (−1)n . Seules les suites u qui ne s’annulent
jamais ont un inverse, et cet inverse est la suite u1 .
L’ensemble (F (N, R), +, ×) n’est donc pas un corps, mais seulement un anneau commutatif. Les deux
suites u et v définies par u n = 1 + (−1)n et v n = 1 − (−1)n sont non nulles, mais leur produit est la suite nulle,
ceci prouve que (F (N, R), +, ×) est un anneau non intègre.

II SUITES CONVERGENTES

1) Définition
NT
Définition 9.2
Soit u une suite réelle et ` ∈ R, on dit que u admet comme limite ` lorsque u n peut être aussi proche
(ou voisin) que l’on veut de ` pourvu que n soit assez grand, c’est à dire :
∀ε > 0, ∃N ∈ N, ∀n ∈ N, n > N =⇒ |u n − `| < ε.
Notation : lim u = ` ou lim u n = ` ou u n → `.

Remarque 9.4 –
– Comme |u n − `| = |(u n − `) − 0| = ||u n − `| − 0|, on a :

lim u n = ` ⇐⇒ lim u n − ` = 0 ⇐⇒ lim |u n − `| = 0.


MO

– Comme ||u n | − |`|| 6 |u n − `|, on a : lim u n = ` =⇒ lim |u n | = |`| (réciproque fausse).

Théorème 9.1
Si à partir d’un certain rang on a : |u n − `| 6 v n , et si v n → 0, alors lim u n = `.

Preuve : Soit ε >, à partir d’un rang N1 on a |v n | < ε, et à partir d’un rang N2 on a |u n − `| 6 v n , donc à partir du rang
Max(N1 , N2 ) on a |u n − `| < ε. 

Définition 9.3
Lorsque la suite u admet une limite finie, on dit que u est convergente, sinon on dit qu’elle est
divergente.

ZExemples :
– Toute suite stationnaire (à partir d’un certain rang) est convergente.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 86 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Suites convergentes Chapitre 9 : Suites numériques

– Soit x ∈ R et v n = bnxc : on a v n → x. Soit ε > 0, |v n − x| = nx−bnxc < n1 < ε ⇐⇒ n > 1ε , il suffit donc de
¥ 1 ¦n n
prendre N = 1 + ε pour avoir : n > N =⇒ |v n − x| < ε.
– u n = q n avec q = 1 : la suite est constante et u n → 1.
1 1
– u n = q n avec |q| < 1 et q 6= 0 : alors q n → 0. Soit ε > 0, comme |q| > 1, on a |q| = 1 + p avec p > 0, on
peut montrer alors que ∀n ∈ N, |q|1 n > 1 + np (récurrence ou binôme de Newton), on a |q|1 n > 1ε dès que

NE
j k
1 + np > 1ε c’est à dire dès que n > N = 1 + pε1
− p1 , donc n > N =⇒ |q n | < ε.
– u n = (−1)n alors la suite est divergente (2-périodique). Supposons qu’elle ait une limite finie ` alors à
partir d’un certain rang N on aura |u n − `| < 13 par conséquent les valeurs −1 et 1 sont dans l’intervalle
]` − 13 ; ` + 13 [ ce qui est absurde.

FExercice 9.1 Montrer qu’une suite d’entiers convergente est stationnaire.

2) Premières propriétés
Soit u une suite réelle :
– Si u admet une limite ` ∈ R, alors celle-ci est unique.

AIG
Preuve : Supposons u n → ` et u n → `0 avec ` 6= `0 , Soit α ∈]`; `0 [, ε = α − ` et ε0 = `0 − α, alors à partir d’un certain
rang N on a |u n − `| < ε, ce qui donne u n < α, et à partir d’un certain rang N0 on a |u n − `0 | < ε0 , ce qui donne
α < u n , donc à partir de max(N, N0 ) on a une contradiction, donc ` = `0 . 
On a démontré au passage :
– Si u converge vers ` et si α < `, alors à partir d’un certain rang α < u n . De même, si α > `, alors à partir
d’un certain rang on a α > u n .
– Si u est convergente, alors u est bornée (la réciproque est fausse).
Preuve : Si u n → ` ∈ R, il existe un entier N tel que n > N =⇒ |u n − `| < 1, ce qui entraîne |u n | < |`| + 1. On a alors
pour tout entier n : |u n | 6 max(|u 0 |, . . . , |u N |, 1 + |`|). Pour voir que la réciproque est fausse, on peut considérer la
suite u définie par u n = (−1)n , elle est bornée mais non convergente. 
Conséquence : la suite (q n ) avec |q| > 1 est divergente car non bornée, en effet : |q| = 1 + p avec p > 0
donc |q n | > 1 + np qui peut être aussi grand que l’on veut.
– Si u converge vers `, alors toutes les suites extraites de u convergent vers `.
Preuve : Soit v n = u σ(n) une suite extraite de u et supposons u n → ` ∈ R. Soit W un voisinage de `, il existe
un entier N tel que n > N =⇒ u n ∈ W. Mais σ étant strictement croissante, on a ∀n ∈ N, n 6 σ(n), donc
NT
n > N =⇒ σ(n) > N, mais alors u σ(n) ∈ W, c’est à dire n > N =⇒ v n ∈ W et donc v n → `. 
Remarque 9.5 – Cette propriété est souvent utilisée pour montrer qu’une suite u n’a pas de limite. Soit
en trouvant une suite extraite qui diverge, soit en trouvant deux suites extraites qui ne convergent pas
vers la même limite. Par exemple : u n = cos((n + n1 )π).
– Si lim u 2n = lim u 2n+1 = ` ∈ R, alors lim u = `.
Preuve : Soit ε > 0, il existe un entier N1 tel que k > N1 =⇒ |u 2k − `| < ε, de même il existe un entier N2 tel que
k > N2 =⇒ |u 2k+1 − `| < ε. Posons N = max(2N1 , 2N2 + 1), si n > N alors lorsque n = 2k on a k > N1 et donc
|u n − `| < ε, lorsque n = 2k + 1 on a k > N2 et donc |u n − `| < ε, finalement dès que n > N on a |u n − `| < ε et donc
u n → `. 

3) Convergence et opérations
MO

Théorème 9.2
Soient u et v deux suites qui convergent respectivement vers ` et `0 , et soit λ ∈ R alors :
– (u n + v n ) converge vers ` + `0 .
– (λu n ) converge vers λ`.

Preuve : Soit ε > 0, il existe un entier N à partir duquel on a |u n − `| < ε/2 et |v n − `0 | < ε/2, mais alors on a |u n + v n − (` +
`0 )| 6 |u n − `| + |v n − `0 | < ε, donc u n + v n → ` + `0 .
ε
Soit λ 6= 0, et soit ε > 0, à partir d’un certain rang on a |u n − `| < |λ| d’où |λu n − λ`| < ε. 

Théorème 9.3
Si (u n ) converge vers ` et (v n ) vers `0 alors :
– (u n v n ) converge vers ``0 .
– Si ` 6= 0, alors à partir d’un certain rang la suite les termes u n sont non nuls et la suite ( u1n ) converge

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 87 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Suites convergentes Chapitre 9 : Suites numériques
vers 1` .

Preuve : |u n v n − ``0 | = |(u n − `)v n + `(v n − `0 )| 6 |u n − `||v n | + |`||v n − `0 |, mais la suite v est bornée donc il existe un réel
M strictement positif tel que |v n | 6 M et donc |u n v n − ``0 | < |u n − `|M + |`||v n − `0 |, mais d’après le théorème précédent
la deuxième suite tend vers 0, donc u n v n → ``0 .

NE
La suite (|u n |) converge vers |`| > 0 donc à partir d’un certain rang on a |u n | > |`| 2 > 0, donc u n 6= 0 et alors :
|`−u n | 2|`−u n |
| u1n − 1` | = |`u n | < `2
, or cette deuxième suite tend vers 0, donc u1n → 1` . 

4) Convergence et relation d’ordre

Théorème 9.4
Soient u, v et w trois suites réelles. Si u converge vers `, v converge vers `0 , et si à partir d’un certain
rang on a u n 6 v n , alors ` 6 `0 (c’est le théorème du passage à la limite).

Preuve : Supposons ` > `0 , alors il existe α ∈ ]`0 ; `[ donc à partir d’un certain rang on doit avoir u n > α et v n < α ce qui
est contradictoire, donc ` 6 `0 . 

AIG
Remarque 9.6 – Pour le passage à la limite on peut avoir u n < v n et ` = `0 , par exemple en prenant u n = 1 − n1
et v n = 1 + n1 , donc dans un passage à la limite les inégalités deviennent larges.

Théorème 9.5
Soient u, v et w trois suites réelles. Si u et v convergent vers ` et si à partir d’un certain rang on a
u n 6 w n 6 v n , alors w converge vers ` (c’est le théorème des gendarmes ou de l’étau).

Preuve : Soit ε > 0, il existe un entier N à partir duquel on a u n 6 w n 6 v n avec u n , v n ∈ ]`−ε ; `+ε[, donc w n ∈ ]`−ε ; `+ε[
à partir du rang N, donc w n → `. 

Théorème 9.6
Soient u et v deux suites réelles. Si u converge vers 0 et si v est bornée, alors lim u × v = 0.
NT
Preuve : Il existe un réel positif M tel que |v n | 6 M pour tout n, d’où |u n v n | 6 M|u n |, c’est à dire −M|u n | 6 u n v n 6 M|u n |,
on peut donc conclure que u n v n → 0. 
Déterminer la limite des suites (si elle existe) :
ZExemples :
n p
sin(n) n P 1p
– an = n b n = 2n+(−1) n cn = dn = n − n
k=1 n+ k
n 3 −1
p ¢n
g n = 1 + n1
¡
– en = 2
fn = n + n + 1 − n
n 2 +1

5) Caractérisations séquentielles

Théorème 9.7 (caractérisation séquentielle de la borne supérieure)


Soit A une partie non vide de R et soit M ∈ R, on a :
MO

M est la borne supérieure (inférieure) de A si et seulement si M majore (minore) A et il existe une suite
d’éléments de A qui converge vers M.

1 1
Preuve : Si M = sup A, alors pour tout n ∈ N, ∃a n ∈ A tel que M − n+1 < a n car M − n+1 ne majore pas A, la suite (a n )
1
ainsi construite converge vers M car M − n+1 < a n 6 M.
Si M majore A et qu’il existe une suite (a n ) de A qui converge vers M, alors pour tout ε > 0, à partir d’un certain rang
N on a M − ε < a n , donc M − ε ne majore pas A, M est donc le plus petit majrant de A. 

Théorème 9.8 (caractérisation séquentielle de la densité)


Soit A une partie non vide de R, A est dense dans R si et seulement si pour tout réel x il existe une
suite d’éléments de A qui converge vers x.

Preuve : Celle-ci est simple et laissée en exercice. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 88 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Suites ayant une limite infinie Chapitre 9 : Suites numériques
III SUITES AYANT UNE LIMITE INFINIE

1) Définition

Définition 9.4

NE
Soit u une suite réelle :
– on dit que u admet comme limite +∞ lorsque u n peut être aussi grand que l’on veut pourvu que n
soit assez grand, c’est à dire : ∀A ∈ R, ∃N ∈ N, ∀n ∈ N, n > N =⇒ u n > A.
Notation : lim u = +∞ ou lim u n = +∞ ou u n → +∞.
– on dit que u admet comme limite −∞ lorsque u n peut être aussi petit que l’on veut pourvu que n
soit assez grand, c’est à dire : ∀A ∈ R, ∃N ∈ N, ∀n ∈ N, n > N =⇒ u n < A.
Notation : lim u = −∞ ou lim u n = −∞ ou u n → −∞.

Remarque 9.7 –
– Si u n → +∞ alors u n’est pas majorée (mais elle est minorée).
– Si u n → −∞ alors u n’est pas minorée (mais elle est majorée).

AIG
– On a l’équivalence : lim u n = −∞ ⇐⇒ lim −u n = +∞.
ZExemple : Si q > 1 alors lim q n = +∞.
Comme pour les suites convergentes, on peut montrer :
– Si u admet une limite infinie, alors toutes les suites extraites de u ont la même limite que u.
– Si u 2n → +∞ et u 2n+1 → +∞, alors u n → +∞.

2) Limite infinie et ordre

Théorème 9.9
Soient u et v deux suites réelles :
– Si lim u = +∞ et si à partir d’un certain rang on a u n 6 v n , alors lim v = +∞.
– Si lim v = −∞ et si u n 6 v n à partir d’un certain rang, alors lim u = −∞.
– Si lim u = +∞ (respectivement −∞) et si v est minorée (respectivement majorée), alors lim u + v =
NT
+∞ (respectivement −∞).

Preuve : Pour le premier point : il existe un entier N1 à partir duquel on a u n 6 v n , soit A un réel, il existe un entier N2 à
partir duquel on a A < u n , donc si n > max(N1 , N2 ) alors A < v n , donc v n → +∞.
Pour le deuxième point : on peut appliquer le précédent aux suites −u et −v.
Pour le troisième point : supposons u n → +∞ et v minorée par un réel m, alors pour tout entier n on a m + u n 6
u n + v n , or la suite (m + u n ) tend vers +∞, on peut donc appliquer le premier point, i.e. u n + v n → +∞. Dans l’autre cas
on peut raisonner sur les suites −u et −v. 

3) Limite infinie et opérations

Théorème 9.10
Soient u et v deux suites de limites respectives ` et `0 dans R, et soit λ ∈ R.
MO

– lim u + v = ` + `0 sauf si ` = +∞ et `0 = −∞ (ou l’inverse).


– lim λu = λ` (si λ = 0 alors la suite λu est nulle).
– lim u × v = ``0 sauf si ` = 0 et `0 = ±∞ (ou l’inverse).
– Si à partir d’un certain rang la suite u ne s’annule pas, alors la suite u1 :

tend vers 1` si ` ∈ R∗



si ` = ±∞



 tend vers 0
tend vers + ∞ si ` = 0 et u > 0 .
si ` = 0 et u < 0




 tend vers − ∞
n’a pas de limite dans les autres cas

Preuve : Pour la somme : prenons par exemple le cas ` ∈ R et `0 = +∞, la suite u n est minorée par un certain réel m (car
convergente) d’après le paragraphe précédent, u n + v n → +∞. Les autres cas non indéterminés se ramènent à celui-ci.
Pour la forme indéterminée, on peut considérer les exemples suivants : (n + (−n + a)) qui converge, (n + (− n2 )) qui tend
vers +∞, (n + (−2n)) qui tend vers −∞, et (n + (−n + (−1)n )) qui n’a pas de limite.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 89 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Théorèmes d’existence d’une limite Chapitre 9 : Suites numériques

Pour λu : il suffit de considérer le cas λ > 0 et u n → +∞ (laissé en exercice). Les autres cas se ramènent à celui-ci.
Pour le produit : prenons par exemple le cas où ` est un réel strictement positif et `0 = +∞, alors à partir d’un
0 0 0
certain rang, on a v n > 0 et u n > `2 >0, d’où u n v n > v n `2 , or v n `2 tend vers +∞, et donc u n v n aussi. Les autres cas non
indéterminés se ramènent à celui-ci. Pour la forme indéterminée, on peut considérer les exemples suivants : ( na × n) qui
n
converge, (n × p1n ) qui tend vers +∞, (−n × p1n ) qui tend vers −∞, et (n × (−1)
n ) qui n’a pas de limite.

NE
1
Pour l’inverse : supposons que ` = 0 et u > 0, soit A un réel et ε = 1+|A| , il existe un entier N à partir duquel on
1 1 1
a |u n | < ε, c’est à dire en fait, 0 < u n < ε et donc A < 1 + |A| = ε < un , par conséquent un → +∞. Les autres cas non
(−1)n
indéterminés se ramènent à celui-ci. Pour terminer prenons la suite u n = n , son inverse est la suite ((−1)n n) et cette
suite n’a pas de limite (distinguer les termes de rangs pairs et les termes de rangs impairs). 

IV THÉORÈMES D’EXISTENCE D’UNE LIMITE

1) Suites monotones

Théorème 9.11
Si u est une suite croissante majorée (respectivement décroissante minorée), alors(u n ) converge vers

AIG
sup u n (respectivement vers inf u n ).
n∈N n∈N
Si u est une suite croissante non majorée (respectivement décroissante non minorée), alors (u n ) tend
vers +∞ (respectivement vers −∞).

Preuve : Supposons u croissante majorée, soit ` = sup u n , et soit ε > 0, alors il existe un entier N tel que u N > ` − ε (car
n∈N
` − ε ne majore pas la suite). Si n > N alors, la suite étant croissante, ` − ε < u N 6 u n 6 ` < ` + ε et donc |u n − `| < ε, ce
qui prouve que u n → `.
Lorsque u est croissante non majorée : soit A un réel, alors il existe un entier N tel que u N > A (A ne majore pas la
suite), si n > N alors A < u N 6 u n , donc u n → +∞. 
Conséquences :
a) Si (u n ) est croissante majorée, alors u n → ` = sup u n ∈ R et donc ∀n ∈ N, u n 6 `. En fait si u est
strictement croissante, alors ∀n ∈ N, u n < ` (car s’il y avait l’égalité au rang N, alors la suite serait
constante à partir de l’indice N).
NT
b) Si (u n ) est décroissante minorée, alors u n → ` = inf u n ∈ R et donc ∀n ∈ N, u n > `. En fait si u est
strictement décroissante, alors ∀n ∈ N, u n > ` (car s’il y avait l’égalité au rang N, alors la suite serait
constante à partir de l’indice N).
c) Une suite monotone est donc convergente si et seulement si elle est bornée.

ZExemples :
n
P 1
– Soit u la suite définie par : u n = k2
. Cette suite est croissante (u n+1 − u n > 0), en remarquant que
k=1
π2
1
pour k > 2 on a k12 < k(k−1) = 1 1
k − k−1 , on voit que u n < 2, la suite u est donc convergente (de limite 6 ).
– Soit v la suite définie par v 0 = 1 et ∀n ∈ N, v n+1 = sin(v n ). Il s’agit d’une suite récurrente, la représenta-
tion graphique des premiers termes suggère que la suite est décroissante minorée par 0, ce qui est facile
à vérifier par récurrence. La suite v est donc convergente de limite `, la fonction sinus étant continue,
MO

on a sin(v n ) → sin(`), c’est à dire v n+1 → sin(`), donc ` = sin(`). L’étude de la fonction x 7→ sin(x) − x
montre que l’unique solution de sin(x) = x est 0, donc ` = 0, i.e. v n → 0.

2) Suites adjacentes

Définition 9.5
Soient u et v deux suites, on dit qu’elles sont adjacentes lorsque l’une est croissante, l’autre décrois-
sante et lim u n − v n = 0.

n
1 1
ZExemple : Soient u et v les suites définies par : u n =
P
k! et v n = u n + n×n! , ces deux suites sont adjacentes.
k=0

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 90 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Comparaison des suites Chapitre 9 : Suites numériques

Théorème 9.12
Deux suites adjacentes sont nécessairement convergentes et convergent vers la même limite.

Preuve : Supposons u croissante, v décroissante, et lim u n − v n = 0. Soit w n = v n − u n , alors w n+1 − w n = (v n+1 − v n ) −

NE
(u n+1 − u n ) 6 0, donc la suite w est décroissante, or lim w n = 0, donc ∀n ∈ N, w n > 0, i.e. u n 6 v n . Mais alors u est
majorée par v 0 et v est minorée par u 0 , donc u et v sont convergentes : u n → ` et v n → `0 , par conséquent w n → `0 − `,
or w n → 0, donc ` = `0 . 

3) Le théorème de BOLZANO - WEIERSTRASS

Théorème 9.13 (de Bolzano 2 - Weierstrass 3 .)


Si u est une suite réelle bornée, alors on peut en extraire une suite convergente.

Preuve : On applique le principe de dichotomie : il existe a 0 < b 0 deux réels tels que ∀n ∈ N, u n ∈ [a 0 ; b 0 ]. On pose
I0 = [a 0 ; b 0 ] et σ(0) = 0. On coupe cet intervalle en deux, soit I00 = [a 0 ; a0 +b 0 00 a 0 +b 0
2 ] et I0 = [ 2 ; b 0 ], si {n ∈ N / u n ∈ I0 }
0
0 00
est infini alors on pose I1 = I0 , sinon on pose I1 = I0 . On alors un nouveau segment I1 = [a 1 ; b 1 ] inclus dans I0 avec

AIG
b 1 − a 1 = b−a2 et {n ∈ N / u n ∈ I1 } infini. On peut donc choisir n 1 > 0 tel que u n 1 ∈ I1 , on pose σ(1) = n 1 . On recommence
de la même façon avec I1 ...
On construit ainsi une suite de segments In = [a n ; b n ], emboîtés (In+1 ⊂ In ), tels que b n − a n = b−a 2n , et une applica-
tion σ : N → N strictement croissante telles que pour tout n, et u σ(n) ∈ In , c’est à dire a n 6 u σ(n) 6 b n . Or les suites (a n )
et (b n ) sont adjacentes, elles convergent donc vers une même limite `, et donc par le théorème des gendarmes, on a
u σ(n) → ` : on a donc construit une suite extraite convergente. 

V COMPARAISON DES SUITES

1) Définitions

Définition 9.6
Soient (u n ), (v n ) et (εn ) trois suites telles qu’à partir d’un certain rang u n = v n εn . On dit que :
– u n est dominée par v n lorsque la suite (εn ) est bornée. Notation : u n = O(v n ).
NT
– u n est négligeable devant v n lorsque εn → 0. Notation : u n = o(v n ).
– u n est équivalente à v n lorsque εn → 1. Notation : u n ∼ v n .

Théorème 9.14 (Caractérisations)


Lorsque la suite v ne s’annule pas à partir d’un certain rang :
– u n = O(v n ) si et seulement si la suite uv est bornée.
u
– u n = o(v n ) si et seulement si lim v nn = 0.
u
– u n ∼ v n si et seulement si lim v nn = 1.

Preuve : Celle - ci est simple et laissée en exercice. 


MO

n
ZExemple : n = o n 2 ; ∼ n1 ;
¡ ¢
n 2 +1
n sin(n) = O(n).

Remarque 9.8 –
– u n = O(1) signifie que la suite (u n ) est bornée [donc O(v n ) = v n × O(1)].
– u n = o(1) signifie que u n → 0 [donc o(v n ) = v n × o(1)].
– Si u n = o(v n ) alors u n = O(v n ).
– Si u n ∼ v n alors u n = O(v n ).
– Si u n = o(v n ) et v n = o(w n ), alors u n = o(w n ) (transitivité).
– Si u n = O(v n ) et v n = O(w n ), alors u n = O(w n ) (transitivité).
– u n ∼ v n ⇐⇒ u n − v n = o(v n ).

3. BOLZANO Bernhard (1781 – 1848) : mathématicien et philosophe tchèque.


3. WEIERSTRASS Karl (1815 – 1897) : mathématicien allemand parfois surnommé le père de l’analyse moderne

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 91 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Comparaison des suites Chapitre 9 : Suites numériques

Théorème 9.15
La relation « ... est équivalente à ... » est une relation d’équivalence dans F (N, R), c’est à dire qu’elle
est réflexive, symétrique et transitive. De plus :
– Si ` ∈ R et si u n ∼ ` alors u n → ` (réciproque vraie lorsque ` ∈ R∗ ).

NE
– Si u n = o(v n ) alors u n + v n ∼ v n .

Preuve : Celle-ci est simple et laissée en exercice. 

2) Les exemples classiques

Théorème 9.16 (des croissances comparées)


Soient α, β ∈]0; +∞[ :
– Si α < β alors n α = o n β et 1 1
¡ ¢ ¡ ¢

=o nα .
– [ln(n)]α = o n β .
¡ ¢
³ β´
– n α = o e nβ et n α = o e n .
¡ ¢

AIG
– ∀a ∈ R, a n = o(n!) et donc n α = o(n!).
– n! = o(n n ).

|a|n u n+1 |a|


Preuve : Pour l’avant dernier point avec a 6= 0 : on pose u n = n! , alors u n = n+1 6 12 à partir d’un certain rang N, d’où
1
pour n > N, 0 6 u n 6 u N 2n−N et donc u n → 0.
n! 1 k
Pour le dernier point : Soit u n = nn alors 0 6 u n 6 n (en écrivant que n 6 1 pour k > 1). 

Théorème 9.17 (les équivalents usuels)


Soit (u n ) une suite de limite nulle, alors ;
• Si f : ] − a; a[→ R (où a > 0) est dérivable en 0, et si f 0 (0) 6= 0, alors pour toute suite (u n ) de limite
nulle, on a f (u n ) − f (0) ∼ f 0 (0)u n .
• sin(u n ) ∼ u n ; e un − 1 ∼ u n ; ln(1 + u n ) ∼ u n ; tan(u n ) ∼ u n ; (1 + u n )α − 1 ∼ αu n ;
NT
• 1 − cos(u n ) ∼ 12 u n2 .
p
a k x k une fonction polynomiale avec a p 6= 0, alors P(n) ∼ a p n p (équivalence avec le
P
• Soit P(x) =
k=0
terme de plus haut degré).
P(x)
• Soit Q(x) = R(x) une fraction rationnelle avec a p x p le terme de plus haut degré de P (a p 6= 0) et b r x r
a p p−r
celui de R (b r 6= 0), alors Q(n) ∼ br n (équivalence avec le rapport des termes de plus haut degré).

Preuve : Si f est une fonction dérivable en 0, alors il existe une fonction ε de limite nulle en 0 telle que : f (x) − f (0) =
ε(u n )
x f 0 (0) + xε(x), si f 0 (0) 6= 0 alors pour n assez grand on aura f (u n ) − f (0) = u n f 0 (0)[1 + f 0 (0) ], ce qui entraîne que
f (u n ) − f (0) ∼ u n f 0 (0) car u n → 0. 
MO

3) Propriétés

Théorème 9.18
Soient u et v deux suites,
– Si u n ∼ v n et si lim v n = ` ∈ R, alors lim u n = `.
– Si u n ∼ v n et si a n ∼ b n , alors u n a n ∼ v n b n (compatibilité avec la multiplication).
– Si u n ∼ v n et si v ne s’annule pas à partir d’un certain rang, alors u1n ∼ v1n (compatibilité avec le
passage à l’inverse).

Preuve : Celle - ci découle directement de la définition. 

Attention !
Il n’y a pas compatibilité avec l’addition en général, par exemple : n + sin( n1 ) ∼ n et −n ∼ 1 − n, mais sin( n1 ) n’est
pas équivalent à 1.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 92 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Extension aux suites complexes Chapitre 9 : Suites numériques

Ces propriétés sont utiles pour les calculs de limites qui ne peuvent pas être faits directement : on essaie de se
ramener à un équivalent plus simple (s’il y en a ...) dont on sait calculer la limite.

ZExemples : p
– Soit u n = n 2 − n − n, alors u n = n[(1 − 1/n)1/2 − 1] ∼ n[ −1
2n ] = −1/2, donc u n → −1/2.

NE
n 2 −e n
– Soit u n = n!+n 4
, on a n 2 = o(e n ) donc n 2 − e n ∼ −e n , d’autre part n 4 = o(n!) donc n! + e n ∼ n!, d’où
n
u n ∼ − en! , mais e n = o(n!), donc u n → 0.

Théorème 9.19 (équivalent de Stirling)


p
On a n! ∼ n n e −n 2πn.

VI EXTENSION AUX SUITES COMPLEXES

1) Définitions

AIG
On adopte la même définition et les mêmes notations que pour les suites réelles, une suite complexe est
donc une application u : N → C, l’ensemble des suites complexes est F (N, C).
– Si u est une suite complexe, on pose pour tout entier n, a n = Re(u n ) et b n = Im(u n ), alors les suites
a et b sont des suites réelles, avec u n = a n + i b n . La suite a est appelée partie réelle de u et notée
a = Re(u), la suite b est appelée partie imaginaire de u et notée Im(u). Par exemple, si θ ∈ R, la partie
réelle que la suite (e i nθ ) est la suite (cos(nθ)), et sa partie imaginaire est la suite (sin(nθ)).
– La suite conjuguée de u est notée u et définie par u n = a n − i bq n.

– La suite module de u est notée |u| est définie par |u|n = |u n | = a n2 + b n2 .


– Soit σ : N → N une application strictement croissante, la suite (u σ(n) ) est appelée suite extraite de u et
on a u σ(n) = a σ(n) + i b σ(n) .
– On dit que la suite complexe u est bornée lorsque sa partie réelle a et sa partie imaginaire b sont des
suites réelles bornées. Ceci revient à dire que la suite |u| est majorée.
– On définit dans F (N, C) les mêmes opérations que pour les suites réelles : addition, multiplication
et produit par un complexe. On trouve de même que (F (N, C), +, ×) est un anneau commutatif non
NT
intègre.

2) Convergence

Définition 9.7
Soit u une suite complexe, et soit ` un complexe. On dira que la suite u converge vers ` lorsque la
suite (|u n − `|)n∈N tend vers 0, c’est à dire :
∀ε > 0, ∃N ∈ N, ∀n ∈ N, n > N =⇒ |u n − `| < ε.

i nθ
ZExemple : Soit u n = e n , alors |u n | = n1 → 0 donc u converge vers 0.
MO

3) Propriétés

Théorème 9.20
Soit u une suite complexe et ` un complexe, alors la suite u converge vers ` si et seulement si la suite
(Re(u n )) converge vers Re(`) et la suite (Im(u n )) converge vers Im(`).

Preuve : Notons u n = a n + i b n et ` = α + i β, (formes algébriques). Supposons que a n → α et b n → β, alors |u n − `| =


(a n − α)2 + (b n − β)2 qui tend donc vers 0, donc u converge vers `.
p

Réciproquement, si u converge vers `, on a |a n − α| 6 |u n − `| et |b n − β| 6 |u n − `|, or |u n − `| tend vers 0, par


conséquent a n → α et b n → β. 
Connaissant les propriétés de suites réelles convergentes, on peut en déduire celles des suites complexes
convergentes en raisonnant sur les parties réelles et imaginaires :
– Toute suite convergente est bornée.
– Si u converge vers ` ∈ C, alors toute suite extraite de u converge vers `.
– Si u converge vers ` ∈ C et v converge vers `0 ∈ C, alors u + v → ` + `0 , uv → ``0 et ∀λ ∈ C, λu → λ`.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 93 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 9 : Suites numériques
1
– Si u → ` ∈ C∗ , alors à partir d’un certain rang u n 6= 0 et u → 1` .
– Si u converge vers ` ∈ C, alors la suite u converge vers ` et la suite |u| converge vers |`|.
– Si u est bornée alors on peut en extraire une suite convergente (Bolzano - Weierstrass).
Remarque 9.9 – Si u n → ` dans C, et si u est à valeurs réelles, alors la suite (b n ) est la suite nulle, or b n → Im(`),

NE
donc Im(`) = 0, c’est à dire ` ∈ R.

FExercice 9.2 Étude de la suite (u n = e i nθ ).

VII SOLUTION DES EXERCICES

Solution 9.1 C’est une suite géométrique de raison e i θ . Si θ = 0 (2π), alors la suite est constante égale à 1, donc u n → 1. Si
θ 6= 0 (2π), supposons que u n → ` ∈ C, alors |u n | → |`|, or |u n | = 1, donc |`| = 1. D’autre part, u n+1 = e i θ u n , par passage à
la limite, on a ` = `e i θ , or ` 6= 0 (car |`| = 1), donc e i θ = 1 ce qui est absurde, par conséquent si θ 6= 0 (2π), la suite (u n ) est
divergente.

AIG
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 94 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 10

Arithmétique

Sommaire
I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

AIG
1) La propriété fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
NT
V Nombres premiers, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
2) Décomposition en facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3) Notion de valuation p-adique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

I DIVISIBILITÉ

1) La propriété fondamentale
MO

Théorème 10.1
Toute partie de Z non vide et minorée admet un plus petit élément.

Preuve : Soit A une partie de Z non vide et minorée par un entier n 0 . Soit M l’ensemble des minorants de A, on a n 0 ∈ M,
supposons que n ∈ M =⇒ n + 1 ∈ M, alors d’après le principe de récurrence, ∀ n ∈ Z, n > n 0 =⇒ n ∈ M. Soit p ∈ A,
p > n 0 , donc p + 1 ∈ M ce qui entraîne que p + 1 6 p : absurde, donc il existe un entier n 1 tel que n 1 ∈ M et n 1 + 1 ∉ M,
mais alors il existe un élément p 1 de A tel que p 1 < n 1 + 1, d’où n 1 6 p 1 < n 1 + 1, ce qui entraîne p 1 = n 1 , et donc n 1 ∈ A,
nécessairement n 1 est le plus petit élément de A. 

À retenir
• Toute partie non vide et majorée de Z admet un plus grand élément. En effet, si A est non vide
majorée, alors −A = {−a / a ∈ A} est non vide minorée, donc −A admet un plus petit élément −n 0 , ce
qui signifie que n 0 est le plus grand élément de A.
• Toute partie non vide de N admet un plus petit élément (propriété fondamentale de N).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 95 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Divisibilité Chapitre 10 : Arithmétique

2) La division euclidienne

Théorème 10.2
Soient a ∈ Z et b ∈ Z∗ , il existe un unique couple d’entiers (q, r ) tel que a = bq + r avec 0 6 r < |b|, q
est appelé le quotient, et r le reste.

NE
Preuve : Supposons b > 0 : soit B = {b(n + 1) / n ∈ Z}, alors B est non majoré et non minoré, donc il existe un entier n 1
tel que a < b(n 1 + 1) et il existe un entier n 2 tel que b(n 2 + 1) < a. Soit A = {n ∈ Z / a < b(n + 1)}, alors A est non vide
(n 1 ∈ A) et minoré par n 2 , donc A admet un plus petit élément q, d’où bq 6 a < b(q + 1), en posant r = a − bq, on a
a = bq + r et 0 6 r < b = |b|.
Supposons b < 0 : on applique ce qui précède à −b > 0, il existe un entier q et un entier r tels que a = (−b)q + r =
b(−q) + r avec 0 6 r < −b = |b|.
Montrons l’unicité : si a = bq + r = bq 0 + r 0 avec 0 6 r < |b| et 0 6 r 0 < |b|, alors |r − r 0 | = |bq 0 − bq| = |b||q 0 − q| < |b|,
d’où q 0 = q (ce sont des entiers) et donc r 0 = r . 

Définition 10.1
Soient a, b ∈ Z, on dit que b divise a lorsqu’il existe k ∈ Z tel que a = bk. Notation : b|a.

AIG
Remarque 10.1 – On a ainsi défini une relation dans Z, elle est réflexive, non symétrique, non antisymétrique,
et transitive.

Théorème 10.3
Soient a, b ∈ Z avec b 6= 0, alors b|a ssi le reste dans la division euclidienne de a par b est nul.

Preuve : Celle-ci est simple et laissée en exercice. 


Notation : Soit n ∈ Z, on note n Z l’ensemble des multiples de n : n Z = {kn / k ∈ Z}.
On vérifie facilement la propriété suivante :
(a Z, +) est un groupe commutatif et ∀b ∈ Z, ∀u ∈ a Z, bu ∈ a Z. On dit que a Z est un idéal de Z.

FExercice 10.1 Montrer que aZ + bZ et (aZ) ∩ (bZ) sont également des idéaux de Z.
NT
Théorème 10.4
• b | a ⇐⇒ a ∈ b Z.
• Si a 6= 0, alors b | a =⇒ |b| 6 |a|.
• (a | b et b | a) ⇐⇒ a Z = b Z ⇐⇒ a = λb avec λ = ±1 [on dit que a et b sont associés].
• Si b | a et b | c alors ∀ u, v ∈ Z, b | au + c v.
• Si nb | na et si n 6= 0, alors b | a.

3) Congruences

Définition 10.2 (congruences)


Soient a, b, n ∈ Z, on dit que a est congru à b modulo n lorsque n | a − b. Notation : a ≡ b (mod n).
MO

Théorème 10.5
• La relation de congruence modulo n est une relation d’équivalence.
• Soient a, b, c, d , n ∈ Z, si a ≡ b (mod n) et c ≡ d (mod n) alors :
ac ≡ bd (mod n) et a + c ≡ b + d (mod n).
On dit que la relation de congruence est compatible avec les opérations.

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemple : Dans Z, si n = a0 + 10a1 + · · · + 10p a p (écriture décimale) alors n ≡ a0 + · · · + a p (mod 3) car 10k ≡ 1
(mod 3)

4) Diviseurs communs

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 96 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Éléments premiers entre eux Chapitre 10 : Arithmétique

Définition 10.3 (diviseurs communs)


Pour a ∈ Z, on note Da l’ensemble des diviseurs de a. Si a, b ∈ Z, on note Da,b l’ensemble des diviseurs
communs à a et b, on a donc Da,b = Da ∩ Db , cet ensemble contient toujours ±1.

NE
Remarque 10.2 –
– Pour tout élément a ∈ Z, ±1 | a.
– Si a 6= 0, alors Da est un ensemble fini, plus précisément Da ⊂ J−|a| ; |a|K.
– D0 = Z, D±1 = {±1}.
– Si a et b sont dans Z : Da = D|a| (on en déduit que Da,b = D|a|,|b| ).

Théorème 10.6
Soient a, b, q, r ∈ Z, si a = bq + r , alors Da,b = Db,r .

Preuve : Si d ∈ Da,b , alors d | a et d | b donc d | a − bq i.e. d | r , donc d ∈ Db,r .


Réciproquement, si d ∈ Db,r , alors d | b et d | r donc d | bq + r i.e. d | a, d’où d ∈ Da,b . 

AIG
Application – Le théorème ci-dessus fournit un algorithme pour la recherche des diviseurs communs à a et b (entiers
naturels) basé sur la division euclidienne : c’est l’algorithme d’Euclide 1 , voici son principe :
On remarque que si b = 0 alors Da,b = Da . On peut supposer désormais que b 6= 0 et on cherche à calculer
D = Da,b :
Étape 1 : on effectue la division euclidienne de a par b : a = bq 1 + r 1 avec 0 6 r 1 < b. On a D = Db,r 1 , donc
si r 1 = 0 alors D = Db , sinon on passe à l’étape 2 :

Étape 2 : on effectue la division euclidienne de b par r 1 : b = r 1 q 2 + r 2 avec 0 6 r 2 < r 1 . On a D = Dr 1 ,r 2 ,


donc si r 2 = 0 alors D = Dr 1 , sinon on passe à l’étape 3 :

Étape 3 : on effectue la division euclidienne de r 1 par r 2 : r 1 = r 2 q 3 + r 3 avec 0 6 r 3 < r 2 . On a D = Dr 2 ,r 3 ,


donc si r 3 = 0 alors D = Dr 2 , sinon on passe à l’étape 4...

La suite des restes obtenus est une suite strictement décroissante d’entiers positifs, elle est donc néces-
NT
sairement finie, i.e. il existe un entier n > 1 tel que r n = 0, l’ensemble cherché est donc D = Dr n−1 (avec la
convention r 0 = b).

À retenir
Da,b est l’ensemble des diviseurs du dernier reste non nul.

ZExemple : Cherchons les diviseurs communs à a = 336 et b = 210


– on effectue la division de a par b : 336 = 1 × 210 + 126, donc Da,b = D210,126 .
– on effectue la division de 210 par 126 : 210 = 1 × 126 + 84, donc Da,b = D210,126 = D126,84 .
– on effectue la division de 126 par 84 : 126 = 1 × 84 + 42, donc Da,b = D84,42 .
– on effectue la division de 84 par 42 : 84 = 2 × 42 + 0, donc Da,b = D42,0 = D42 , c’est à dire :
MO

D336,210 = {±1, ±2, ±3, ±6, ±7, ±14, ±21, ±42}.

II ÉLÉMENTS PREMIERS ENTRE EUX

1) Théorème de Bézout

Définition 10.4
Soient a, b ∈ Z, on dit que a et b sont premiers entre eux (ou a est premier avec b) lorsque le seul
diviseur commun positif est 1, i.e. Da,b = {±1}.

1. EUCLIDE (300 av. J.C. – 275 av. J.C. environ) : on ne sait pratiquement rien de sa vie, il était vraisemblablement grec. Son
œuvre est colossale et son ouvrage fondamental « Les éléments » regroupe toutes les connaissances de l’époque, il faudra près de
vingt siècles pour dépasser son œuvre.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 97 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Le plus grand diviseur commun Chapitre 10 : Arithmétique

Remarque 10.3 –
– Dire que a est premier avec b revient à dire que le dernier reste non nul dans l’algorithme d’Euclide est 1.
– Si a est premier avec b, alors au moins un des deux est non nul (sinon l’ensemble des diviseurs communs
est Z).
– a est premier avec a si et seulement si a ± 1.

NE
Théorème 10.7 (théorème de Bézout 2 )
Soient a, b ∈ Z, alors a et b sont premiers entre eux si et seulement si il existe u, v ∈ Z tels que
au + bv = 1. Les entiers u et v sont appelés coefficients de Bézout (non uniques en général).

Preuve : Supposons que u et v existent et soit d un diviseur commun à a et b, alors d | a et d | b, donc d | au + bv i.e.
d | 1, donc d = ±1 ce qui prouve que a et b sont premiers entre eux.
Réciproquement : si a est premier avec b. En appliquant l’algorithme d’Euclide on vérifie qu’à chaque étape le
reste r k peut se mettre sous la forme r k = a.u k + b.v k avec u k et v k dans Z (récurrence) (algorithme d’Euclide étendu),
comme le dernier reste non nul est 1, il existe bien u et v dans Z tels que 1 = au + bv (de plus on sait les calculer !). 

ZExemple : ∀ n ∈ Z, n et n + 1 sont premiers entre eux, puisque n + 1 − n = 1.

AIG
2) Conséquences

Théorème 10.8
Si a est premier avec b et si a est premier avec c, alors a est premier avec le produit bc. On en déduit
que si a est premier avec c 1 , . . . , c n , alors a est premier avec le produit c 1 × . . . × c n .

Preuve : Il existe u, v ∈ Z tels que au + bv = 1, il existe p, q ∈ Z tels que ap + c q = 1. On effectue le produit de ces deux
relations, ce qui donne a(uc q + uap + pbv) + bc(v q) = 1, d’après le théorème de Bézout, a et bc sont premiers entre
eux. Une simple récurrence sur n permet de démontrer la généralisation. 

Théorème 10.9
Si a est premier avec c, si a | b et si c | b, alors ac | b.
NT
Preuve : Il existe u, v ∈ Z tels que au + c v = 1, on multiplie par b, ce qui donne : bau + bc v = b, or c | b donc ac | bau, et
a | b donc ac | bc v, ce qui entraîne ac | bau + bc v i.e. ac | b.
Remarquons que ce théorème est faux lorsque a et c ne sont pas premiers entre eux, par exemple : 2 | 12 et 4 | 12
mais 2 × 4 = 8 6 |12. 

Théorème 10.10 (théorème de Gauss)


Si a | bc et si a est premier avec c, alors a | b.

Preuve : Il existe u, v ∈ Z tels que au+c v = 1, on multiplie par b, ce qui donne bau+bvc = b, or a | bc donc a | bau+bc v,
i.e. a | b. 

FExercice 10.2 Résoudre dans Z l’équation 17x + 12y = 3.


MO

III LE PLUS GRAND DIVISEUR COMMUN

1) Définition
Soient a, b ∈ Z non tous deux nuls (i.e. a 6= 0 ou b 6= 0), on sait que Da,b = Dr où r est le dernier reste non
nul dans l’algorithme d’Euclide, on voit que les diviseurs communs à a et b ont une valeur absolue inférieure
ou égale à celle de r et donc r est le plus grand diviseur commun.

Définition 10.5
Soient a, b ∈ Z non tous deux nuls, on appelle pgcd de a et de b le plus grand diviseur commun.
Notation : pgcd(a, b) ou a ∧ b, c’est le dernier reste non nul dans l’algorithme d’Euclide.

2. BÉZOUT Étienne(1730 – 1783) : mathématicien français, l’un des précurseurs de la géométrie algébrique.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 98 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Le plus grand diviseur commun Chapitre 10 : Arithmétique
Remarque 10.4 – Il en découle que deux éléments a et b de Z, non tous deux nuls, sont premiers entre eux si et
seulement si pgcd(a, b) = 1.

Théorème 10.11
Soient a, b ∈ Z non tous deux nuls, et d = pgcd(a, b), alors d est l’unique élément positif dans Z tel

NE
que a Z + b Z = d Z.

Preuve : Unicité : si d Z = d 0 Z alors d et d 0 sont associés, mais comme ils sont positifs, on a d = d 0 .
Égalité : dans l’algorithme d’Euclide étendu, il existe u et v dans Z tel que au + bv = d , ce qui entraine que
d Z ⊂ aZ + bZ. Si r ∈ aZ + bZ, alors d est diviseur de r donc aZ + bZ ⊂ d Z, d’où l’égalité. 

Théorème 10.12 (Calcul pratique d’un pgcd)


Si a, b ∈ Z sont non tous deux nuls alors ∀q ∈ Z, pgcd(a, b) = pgcd(a − bq, b).

Preuve : Soit r = a − bq, on a a = bq + r et on sait alors que Da,b = Db,r , le résultat en découle. 

AIG
Listing 10.1: euclide pour a et b positifs
1 def pgcd (a , b ) :
2 A,B = a,b
3 while B != 0:
4 A,B = B, A%B
5 return ( A ) # dernier reste non nul

FExercice 10.3
1/ Prouver la terminaison de l’algorithme.
2/ Montrer que l’on a l’invariant de boucle de boucle P(k) = « pgcd(a, b) = pgcd(Ak , Bk ) ».
ZExemple : Soit à calculer d = pgcd(3282, 1281) :
– 3282 = 2 × 1281 + 720, donc d = pgcd(1281, 720),
– 1281 = 1 × 720 + 561, donc d = pgcd(720, 561),
– 720 = 1 × 561 + 159, donc d = pgcd(561, 159),
NT
– 561 = 3 × 159 + 84, donc d = pgcd(159, 84),
– 159 = 1 × 84 + 75, donc d = pgcd(84, 75),
– 84 = 1 × 75 + 9, donc d = pgcd(75, 9),
– 75 = 8 × 9 + 3, donc d = pgcd(9, 3),
– 9 = 3 × 3 + 0, donc d = 3.

2) Propriétés

Théorème 10.13 (caractérisations du pgcd)


Soient a, b ∈ Z non tous deux nuls, et soit d ∈ N∗ . On a alors :
d = pgcd(a, b) ⇐⇒ ∃ u, v ∈ Z premiers entre eux tels que a = d u et b = d v.
MO

Preuve : Si d = pgcd(a, b) alors il existe u, v ∈ Z tels que a = d u et b = d v, soit k = u ∧ v, alors kd divise a et b, donc
|kd | 6 |d | ce qui entraîne k = 1.
Si a = d u, b = d v avec u ∧ v = 1 : alors d est un diviseur commun à a et b, d’après le théorème de Bézout, il existe
α, β ∈ Z tels que αu + βv = 1, d’où d = αa + βb, on voit donc que tout diviseur commun à a et b est diviseur de d , donc
Da,b = Dd i.e. d est le plus grand diviseur commun [d est positif ], i.e. d = a ∧ b. 

Théorème 10.14 (quelques propriétés du pgcd)


Soient a, b ∈ Z non tous deux nuls :
a) ∀ n ∈ Z, si n | a et n | b, alors n | pgcd(a, b).
b) ∀ k ∈ N∗ , pgcd(ka, kb) = k pgcd(a, b).
c) ∀ n ∈ N, pgcd(a n , b n ) = pgcd(a, b)n .
d) Si a et c sont premiers entre eux, alors pgcd(a, bc) = pgcd(a, b).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 99 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Le plus grand diviseur commun Chapitre 10 : Arithmétique

Preuve : Pour le premier point : Soit d = pgcd(a, b), alors Da,b = Dd donc tout diviseur commun à a et b est un diviseur
de d .
Pour le deuxième point : soit d = pgcd(a, b), alors il existe u, v ∈ Z premiers entre eux tels que a = d u et b = d v,
d’où ka = kd u et kb = kd v, donc kd = pgcd(ka, kb).
Pour le troisième point : en reprenant les notations ci-dessus, a n = d n u n et b n = d n v n , or u et v sont premiers

NE
entre eux, donc u n et v n aussi (conséquence du théorème de Bézout ), par conséquent d n = pgcd(a n , b n ).
Pour le dernier point : on reprend les notations ci-dessus, a = d u et bc = d c v mais u | a et a est premier avec c,
donc u est premier avec c, d’où u est premier avec c v, et donc d = pgcd(a, bc). 

3) Généralisation
Soient a, b, c trois entiers non tous nuls, l’ensemble des diviseurs communs à a, b et c est :

Da,b,c = Da ∩ Db ∩ Dc = (Da ∩ Db ) ∩ Dc = Da ∩ (Db ∩ Dc )

or on sait que Da ∩ Db = Da∧b , donc Da,b,c = D(a∧b)∧c = Da∧(b∧c) . Ces deux entiers étant strictement positifs,
on a (a ∧ b) ∧ c = a ∧ (b ∧ c) et ce nombre est le plus grand diviseur positif commun à a, b et c. Par définition
ce nombre est le pgcd de a, b et c, on le note : pgcd(a, b, c) .

AIG
Théorème 10.15 (associativité du pgcd)
Soient a, b, c trois entiers avec b non nul, alors pgcd(a, b, c) = (a ∧ b) ∧ c = a ∧ (b ∧ c).

À retenir
L’associativité du pgcd permet de ramener le calcul au cas de deux entiers.

Notons d 0 = a ∧ b et d = pgcd(a, b, c), alors d = d 0 ∧ c, donc il existe deux entiers u 0 et w tels que d =
d 0 u 0 + c w, de même, il existe deux entiers α et β tels que d 0 = αa + βb, d’où en remplaçant, d = aαu 0 + bβu 0 +
cw = au + bv + cw avec u, v, w ∈ Z.
Réciproquement, si d est un diviseur commun positif, et si d = au + bv + c w, alors il est facile de voir que
tout diviseur commun à a, b et c est un diviseur de d et donc d = pgcd(a, b, c), d’où le théorème :
NT
Théorème 10.16
Soient a, b, c trois entiers non tous nuls et d ∈ N∗ , alors :
d = pgcd(a, b, c) ⇐⇒ d ∈ Da,b,c et ∃u, v, w ∈ Z, d = au + bv + c w.

Définition 10.6
Soient a, b, c trois entiers non tous nuls, on dira que ces trois nombres sont :
• premiers entre eux dans leur ensemble lorsque pgcd(a, b, c) = 1.
• premiers entre eux deux à deux lorsque pgcd(a, b) = pgcd(b, c) = pgcd(a, c) = 1.
MO

Attention !
Les deux notions ne sont pas équivalentes, la deuxième entraîne la première mais la réciproque est fausse comme
le montre l’exemple suivant :
pgcd(6, 15, 20) = 1 mais pgcd(6, 15) = 3, pgcd(6, 20) = 2 et pgcd(15, 20) = 5.

Il découle du théorème précédent :

Théorème 10.17 (de Bézout)


Soient a, b, c trois entiers non tous nuls, alors a, b et c sont premiers entre eux dans leur ensemble si
et seulement si :
∃u, v, w ∈ Z, au + bv + c w = 1.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 100 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Le plus petit multiple commun Chapitre 10 : Arithmétique

Théorème 10.18 (caractérisation)


Soient a, b, c trois entiers non tous nuls et d ∈ N∗ , alors :
d = pgcd(a, b, c) ⇐⇒ ∃u, v, w ∈ Z, a = d u, b = d v et c = d w avec pgcd(u, v, w) = 1.

NE
Preuve : Si d = pgcd(a, b, c) alors il existe ∃u, v, w ∈ Z, a = d u, b = d v et c = d w. Il existe également des entiers α, β et γ
tels que d = αa + βb + γc d’où 1 = αu + βv + γc et donc pgcd(u, v, w) = 1.
Réciproquement, si a = d u, b = d v et c = d w avec pgcd(u, v, w) = 1. Il existe des entiers α, β et γ tels que 1 =
αu + βv + γw, en multipliant par d il vient alors que d = αa + βb + γc, ce qui entraîne que d = pgcd(a, b, c) (car d ∈ N∗
et d ∈ Da,b,c ). 
Remarque 10.5 – Nous avons étendu la notion de pgcd à trois entiers, mais on pourrait l’étendre de la même
manière à n entiers.

IV LE PLUS PETIT MULTIPLE COMMUN

1) Définition

AIG
Théorème 10.19
Si a et b sont non nuls, il existe un unique élément m positif dans Z tel que (a Z) ∩ (b Z) = m Z.

Preuve : aZ ∩ bZ contient |ab| > 0, on note m le plus petit élément strictement positif dans aZ ∩ bZ, alors il est facile de
voir que mZ ⊂ aZ ∩ bZ. Si p ∈ aZ ∩ bZ, on effectue la division de p par m, p = mq + r avec 0 6 r < m, d’où r = p − mq,
on vérifie alors que r est aussi dans aZ ∩ bZ (car a et b divisent p et m donc p − mq). Si r > 0 alors r > m car m est
le plus petit élément strictement positif dans aZ ∩ bZ, ceci est absurde, donc r = 0 et p = mq, d’où aZ ∩ bZ ⊂ mZ, et
finalement on a bein l’inégalité.
Si m 0 Z = mZ avec m 0 > 0, alors m et m 0 se divisent muutuellement, d’où m = m 0 . 
Il découle de ce théorème que c est un multiple commun à a et b si et seulement si c ∈ (a Z) ∩ (b Z), ce qui
équivaut à c ∈ m Z, c’est à dire m | c. Ceci entraîne en particulier : m 6 |c|.

Définition 10.7
Soit a, b ∈ Z, non nuls, et soit m ∈ N∗ , on dit que m est le ppcm de a et b lorsque (a Z) ∩ (b Z) = m Z.
NT
Notation : m = ppcm(a, b) ou encore m = a ∨ b.

Théorème 10.20 (caractérisation du ppcm)


Soient a, b ∈ Z, non nuls, et soit m ∈ N∗ alors :
m = ppcm(a, b) ⇐⇒ ∃ u, v ∈ Z premiers entre eux tels que m = au = bv.

Preuve : On suppose a, b ∈ Z, non nuls.


Si m = ppcm(a, b) : alors a | m et b | m. Donc il existe u, v ∈ Z tels que m = au = bv, soit d = pgcd(u, v) alors il existe
α, β ∈ Z premiers entre eux tels que u = d α et v = d β, d’où m = ad α = bd β, mais alors m 0 = aα = bβ est un multiple
commun à a et b donc |m| 6 |m 0 | ce qui entraîne d = 1.
Si ∃u, v ∈ Z premiers entre eux tels que m = au = bv, alors a | m et b | m, il existe α, β tels que uα + vβ = 1, soit m 0
MO

un multiple commun non nul, alors m 0 = m 0 uα + m 0 vβ, on en déduit que m | m 0 et donc |m| 6 |n|, ce qui prouve que
m = ppcm(a, b). 

2) Propriétés

Théorème 10.21
Soient a, b ∈ Z, non nuls :
a) ∀ n ∈ Z, si a | n et b | n alors ppcm(a, b) | n.
b) Si a et b sont premiers entre eux, alors ppcm(a, b) = |ab|.
c) ∀ k ∈ N, non nul, ppcm(ka, kb) = k ppcm(a, b).
d) ppcm(a, b) × pgcd(a, b) = |ab|.
e) ∀ n ∈ N, ppcm(a n , b n ) = ppcm(a, b)n .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 101 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Nombres premiers, décomposition Chapitre 10 : Arithmétique

Preuve : Pour le deuxième point : a et b sont premiers entre eux, alors ab = ba par conséquent ppcm(a, b) = ab d’après
le théorème précédent.
Pour le troisième point : soit m = ppcm(a, b), alors m = au = bv avec u et v premiers entre eux, d’où km = kau =
kbv et donc km = ppcm(ka, kb).
Pour le quatrième point : soit m = ppcm(a, b) et d = pgcd(a, b), il existe u et v premiers entre eux tels que a = d v et

NE
b = d u, or au = bv donc m = au = bv par conséquent md = ad u = ab.
Pour le cinquième point : soit m = ppcm(a, b) on a m = au = bv avec u et v premiers entre eux, donc m n = a n u n =
b v avec u n et v n premiers entre eux, donc m n = ppcm(a n , b n ).
n n


V NOMBRES PREMIERS, DÉCOMPOSITION

1) Définition

Définition 10.8
Un entier p ∈ Z est dit premier lorsque p > 2, et que ses seuls diviseurs positifs sont 1 et p. L’ensemble
des nombres premiers est noté P .

AIG
ZExemples :
– 2, 3, 5, 7, 11, 13, 17, 19, 23, . . . sont des nombres premiers.
n
– Les nombres de Fermat 3 : Fn = 22 + 1 sont premiers pour n = 0, 1, 2, 3, 4 mais pas pour n = 5, car
F5 = 641 × 6700417.
– Les nombres de Mersennes 4 : Mp = 2p − 1 où p ∈ P, sont premiers pour p = 2, 3, 5, 7, 127, . . . mais pas
pour p = 11, car M11 = 23 × 89.

FExercice 10.4
1/ Soient a, b ∈ Z et n ∈ N, montrer que a − b | a n − b n . Si n est impair, montrer que a + b | a n + b n .
2/ Montrer que si 2p + 1 est un nombre premier alors p est une puissance de 2.
3/ Montrer que si 2p − 1 est un nombre premier, alors p est un nombre premier.
Propriétés élémentaires :
a) Si p est premier, alors ∀n ∈ Z, soit p | n, soit pgcd(n, p) = 1.
NT
Preuve : Soit d = pgcd(p, n), alors d | p donc d = 1 ou d = p, mais p ne divise pas n, donc d 6= p, i.e. d = 1. 

b) Si n > 2, alors n possède au moins un diviseur premier.


Preuve : Soit B = {|d | / d | n et d 6= 1}, alors B est une partie de N non vide (|n| ∈ B), soit p un diviseur de n avec
|p| ∈ B minimal, si d | p avec d positif et d 6= 1, alors d | n et donc |d | ∈ B, d’où |d | > |p|, or d | p, donc |d | 6 |p| et
finalement |d | = |p|, d’où d = p et donc p est premier. 

c) L’ensemble P est infini.


Preuve : Si P est fini, alors P = {p 1 , . . . , p n }, posons N = 1 + p 1 × . . . × p n , alors N > 1, donc N admet au moins un
diviseur premier q, comme q ∈ P , on a q | p 1 × . . . × p n , et comme q | N, on a q | 1 ce qui est absurde, donc P est
infini. 

d) Si p est premier et si p | nm, alors p | n ou p | m.


MO

Preuve : Supposons que p ne divise pas n, alors n ∉ pZ donc pgcd(p, n) = 1 et par conséquent p | m (d’après le
théorème de Gauss). 
p
e) Si n > 1 n’a pas de diviseur autre que 1 dans l’intervalle [1; n], alors n est premier.
Preuve : Si n est non premier alors on peut écrire n = pq avec p > 1 et q > 1. Si les deux étaient strictement
p p
supérieurs à n alors on aurait pq > n ce qui est absurde, donc un des deux est dans [1; n]. Le résultat s’en
déduit par contraposée. 
¡p ¢
f) Si p est premier, alors ∀ k ∈ J1 ; p − 1K, p | k
. On en déduit que pour tout entier a et b, on a (a + b)p ≡
a p + b p (mod p).
¡p ¢ ¡p−1¢
Preuve : On a k k = p k−1 qui est donc divisible par p, mais comme k ∈ J1 ; p − 1K, p est premier avec k, par
¡p ¢
conséquent, d’après le théorème de Gauss, p | k . Pour le second point, on développe le binôme. 

3. FERMAT Pierre De (1601 – 1665) : mathématicien amateur (éclairé !) l’un des plus féconds de son époque mais qui faisait peu
de démonstrations et publiait peu.
4. MERSENNES Marin (1588 – 1648) : moine français qui entretenait une correspondance suivie avec les mathématiciens de son
époque.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 102 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Nombres premiers, décomposition Chapitre 10 : Arithmétique

Compléments : Soit (p n )n >1 la suite strictement croissante des nombres premiers, la répartition de ces
nombres encore aujourd’hui mal connue, cependant on a les quelques résultats suivants :
– Tout segment de la forme Jn ; 2n K contient au moins un nombre premier (théorème de Bertrand ).
– Si a, b ∈ N∗ sont premier entre eux, alors il existe une infinité de nombre premiers de la forme an + b
(théorème de Dirichlet ).

NE
– p n ∼ n ln(n) (théorème de Hadamard ).
+∞

Théorème 10.22 (petit théorème de Fermat)


Si p est un nombre premier, alors pour tout entier n on a n p ≡ n (mod p). Et si n ∉ p Z, alors n p−1 ≡ 1
(mod p).

Preuve : Pour n ∈ N on fait une récurrence : la propriété est vraie au rang 0, supposons la vraie au rang n, alors
(n + 1)p ≡ n p + 1 (mod p), en appliquant l’hypothèse de récurrence, on a (n + 1)p ≡ n + 1 (mod p).
On remarque ensuite que (−1)p ≡ −1 (mod p) car soit p = 2, soit p est premier impair, on en déduit que (−n)p ≡ −n
(mod p). On a donc pour tout entier n, p | n p − n = n(n p−1 − 1), si p ne divise pas n alors p est premier avec n, donc
p | n p−1 − 1, c’est à dire n p−1 ≡ 1 (mod p). 

AIG
2) Décomposition en facteurs premiers

Théorème 10.23 (décomposition en produit de facteurs premiers)


Tout élément n ∈ Z, autre que ±1, est un produit de nombres premiers. Plus précisément, il existe
r > 1, il existe p 1 , . . . , p r ∈ P (distincts), il existe des entiers α1 , . . . , αr ∈ N∗ , il existe λ ∈ {−1; 1} tels que :
α α α
n = λ × p1 1 × p2 2 × . . . × pr r .

Preuve : On a n = λ × |n| avec λ = ±1. On se ramène ainsi au cas où n est positif.


Par récurrence sur n : pour n = 2 il n’y a rien à montrer car 2 est premier. Supposons le théorème démontré jusqu’au
rang n > 2, alors n + 1 admet au moins un diviseur premier p, donc n + 1 = pk, si k = 1 alors n + 1 est premier, sinon k
est un produit de facteurs premiers (HR), donc n + 1 aussi. 

Théorème 10.24 (unicité de la décomposition)


NT
Si n ∈ Z s’écrit sous la forme :
α α β β
n = λ × p 1 1 × . . . × p r r = µ × q 1 1 × . . . × q s s , avec p 1 , . . . , p r ∈ P (distincts),α1 , . . . , αr ∈ N∗ , q 1 , . . . , q s ∈ P
(distincts), β1 , . . . , βs ∈ N∗ , et λ, µ ∈ {−1; 1} alors r = s, λ = µ et il existe une permutation σ de J1 ; r K telle
que pour i ∈ J1 ; r K, p i = q σ(i ) , αi = βσ(i ) . La décomposition est unique [à l’ordre près].

β β
Preuve : Si p 1 ∉ {q 1 , . . . , q s }, alors p 1 est premier avec q 1 , . . . , q s , donc p 1 est premier avec q 1 1 ×. . .×q s s , i.e. p 1 est premier
avec n, ce qui est absurde puisque p 1 | n, donc p 1 ∈ {q 1 , . . . , q s }. Finalement on a {p 1 , . . . , p r } ⊂ {q 1 , . . . , q s } et par symétrie
on a l’égalité des deux ensembles, donc r = s. Quitte à permuter les indices que la famille (q i ), on peut supposer que
p 1 = q1 , . . . , p r = qr .
α β
Le théorème de Gauss entraîne que p k k | p k k , donc αk 6 βk , par symétrie on a βk 6 αk , et donc αk = βk , ce qui
termine la preuve. 
MO

3) Notion de valuation p -adique


Si n est un entier naturel non nul et p un nombre premier, alors l’ensemble k ∈ N / p k | n est non vide
© ª

(contient 0) et majoré par n (on peut montrer par récurrence que p n >n), cet ensemble admet donc un
maximum :

Définition 10.9
Soit p ∈ P et n ∈ N∗ on appelle valuation p-adique de n, notée v p (n), le plus grand entier k tel que
p k | n. La définition s’étend à Z, en posant v p (−n) = v p (n) si n < 0 et v p (0) = +∞.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 103 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Nombres premiers, décomposition Chapitre 10 : Arithmétique
Remarque 10.6 :
– v p (n) = k ⇐⇒ p k | n et p k+1 - n ⇐⇒ ∃ q ∈ N, n = p k q avec p ∧ q = 1 .
– v p (n) > 1 ⇐⇒ p | n, auquel cas v p (n) est la puissance de p dans la décomposition de n en facteurs
premiers.
– k ∈ N / p k | n = J0 ; v p (n)K.
© ª

NE
À retenir
p v p (n) .
Q
Pour tout entier n > 2, la décomposition de n en produit de facteurs premiers s’écrit : n =
p∈P

En effet, seul un nombre fini de valuations sont non nulles (les autres donnent un facteur égal à 1).

Théorème 10.25 (Propriétés)


∀n, m ∈ Z, on a :
a) ∀p ∈ P , v p (nm) = v p (n) + v p (m).

AIG
b) ∀p ∈ P , v p (n + m) > min(v p (n); v p (m)).
c) n | m ⇐⇒ ∀p ∈ P , v p (n) 6 v p (m).
d) Si n et m sont non nuls alors ∀p ∈ P :
v p (n ∧ m) = min(v p (n); v p (m)) et v p (n ∨ m) = max(v p (n); v p (m)).

Preuve :
0
a) Si un des deux est nul, c’est évident. Supposons n et m non nuls, soit n = p k q avec p ∧ q = 1 et m = p k q 0 avec
0
p ∧ q 0 = 1, d’où nm = p k+k q q 0 et p ∧ (q q 0 ) = 1, donc v p (nm) = kk 0 .
b) Si un des deux est nul, c’est évident. Supposons n et m non nuls, et avec les mêmes notations, supposons k 6 k 0 ,
0
alors n + m = p k [q + p k −k q 0 ] donc v p (n + m) > k. On remarque qu’il y a égalité lorsque k 6= k 0 .
c) Si m = 0 c’est évident, supposons m 6= 0 et n | m, alors pour tout premier p, k ∈ N / p k | n ⊂ k ∈ N / p k | m
© ª © ª

donc v p (n) 6 v p (m). La réciproque est évidente.


d) Soit d = n∧m alors v p (d ) 6 v p (n) et v p (d ) 6 v p (m), donc v p (d ) 6 min(v p (n); v p (m)). D’autre part p min(v p (n);v p (m))
NT
divise n et m donc divise d d’où min(v p (n); v p (m)) 6 v p (d ), par conséquent min(v p (n); v p (m)) = v p (d ). Pour
le ppcm on peut utiliser le fait que (n ∧ m)(n ∨ m) = |nm| et donc v p (n ∨ m) = v p (nm) − v p (n ∧ m) = v p (n) +
v p (m) − min(v p (n); v p (m)) = max(v p (n); v p (m)).


À retenir : formules du pgcd et du ppcm


Il découle du théorème ci-dessus que :
Q min(v p (n);v p (m)) Q max(v p (n);v p (m))
pgcd(n, m) = p et ppcm(n, m) = p .
p∈P p∈P

4) Applications
MO

– Si n 6= ±1, alors la décomposition de n en produit de facteurs premiers permet de trouver tous les
diviseurs de n.
α α
En effet : Si n = λ × p 1 1 × . . . × p r r , soit d est un diviseur positif de n, si p est un diviseur premier de d ,
alors p est un diviseur premier de n, donc p ∈ {p 1 , . . . , p r }, donc d s’écrit sous la forme :
β β
d = p 1 1 × . . . × p r r avec 0 6 βk 6 αk
– Si n, m ∉ {−1; 1}, alors à partir de leur décomposition en produit de facteurs premiers, on peut calculer
Q min(v p (n);v p (m)) Q max(v p (n);v p (m))
pgcd(n, m) = p et ppcm(n, m) = p . Plus précisément :
p∈P p∈P
α1 α β1 βs
Si n = λ× p 1 ×. . .× p r r = µ× q 1 ×. . .× q s , alors les diviseurs premiers communs à n
et m et m doivent
appartenir à {p 1 , . . . , p r } ∩ {q 1 , . . . , q s }, d’où la discussion :
• {p 1 , . . . , p r } ∩ {q 1 , . . . , q s } = ∅, alors n et m sont premiers entre eux. i.e. pgcd(n, m) = 1 et donc
ppcm(n, m) = |nm|.
• {p 1 , . . . , p r } ∩ {q 1 , . . . , q s } = {v 1 , . . . , v t }, alors quitte à changer la numérotation, on peut supposer que
p 1 = q 1 = v 1 , . . . , p t = q t = v t sont les diviseurs premiers communs à n et m.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 104 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 10 : Arithmétique
k k
pgcd(n, m) = v 1 1 × . . . × v t t avec k i = min(αi , βi ) pour i ∈ J1 ; t K.
Et :
k k α α β
t +1 β
ppcm(n, m) = v 1 1 × . . . × v t t × p t +1
t +1
× . . . × p r r × q t +1 × . . . × qs s
avec k i = max(αi , βi ) pour i ∈ J1 ; t K.

NE
ZExemple : 336 = 2 × 3 × 7 et 420 = 2 × 3 × 5 × 7, donc pgcd(336, 420) = 22 × 3 × 7 = 84, et ppcm(336, 420) =
4 2

24 × 3 × 5 × 7.

VI SOLUTION DES EXERCICES

Solution 10.1 a = 17 et b = 12 sont premiers entre eux : a = b × 1 + 5 d’où r 1 = 5 = a − b


b = r 1 × 2 + 2, d’où r 2 = 2 = b − 2r 1 = b − 2(a − b) = −2a + 3b
r 1 = r 2 × 2 + 1, d’où r 3 = 1 = r 1 − 2r 2 = a − b + 4a − 6b = 5a − 7b
On a ainsi une relation de Bézout entre a et b, on en déduit une solution particulière en multipliant par 3 : 15a − 21b = 3,
donc (x 0 = 15, y 0 = −21) est une solution particulière. L’équation équivaut alors à a(x −x 0 ) = b(y 0 − y), d’après le théorème
de Gauss, a et b étant premiers entre eux, on a b | x − x 0 et a | y 0 − y, i.e. x = x 0 + bk et y = y 0 − bk 0 , en reportant dans la

AIG
relation on voit que k = k 0 et donc les solutions sont les couples : (x 0 + bk, y 0 − ak) avec k ∈ Z.
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 105 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 11

Limite d’une fonction

Sommaire
I Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3) Limite à gauche, limite à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
II Propriétés des limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
1) Limites et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
2) Limite et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3) Limite et composition des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4) Limite et sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
III Calculs de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
1) Comparaison des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
1) Définition de la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
NT
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

Dans ce chapitre, les fonctions considérées sont définies sur un intervalle non trivial de R.

I LIMITES

1) Définition

Soit f : I → R une fonction, soit a un élément de I ou bien une extrémité de I (a ∈ R), et soit b ∈ R,
intuitivement on dira que b est la limite de f (x) quand x tend vers a lorsque f (x) peut être aussi voisin que
l’on veut de b pourvu que x soit suffisamment voisin de a, d’où la définition :
MO

Définition 11.1
On dit que f admet pour limite b en a lorsque : ∀ W, voisinage de b, ∃ V, voisinage de a, tel que
∀ x ∈ I, x ∈ I ∩ V =⇒ f (x) ∈ W. Si c’est le cas, on notera :
lim f (x) = b = lim f = b, ou encore f (x) −−−→ b.
x→a a x→a

À retenir : lim
a
f = b signifie
– Si a, b ∈ R : ∀ ε > 0, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ | f (x) − b| < ε.
– Si a ∈ R et b = +∞ : ∀ A ∈ R, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ f (x) > A.
– Si a ∈ R et b = −∞ : ∀ A ∈ R, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ f (x) < A.
– Si a = +∞ et b ∈ R : ∀ ε > 0, ∃ A ∈ R, ∀ x ∈ I, x > A =⇒ | f (x) − b| < ε.
– Si a = +∞ et b = +∞ : ∀ A ∈ R, ∃ B ∈ R, ∀ x ∈ I, x > B =⇒ f (x) > A.
– Si a = +∞ et b = −∞ : ∀ A ∈ R, ∃ B ∈ R, ∀ x ∈ I, x > B =⇒ f (x) < A.
– Si a = −∞ et b ∈ R : ∀ ε > 0, ∃ B ∈ R, ∀ x ∈ I, x < B =⇒ | f (x) − b| < ε.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 106 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Limites Chapitre 11 : Limite d’une fonction
– Si a = −∞ et b = +∞ : ∀ A ∈ R, ∃ B ∈ R, ∀ x ∈ I, x < B =⇒ f (x) > A.
– Si a = −∞ et b = −∞ : ∀ A ∈ R, ∃ B ∈ R, ∀ x ∈ I, x < B =⇒ f (x) < A.

ZExemples :
p
– Soit f (x) = x 2 , montrons que lim f = +∞ : soit A ∈ R, posons B = |A|, si x > B alors x 2 > B2 = |A| > A

NE
+∞
donc f (x) > A.
– Soit f (x) = x 2 et soit a ∈ R, montrons que lim f = a 2 : soit ε > 0, |x 2 − a 2 | = |x − a||x + a|, si |x − a| < α,
a
ε
alors |x 2 − a 2 | < α(α + 2|a|), si on prend α = min(1; 1+2|a|) ), alors α(α + 2|a|) 6 α(1 + 2|a|) 6 ε, donc
2 2
∀ x ∈ R, |x − a| < α =⇒ |x − a | < ε.
Remarque 11.1 –
a) Si lim f = b alors lim | f | = |b|, mais la réciproque est fausse sauf pour b = 0.
a a
b) Lorsque b ∈ R, lim f = b ⇐⇒ lim | f (x) − b| = 0 ⇐⇒ lim f (x) − b = 0.
a a a

La définition de la limite d’une suite, que nous avons vue dans un chapitre précédent, peut s’énoncer
ainsi en terme de voisinage :

AIG
Définition 11.2 (Retour sur les suites)
On dit que la suite (u n ) admet pour limite ` ∈ R lorsque :
∀ W, voisinage de `, ∃ N ∈ N, ∀ n ∈ N, n > N =⇒ u n ∈ W.

2) Premières propriétés

Théorème 11.1
Soit f : I → R une fonction et soit a un élément ou une extrémité de I.
• Si f admet une limite en a, alors celle - ci est unique.
• Si f admet une limite finie en a, alors f est bornée au voisinage de a (réciproque fausse).
• Si lim f = b et si α < b (respectivement b < α), alors au voisinage de a f est strictement supérieure à
a
α (respectivement f (x) > α).
NT
• Si lim f = b avec a ∈ I, alors nécessairement b = f (a).
a

Preuve : Pour les trois premiers points, la preuve est tout à fait analogue à celle faite pour les suites.
Pour le quatrième point : tout voisinage de b doit contenir f (a), on en déduit par l’absurde que b = f (a). 

Théorème 11.2 (caractérisation séquentielle de la limite)


lim f = b ⇐⇒ pour toute suite (u n ) d’éléments de I qui tend vers a (dans R), la suite ( f (u n )) tend vers
a
b (dans R).

Preuve : Supposons que lim f = b et soit (u n ) une suite d’éléments de I telle que u n →
− a. Soit W un voisinage de
a
b, il existe V un voisinage de a tel que x ∈ I ∩ V =⇒ f (x) ∈ W. Comme u n → − a, il existe un entier N ∈ N tel que
MO

n > N =⇒ u n ∈ V, or les termes u n sont dans I donc si n > N alors u n ∈ I ∩ V et donc f (u n ) ∈ W, ce qui prouve que
f (u n ) →
− b.
Supposons maintenant que pour toute suite (u n ) d’éléments de I qui tend vers a, la suite ( f (u n )) tend vers b. Si la
fonction f n’a pas pour limite b en a, alors il existe un voisinage W de b tel que pour tout voisinage V de a, il existe
x ∈ I ∩ V tel que f (x) ∉ W. En prenant pour n ∈ N∗ des voisinages de la forme Vn =]a − n1 ; a + n1 [ si a ∈ R, Vn =]n; +∞[ si
a = +∞, ou Vn =] − ∞; −n[ si a = −∞, on construit une suite (u n ) d’éléments de I telle que u n ∈ Vn et f (u n ) ∉ W, il est
facile de voir que la suite (u n ) tend vers a, donc la suite ( f (u n )) tend vers b, à partir d’un certain rang on doit donc avoir
f (u n ) ∈ W ce qui est contradictoire, donc lim f = b. 
a

Applications :
– Ce théorème peut être utilisé pour montrer qu’une fonction f n’a pas de limite en a.
Par exemple, la fonction f : x 7→ sin(x) n’a pas de limite en +∞ car la suite u définie par u n = π2 + nπ tend vers
+∞ mais la suite ( f (u n ) = (−1)n ) n’a pas de limite.
– Ce théorème peut être également utilisé pour prouver les propriétés de la limite d’une fonction en se ramenant à
celles des suites.
Voici un autre lien avec les suites (que l’on utilisait déjà de manière assez naturelle) :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 107 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés des limites Chapitre 11 : Limite d’une fonction

Théorème 11.3
Soit f : ]A ; +∞[ → R une fonction telle que lim f = b ∈ R, alors la suite (u n ) définie (à partir d’un
+∞
certain rang) par u n = f (n) a pour limite b.

NE
Preuve : Soit W un voisinage de b, il existe un réel B tel que ∀ x ∈ I, x > B =⇒ f (x) ∈ W, par conséquent si n > N = 1+bBc,
alors u n ∈ W, donc u n → b. 

3) Limite à gauche, limite à droite

Définition 11.3
Soit f : I → R une fonction, soit a un élément de I ou une extrémité réelle de I, et soit b ∈ R.
– Si I ∩ ]−∞ ; a[ 6= ∅ : on dit que b est la limite à gauche en a de f lorsque :
∀ W,voisinage de b, ∃ α > 0, ∀ x ∈ I, x ∈ ]a − α ; a[ =⇒ f (x) ∈ W .
Notations : lim f = lim f (x) = lim f (x) = b.
a− x→a − x−
− −→a
x<a
– Si I ∩ ]a ; +∞[ 6= ∅ : on dit que b est la limite à droite en a de f lorsque :

AIG
∀ W, voisinage de b, ∃ α > 0, ∀ x ∈ I, x ∈ ]a ; a + α[ =⇒ f (x) ∈ W.
Notations : lim f = lim f (x) = lim f (x) = b.
a+ x→a + x−
− −→a
x>a

ZExemple : Soit f (x) = bxc et soit a ∈ Z, alors lim f = a et lim



f = a − 1.
+ a a

Théorème 11.4
On a lim f (x) = b ⇐⇒ lim f = lim f = b. Et lorsque a ∈ I :
x−
−−→a a+ a−
x6=a
à !
lim f (x) = b ⇐⇒ f (a) = b et lim f (x) = b .
x→a x−
−−→a
x6=a
NT
Preuve : Celle - ci est simple et laissée en exercice. 

x + 1

 si x < 0
ZExemple : Soit f la fonction définie sur R par f (x) = 0 si x = 0 . Il est facile de voir que : lim f (x) = 1,
 x −−→0
1 − x 2

si x > 0 x6=0

mais la fonction f n’a pas de limite en 0 car f (0) 6= 1.

II PROPRIÉTÉS DES LIMITES

1) Limites et opérations

Soient f , g ∈ F (I, R) et soit a un élément de I ou une extrémité de I. Si lim f = ` et lim g = `0 (dans R),
a a
MO

alors :

Théorème 11.5
– lim f + g = ` + `0 sauf si ` = +∞ et `0 = −∞ (ou l’inverse) : forme indéterminée.
a
– lim f × g = ``0 sauf si ` = 0 et `0 = ±∞ (ou l’inverse) : forme indéterminée.
a
– Si λ ∈ R∗ , lim λ f = λ`.
a

− ` et g (u n ) →
Preuve : Pour le premier point : soit (u n ) une suite d’éléments de I qui tend vers a, alors f (u n ) → − `0 donc
− ` + ` car nous ne sommes pas dans le cas d’une forme indéterminée, par
(propriétés des suites) f (u n ) + g (u n ) → 0

conséquent la fonction f + g a pour limite ` + `0 en a. Le raisonnement est le même pour tous les autres points jusqu’au
dernier. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 108 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés des limites Chapitre 11 : Limite d’une fonction

Théorème 11.6
Si f ne s’annule pas au voisinage de a alors :

1
`
 si ` ∈ R∗

NE
si ` = ±∞

0



1
lim = +∞ si ` = 0 et f > 0 au voisinage de a
a f 
si ` = 0 et f < 0 au voisinage de a

−∞




n’existe pas sinon

Preuve : Nous sommes dans le cas où ` = 0 et sur tout voisinage de a f prend des valeurs strictement positives et
des valeurs strictement négatives ( f n’est pas de signe constant), on peut donc construire deux suites (u n ) et (v n ) qui
tendent vers a et telles que f (u n ) > 0 et f (v n ) < 0, mais alors f (u1 n ) →
− +∞ et f (v1 n ) →
− −∞, donc 1f n’a pas de limite en a.

ZExemples :
– Soit a ∈ R, lim x = a d’où ∀ n ∈ N∗ , lim x n = a n (encore vrai pour n = 0). On en déduit que si P est une

AIG
a a
fonction polynomiale, alors lim P = P(a).
a
P
– Si R = Q est une fraction rationnelle et si Q(a) 6= 0, alors lim R = R(a).
a

2) Limite et relation d’ordre

Théorème 11.7
Soient f , g , h : I → R trois fonctions et soit a un élément de I ou une extrémité de I.
– On suppose qu’au voisinage de a, f 6 g , alors :
• Si lim f = +∞ alors lim g = +∞.
a a
• Si lim g = −∞ alors lim f = −∞.
a a
– Si f 6 h 6 g au voisinage de a et si lim f = lim g = ` ∈ R, alors lim h = ` (théorème des gendarmes
a a a
ou de l’étau).
NT
– Si f 6 g au voisinage de a et si f et g ont chacune une limite dans R, alors lim f 6 lim g (théorème
a a
du passage à la limite).
– Si lim f = 0 et si g est bornée au voisinage de a, alors lim f × g = 0.
a a
– Si lim f = +∞ (respectivement −∞) et si g est minorée au voisinage de a (respectivement majorée),
a
alors lim f + g = +∞ (respectivement −∞).
a

Preuve : Supposons lim f = +∞, soit (u n ) une suite d’éléments de I qui tend vers a, à partir d’un certain rang, on a
a
f (u n ) 6 g (u n ), or f (u n ) → +∞, donc g (u n ) → +∞ et par conséquent lim g = +∞. Pour le deuxième cas, on raisonne
a
sur − f et −g .
Pour les autres points on procède de la même façon, en se ramenant aux suites. 
Remarque 11.2 –
MO

– Si | f | 6 g au voisinage de a et si lim g = 0, alors lim f = 0.


a a
– On peut avoir f < g au voisinage de a et lim f = lim g . Dans un passage à la limite les inégalités
a a
deviennent larges.

3) Limite et composition des fonctions


Soit f : I → R une fonction, soit a un élément de I ou une extrémité de I, et soit g : J → R une autre fonction
avec Im( f ) ⊂ J.

Théorème 11.8
Si lim f = b, alors b appartient à J ou b est une extrémité de J.
a

Preuve : Il suffit de distinguer les cas sur J, par exemple, si J = ]α ; β[, alors ∀ x ∈ I, α < f (x) < β, par passage à la limite,
on obtient α 6 b 6 β. Les autres cas se traitent de la même façon. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 109 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés des limites Chapitre 11 : Limite d’une fonction

Théorème 11.9 (composition des limites)


Si lim f = b et lim g = ` (dans R), alors lim g ◦ f = `.
a b a

Preuve : Soit (u n ) une suite d’éléments de I qui tend vers a, la suite ( f (u n )) est une suite d’éléments de J qui tend vers b,

NE
donc la suite (g [ f (u n )]) tend vers `, ce qui prouve que lim g ◦ f = `. 
a
Dans la pratique, ce théorème est parfois appelé changement de variable dans une limite. Il dit en effet
que si on pose X = f (x), alors comme X → b, on a lim g ( f (x)) = lim g (X) = `.
x→a x→a X→b
sin(x) ln(x)
e −1 e X −1
ZExemple : Calculons lim f avec : f (x) = sin(x) ln(x) . On pose X = sin(x) ln(x), alors lim X = 0, or lim = 1,
+ 0 + 0 X→0 X
donc la limite cherchée vaut 1.

4) Limite et sens de variation

Théorème 11.10
Si f : I → R est croissante, en notant a la borne de gauche de I et b la borne de droite :

AIG
• si f est majorée, alors f admet une limite finie à gauche en b qui est lim

f = sup f (x). Si de plus si
b x∈]a;b[
b ∈ I, alors lim

f 6 f (b).
b
• si f est non majorée, alors f admet +∞ comme limite à gauche en b.
• si f est minorée, alors f admet une limite finie à droite en a qui est lim
+
f = inf f (x). Si de plus si
a x∈]a;b[
a ∈ I, alors lim
+
f > f (a).
a
• si f est non minorée, alors f admet −∞ comme limite à droite en a.

Preuve : Démontrons deux cas :


Si f est majorée, soit S = sup f , soit ε > 0, il existe un réel x 0 ∈]a; b[ tel que S − ε < f (x 0 ). Si x ∈]x 0 ; b[, alors f étant
]a;b[
croissante, S − ε < f (x 0 ) 6 f (x) 6 S < S + ε ce qui entraîne | f (x) − S| < ε et donc lim

f = S. Si de plus b ∈ I, alors comme
b
f est croissante, f est majorée sur ]a; b[ par f (b), donc on a S 6 f (b).
Si f est croissante non minorée, soit A ∈ R ce n’est pas un minorant de f , donc il existe un réel x 0 ∈]a; b[ tel que
NT
f (x 0 ) < A. Si x ∈]a; x 0 [, alors f étant croissante, f (x) 6 f (x 0 ) < A ce qui entraîne f (x) < A et donc lim f = −∞. 
a+

Remarque 11.3 –
a) Si f est croissante majorée sur I alors f admet une limite finie en b − (limite non atteinte sur ]a; b[ si la
croissance est stricte).
b) Si f est croissante non majorée sur I alors f a pour limite +∞ en b − .
c) Si f est croissante minorée sur I alors f admet une limite finie en a + (limite non atteinte sur ]a; b[ si la
croissance est stricte).
d) Si f est croissante non minorée sur I alors f a pour limite −∞ en a + .

ZExemple : Soit f (x) = ln(x). Pour n ∈ N∗ , ln(2n ) = n ln(2), or ln(2) > 0 car 1 < 2 et f est strictement croissante,
MO

donc n ln(2) → +∞, ce qui prouve que f est non majorée, comme elle est croissante, on a lim f = +∞.
+∞

Théorème 11.11 (de la limite monotone)


Si f est croissante sur I, soit a = inf(I) et b = sup(I) (dans R), pour tout réel x 0 ∈]a; b[, f admet une
limite finie à droite et à gauche en x 0 , de plus on a : lim

f 6 f (x 0 ) 6 lim f . Et si x 1 ∈]a; b[ avec x 0 < x 1 ,
x0 +
x0
alors : lim f 6 lim

f.
x0+ x1

Preuve : Sur l’intervalle ]a; x 0 [, la fonction f est croissante et majorée par f (x 0 ), donc la fonction f a une limite finie à
gauche en x 0 et d’après le théorème précédent : lim −
f = sup f (t ) 6 f (x 0 ). Le raisonnement est le même à droite. Si
x0 t ∈]a;x 0 [
x 0 < x 1 < b, on applique le théorème précédent sur l’intervalle ]x 0 ; x 1 [ : lim f = inf f (t ) 6 sup f (t ) = lim

f. 
x 0+ t ∈]x 0 ;x 1 [ t ∈]x 0 ;x 1 [ x1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 110 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Calculs de limites Chapitre 11 : Limite d’une fonction

Remarque 11.4 – En changeant f et − f et en utilisant que pour une partie non vide A de R : inf(A) = − sup(−A),
on obtient deux théorèmes analogues aux précédents pour les fonctions décroissantes.

III CALCULS DE LIMITES

NE
1) Comparaison des fonctions

Définition 11.4
Soient f , g : I → R deux fonctions, et soit a ∈ I ou une extrémité de I. On dit que :
– f est dominée par g au voisinage de a lorsqu’il existe un voisinage V de a, et une fonction ε : V → R
tels que : ∀ x ∈ V ∩ I, f (x) = g (x)ε(x) avec ε bornée. Notation : f (x) = O g (x) .
¡ ¢
a
– f est négligeable devant g au voisinage de a lorsqu’il existe un voisinage V de a, et une fonction
ε : V → R tels que : ∀ x ∈ V ∩ I, f (x) = g (x)ε(x) avec lim ε(x) = 0. Notation : f (x) = o g (x) .
¡ ¢
x→a a
– f est équivalente à g au voisinage de a lorsqu’il existe un voisinage V de a, et une fonction ε : V → R
tels que : ∀ x ∈ V ∩ I, f (x) = g (x)ε(x) avec lim ε(x) = 1. Notation : f (x) ∼ g (x).
x→a a

AIG
Théorème 11.12 (Caractérisations)
Lorsque la fonction g ne s’annule pas au voisinage de a (sauf peut être en a) :
(f
est bornée au voisinage de a
– f (x) = O g (x) si et seulement si g
¡ ¢
.
a si a ∈ I : g (a) = 0 =⇒ f (a) = 0
( f
¡ ¢ lim g = 0
– f (x) = o g (x) si et seulement si a .
a si a ∈ I : f (a) = 0
( f
lim g = 1
– f (x) ∼ g (x) si et seulement si a .
a si a ∈ I : g (a) = f (a)

Preuve : Celle - ci est simple et laissée en exercice. 


NT
Remarque 11.5 –
a) f (x) = O(1) signifie que la fonction f est bornée au voisinage de a.
a
b) f (x) = o (1) signifie que lim f = 0.
a a
¡ ¢ ¡ ¢
c) Si f (x) = o g (x) alors f (x) = O g (x) .
a a
¡ ¢
d) Si f (x) ∼ g (x) alors f (x) = O g (x) .
a a
¡ ¢
e) Si f (x) = o g (x) et g (x) = o (h(x)), alors f (x) = o (h(x)) (transitivité).
a a a
¡ ¢
f ) Si f (x) = O g (x) et g (x) = O(h(x)), alors f (x) = O(h(x)) (transitivité)
a a a
¡ ¢
g) f (x) ∼ g (x) ⇐⇒ f (x) = g (x) + o g (x) .
MO

a a

Théorème 11.13
La relation « ... est équivalente à ... au voisinage de a » est une relation d’équivalence dans F (I, R),
c’est à dire qu’elle est réflexive, symétrique et transitive. De plus :
– Si ` ∈ R∗ alors lim f = ` équivaut à f (x) ∼ `.
¡ a¢ a
– Si f (x) = o g (x) alors f (x) + g (x) ∼ g (x).
a a

Preuve : Celle - ci est simple et laissée en exercice. 

2) Les exemples classiques

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 111 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Calculs de limites Chapitre 11 : Limite d’une fonction

Théorème 11.14 (croissances comparées)


Soient α, β ∈]0; +∞[ :
– Si α < β alors : x α = o x β et x β = o (x α ).
¡ ¢
+∞ ³ 0´
– [ln(x)]α = o x β et | ln(x)|α = o x1β .
¡ ¢

NE
+∞ ³ β´ 0
α α
¡ xβ ¢
– x = o e et x = o e x .
+∞ +∞
– Si a > 1 alors x α = o (a x ).
+∞

Preuve : Identique à celle des suites. 

Théorème 11.15 (les équivalents usuels)


– Si f est dérivable en 0 et si f 0 (0) 6= 0, alors f (x) − f (0) ∼ f 0 (0)x.
0
– sin(x) ∼ x ; e x − 1 ∼ x ; ln(1 + x) ∼ x ; tan(x) ∼ x ; 1 − cos(x) ∼ 12 x 2 ; (1 + x)α − 1 ∼ αx.
(0) 0 0 0 0 0
p
P k p
– Soit P(x) = a k x une fonction polynomiale avec a p 6= 0, alors P(x) ∼ a p x (équivalence avec le

AIG
k=0 ±∞
terme de plus haut degré).
P(x)
– Soit Q(x) = R(x) une fraction rationnelle avec a p x p le terme de plus haut degré de P (a p 6= 0) et
ap
b r x r celui de R (b r 6= 0), alors Q(x) ∼ x p−r (équivalence avec le rapport des termes de plus haut
±∞ b r
degré).

Preuve : Identique à celle des suites. 

Théorème 11.16 (changement de variable)


Soient f , g : J → R, ε : I → R telle que Im(ε) ⊂ J et soit a ∈ I ou une extrémité de I. Si lim ε = b et si
a
f (x) ∼ g (x), alors : f (ε(x)) ∼ g (ε(x)).
b a

Preuve : Celle - ci découle du théorème de composition des limites. 


NT
Remarque 11.6 – Pour la recherche d’un équivalent en a, on peut toujours se ramener en 0 :
– Si a ∈ R, on pose u = x − a(= ε(x)), on a alors u −−−→ 0, on pose h(u) = f (x) = f (u + a). Si h(u) ∼ g (u),
x→a 0
alors f (x) ∼ g (x − a).
a
– Si a = ±∞ alors on pose u = x1 (= ε(x)), on a alors u → 0, on pose h(u) = f (x) = f ( u1 ). Si h(u) ∼ g (u),
x→a 0
alors f (x) ∼ g ( x1 ).
a

3) Propriétés
Il découle de la définition :

Théorème 11.17
MO

Soient f , g : I → R deux fonctions, et soit a ∈ I ou une extrémité de I :


– Si f ∼ g alors f et g ont le même signe au voisinage de a.
a
– Si f ∼ g et si lim g = ` ∈ R, alors lim f = `.
a a a
– Si f ∼ g et si h ∼ k, alors f × h ∼ g × k (compatibilité avec la multiplication).
a a a
1 1
– Si f ∼ g et si g ne s’annule pas au voisinage de a, alors f ∼ (compatibilité avec le passage à
a a g
l’inverse).
– Si f ∼ g et si g > 0 au voisinage de a, alors f α ∼ g α pour tout réel α.
a a

Remarque 11.7 –
– Il n’y a pas compatibilité avec l’addition en général. Par exemple : x + sin( x1 ) ∼ x et −x ∼ 1 − x, mais
+∞ +∞
sin( x1 ) n’est pas équivalent à 1 au voisinage de +∞.
– Ces propriétés sont utiles pour les calculs de limites qui ne peuvent pas être faits directement : on essaie
de se ramener à un équivalent plus simple (s’il y en a ...) dont on sait calculer la limite.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 112 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Extension aux fonctions à valeurs complexes Chapitre 11 : Limite d’une fonction

FExercice 11.1
1/ Limite en +∞ de (1 + x1 )x .
sin(x) x −1
2/ Calculer lim p
x ln(x)
.
x→0+

NE
IV EXTENSION AUX FONCTIONS À VALEURS COMPLEXES

1) Définition de la limite
Les fonctions à valeurs complexes ont été introduites au début du chapitre 6. Soit f : I → C une fonction,
on note u = Re( f ) (partie réelle de f ) et v = Im( f ) (partie imaginaire de f ), on rappelle que u et v sont des
fonctions de I vers R, et ∀ t ∈ I, f (t ) = u(t ) + i v(t ).
La fonction conjuguée de f et la fonction f : t 7→ u(t ) − i p v(t ).
La fonction module de f est la fonction | f | : t 7→ | f (t )| = u(t )2 + v(t )2 .
La fonction f est bornée sur I si et seulement si ∃ M ∈ R+ , ∀ t ∈ I, | f (t )| 6 M. Ceci équivaut à dire que les
fonctions u et v sont bornées.
L’ensemble des fonctions de I vers C est notée F (I, C), pour les opérations usuelles sur les fonctions, c’est

AIG
un C-espace vectoriel et un anneau commutatif non intègre.

Définition 11.5
Soit ` ∈ C, et soit a un élément de I ou une extrémité de I. On dira que la fonction f a pour limite ` en
a lorsque lim | f (t ) − `| = 0. C’est à dire :
t →a
∀ε > 0, ∃V, voisinage de a, ∀t ∈ I, t ∈ V =⇒ | f (t ) − `| < ε.

it
ZExemple : Soit f (t ) = ie+t , on a | f (t )| = p 1 −−−−→ 0, donc lim f (t ) = 0.
1+t 2 t →+∞ t →+∞

2) Propriétés

Théorème 11.18
NT
lim | f (t ) − `| = 0 ⇐⇒ lim Re( f (t )) = Re(`) et lim Im( f (t )) = Im(`).
t →a t →a t →a

Preuve : Celle - ci découle de l’inégalité : ∀ t ∈ I,


max(|Re( f (t )) − Re(`)|, |Im( f (t )) − Im(`)|) 6 | f (t ) − `| = |Re( f (t )) − Re(`)|2 + |Im( f (t )) − Im(`)|2 .
p

Connaissant les propriétés des limites (finies) des fonctions à valeurs réelles, on peut déduire celles des
fonctions à valeurs complexes en raisonnant sur les parties réelles et imaginaires :
– lim f = ` ∈ C si et seulement si pour toute suite (u n ) d’éléments de I qui tend vers a, la suite ( f (u n ))
a
tend vers `.
– Si lim f = ` ∈ C, alors f est bornée au voisinage de a.
a
– Si lim f = `, lim g = `0 , alors lim f + g = ` + `0 , lim f × g = ``0 , ∀ λ ∈ C, lim λ f = λ`.
a a a a a
– Si lim f = ` alors lim f = ` et lim | f | = |`|.
MO

a a a
– Si lim f = ` ∈ C∗ , alors au voisinage de a f ne s’annule pas et lim 1f = 1` .
a a

V SOLUTION DES EXERCICES

Solution 11.1
1/ On a f (x) = exp(x ln(1 + x1 )), or ln(1 + x1 ) ∼ 1
car 1
x ln(1 + x1 ) ∼ 1, la limite cherchée est donc égale à 1.
→ 0, donc
+∞ x x +∞ +∞
· ¸
x sin(x) ln( sin(x)
x )
2/ On a sin(x) = exp(x ln(sin(x))), or ln(sin(x)) = ln( x ) + ln(x) = ln(x) 1 + ln(x) ∼ ln(x) et donc x ln(sin(x)) ∼
0 0
p
− 0, d’où : exp(x ln(sin(x))) − 1 ∼ x ln(sin(x)) ∼ x ln(x), par conséquent f (x) ∼ pxx = x, et donc la limite
x ln(x) →
0 0 0 0
cherchée est égale à 0.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 113 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 12

Continuité

Sommaire
I Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

AIG
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2) Théorèmes généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
II Fonctions continues sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
1) Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
2) Continuité sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
3) Uniforme continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
III Continuité et fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
1) Image d’un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
2) Monotonie et continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3) Théorème des bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
1) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
NT
I RAPPELS

1) Définitions

Définition 12.1
Soit f : I → R une fonction et soit a ∈ I, on dit que f est
– continue en a lorsque lim f (t ) = f (a) (sinon on dit que a est un point de discontinuité de f ).
t →a
– continue à gauche en a lorsque I ∩ ]−∞ ; a[ 6= ∅ et lim− f (t ) = f (a).
t →a
– continue à droite en a lorsque I ∩ ]a ; +∞[ 6= ∅ et lim+ f (t ) = f (a).
t →a
Si f est continue en tout point de I, alors on dit que f est continue sur I. L’ensemble des fonctions
MO

continues sur I est noté C 0 (I, R).

Remarque 12.1 :
– Les fonctions trigonométriques, logarithmes, exponentielles, puissances, polynomiales, rationnelles,
ainsi que la fonction valeur absolue sont continues sur leur ensemble de définition.
– f est continue en a ∈ I si et seulement si ∀ ε > 0, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ | f (x) − f (a)| < ε.
– Si f est continue sur I et si J ⊂ I, alors f est continue sur J.
– f est continue en a si et seulement si lim f (t ) = f (a), lorsque a n’est pas une borne de I, ceci équivaut à
x→a
x6=a
lim+ f (t ) = f (a) et lim− f (t ) = f (a), i.e. f est continue à gauche et à droite en a.
t →a t →a
– Si f est continue en a, alors f est bornée au voisinage de a (car f a une limite finie en a).
– f est continue en a ssi pour toute suite (u n ) d’éléments de I, qui tend vers a, la suite ( f (u n )) tend vers
f (a).

FExercice 12.1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 114 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions continues sur un intervalle Chapitre 12 : Continuité

1/ Étudier la continuité de x 7→ bxc en a ∈ R, distinguer a ∈ Z et a ∈ R \ Z.


2/ Montrer que la fonction caractéristique de Q, 1Q , est discontinue en tout point de R.

Définition 12.2 (Prolongement par continuité)


Soit f : I \ {a} → R une fonction non définie en a ∈ I, si f admet une limite finie ` en a, alors la fonction

NE
f˜ : I → R définie par :
(
˜ f (x) si x 6= a
f (x) =
` si x = a
est continue en a. Cette fonction est appelée prolongement de f par continuité en a.

sin(x)
ZExemple : La fonction f définie sur R∗ par f (x) = x admet un prolongement par continuité en 0 en
posant f (0) = 1.

2) Théorèmes généraux

AIG
Théorème 12.1
Soient f , g deux fonctions continues sur I, et soit α un réel, alors :
– f + g , f × g et α f sont continues sur I.
f
– Si g ne s’annule pas sur I alors g est continue sur I.
– Si h : J → R est une fonction continue sur l’intervalle J et si f (I) ⊂ J, alors h ◦ f est continue sur I.

Preuve : Ceci découle des propriétés des limites, par exemple : lim f = f (a) et lim g = g (a), donc lim( f +g ) = f (a)+g (a)
a a a
(somme de limites finies), ce qui prouve que f + g est continue en a. Les autres points se démontrent de la même façon.

Conséquences :
a) Il découlent des théorèmes généraux que C 0 (I, R) est une R-algèbre pour les opérations usuelles sur
les fonctions.
b) Si f et g sont continues sur I alors sup( f , g ) et inf( f , g ) le sont (en particulier f + et f − le sont), car
f +g +| f −g | f +g −| f −g |
NT
sup( f , g ) = 2 et inf( f , g ) = 2 .

(
ln(1+x)(x−π)
sin(x) si 0 < x < π
FExercice 12.2 Étudier la continuité de la fonction f avec f (x) = x
, y-a-t’il un prolongement
e − cos(x) si x 6 0
par continuité en π ?

II FONCTIONS CONTINUES SUR UN INTERVALLE

1) Théorème des valeurs intermédiaires

Théorème 12.2
Soit f : [a; b] → R une fonction continue sur le segment [a; b] (a < b), si f (a) et f (b) sont de signes
MO

contraires, alors f s’annule au moins une fois, i.e. : ∃ ` ∈ [a; b], f (`) = 0.

Preuve : Méthode dichotomique : on construit deux suites (récurrentes) (a n ) et (b n ) en posant a 0 = a, b 0 = b, puis pour
tout entier n :
a n +b n a n +b n
si f ( 2 ) et f (a n ) sont de signes contraires, alors on pose a n+1 = a n et b n+1 = 2 (moitié de gauche), sinon,
a n +b n
on pose a n+1 = 2 et b n+1 = b n (moitié de droite).
On montre ensuite par récurrence, la propriété :
b−a
P(n) : « a n , b n ∈ [a; b], b n − a n = 2n , f (a n ) et f (b n ) sont de signes contraires ».
a +b
Pour n = 0 : rien à faire. Si c’est vrai pour un entier n > 0 : alors a n et b n sont dans [a; b], donc c n = n 2 n aussi
(milieu).
a +b
Si f (c n ) et f (a n ) sont de signes contraires, alors b n+1 = n 2 n et a n+1 = b n , on voit donc que a n+1 et b n+1 sont dans
b −a
[a, b], que b n+1 − a n+1 = n 2 n = 2b−a n+1 , que f (a n+1 ) et f (b n+1 ) sont de signes contraires, et que a n 6 a n+1 et b n+1 6 b n .
Si f (c n ) et f (a n ) ont le même signe, alors d’après l’hypothèse de récurrence, f (c n ) et f (b n ) sont de signes contraires,
a +b b −a
on a alors a n+1 = n 2 n et b n+1 = b n , on voit donc que a n+1 et b n+1 sont dans [a, b], que b n+1 − a n+1 = n 2 n = 2b−a n+1 ,
que f (a n+1 ) et f (b n+1 ) sont de signes contraires, et que a n 6 a n+1 et b n+1 6 b n .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 115 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions continues sur un intervalle Chapitre 12 : Continuité

La propriété est donc vraie pour tout entier n, de plus la suite (a n ) est croissante, et la suite (b n ) est décroissante.
Comme b n − a n = b−a 2n → 0, les deux suites sont adjacentes. Elles ont donc une limite commune c ∈ [a; b] (passage à la
limite). La fonction f étant continue en c, on a f (a n ) → f (c) et f (b n ) → f (c), donc f (a n ) × f (b n ) → f (c)2 , or pour tout
n, f (a n ) × f (b n ) 6 0, donc f (c)2 6 0 (passage à la limite), et donc f (c) = 0. 
Remarque 12.2 –

NE
– Cette méthode permet de calculer des valeurs approchées de `. Dans la preuve ci-dessus, on a pour
tout n, a n est une valeur approchée de ` (solution de f (x) = 0) par défaut à b−a 2n près car |a n − `| =
b−a
` − a n 6 b n − a n = 2n . De même, pour tout n, b n est une valeur approchée de ` par excès à b−a
2n près car
|b n − `| = b n − ` 6 b n − a n = b−a
2n . Voici un algorithme en python :

Listing 12.1: dichotomie


1 def dichotomie (f ,a ,b , epsilon ) : # f continue et f ( a ) * f ( b ) <=0 avec a < b
2 while b - a >= epsilon :
3 milieu = ( a + b ) /2.
4 if f ( a ) * f ( milieu ) <= 0: # f s ' annule dans la première moitié
5 b = milieu
6 else :

AIG
7 a = milieu # f s ' annule dans la deuxième moitié
8 return ( a + b ) /2.

Invariant : on peut vérifier que la proposition P(k) : « Bk − Ak = B−A


2k
, et f (Ak ) × f (Bk ) 6 0 », est un
invariant de la boucle while, qui permet de prouver la fonction, et sa terminaison. Quelques exemples
d’utilisation de cet algorithme :

Cf
Cf Cf

a c b a c b a c b

a0 b0 a0 b0 a0 b0
a1 b1 a1 b1 a1 b1
a2 b2 a2 b2 a2 b2
NT
a3 b3 a3 b3 a3 b3
a4 b4 a4 b4 a4 b4
f continue en c f discontinue en c f ne change pas de signe.

– Il découle de ce théorème que si f : I → R est continue sur l’intervalle I et si f change de signe, alors f
s’annule au moins une fois sur I.
– Une fonction continue sur un intervalle et qui ne s’annule pas, garde un signe constant. Ceci est faux si I
n’est pas un intervalle, par exemple la fonction x 7→ x1 sur R∗ .

FExercice 12.3 Montrer que tout polynôme (réel) de degré impair admet au moins une racine réelle.

Théorème 12.3 (des valeurs intermédiaires)


MO

Si f : I → R est continue sur l’intervalle I, alors f (I) est un intervalle.


Plus précisément, si a, b ∈ I et si α est un réel compris entre f (a) et f (b), alors il existe c entre a et b
tel que f (c) = α.

Preuve : Soient a, b deux réels distincts de I, supposons a < b, soit α un réel compris entre f (a) et f (b), posons
g (t ) = f (t ) − α, alors g est continue sur l’intervalle [a; b] et g (a) et g (b) sont de signes contraires. D’après le théorème
précédent, il existe c ∈ [a; b] tel que g (c) = 0, i.e. f (c) = α.
Posons J = f (I) et soient u < v deux éléments de J, alors il existe a, b ∈ I (distincts) tels que f (a) = u et f (b) = v. Soit
α ∈ [u, v], alors il existe c entre a et b tel que f (c) = α donc α ∈ J, ce qui prouve que J est un intervalle. 

2) Continuité sur un segment

Théorème 12.4
L’image d’un segment [a; b] par une fonction continue est un segment [m; M].

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 116 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions continues sur un intervalle Chapitre 12 : Continuité

Preuve : Soit f : [a; b] → R une fonction continue sur le segment [a; b], posons J = f ([a; b]), on sait que J est un intervalle.
Posons m = la borne de gauche de J, et M la borne de droite (dans R), il existe une suite (y n ) de J qui tend vers m,
or y n ∈ f ([a; b]), donc il existe x n ∈ [a; b] tel que f (x n ) = y n . La suite (x n ) est une suite de [a; b], elle est donc bornée,
d’après le théorème de Bolzano-Weierstrass on peut en extraire une suite convergente : x σ(n) → `, par passage à la limite
on a ` ∈ [a; b], mais alors f (x σ(n) ) → f (`) car f est continue, c’est à dire y σ(n) → f (`), or y σ(n) → m, donc m = f (`). Ceci

NE
prouve que m est un réel et que m ∈ J, donc m = min(J). De même on montre que M est un réel que M ∈ J, finalement
J = [m; M]. 
Remarque 12.3 – Il en découle qu’une fonction continue sur un segment possède un maximum (M) et un
minimum (m). On dit aussi parfois qu’une fonction continue sur un segment est bornée et atteint ses bornes.

3) Uniforme continuité
Dans la définition de « f est continue en a », on a :

∀ ε > 0, ∃ α > 0, ∀ x ∈ I, |x − a| < α =⇒ | f (x) − f (a)| < ε.

Dans cette définition, le réel α dépend de a (et de ε bien entendu). On va distinguer dans la suite le cas où α

AIG
ne dépend que de ε :

Définition 12.3
On dit que la fonction f : I → R est uniformément continue sur I lorsque :
∀ ε > 0, ∃ α > 0, ∀ a, x ∈ I, |x − a| < α =⇒ | f (x) − f (a)| < ε.

Remarque 12.4 –
a) Cette définition dépend aussi de l’ensemble I, on dit qu’elle a un caractère global, alors que la définition
de la continuité en un point est locale car elle ne dépend que du point (pas de l’ensemble I).
b) La définition d’uniforme continuité est plus forte que la définition de continuité. Autrement dit, une
fonction uniformément continue sur I est nécessairement continue sur I. Nous verrons que la réciproque
est fausse en général.
NT
Définition 12.4 (fonction lipschitzienne)
On dit que la fonction f : I → R est lipschitzienne lorsqu’il existe une constante K ∈ R+ tel que :
∀ x, y ∈ I, | f (x) − f (y)| 6 K|x − y|.
Ce qui signifie que tous les taux d’accroissements de f sont majorés en valeur absolue par K.

c) Soit k ∈ R+ , une fonction K-lipschitzienne sur I est nécessairement uniformément continue sur I. En effet,
ε
une telle fonction vérifie pour tout x, y ∈ I, | f (x) − f (y)| 6 K|x − y|n, par conséquent, si on prend α = k+1
k
alors on a | f (x) − f (y)| 6 k+1 ε < ε. Nous verrons dans le chapitre sur la dérivation, que si f est dérivable
et si f 0 est majorée en valeur absolue par une constante K, alors f est K-lipschitzienne (par contre si f 0
n’est pas bornée, alors la fonction ne peut pas être lipschitzienne). Par exemple, les fonctions sin et cos
sont 1-lipschitziennes.
MO

ZExemples :
– La fonction x 7→ x 2 est uniformément continue sur tout segment [a; b] (car lipschitzienne). Pour la
même raison, les fonctions sin et cos sont uniformément continues sur R.
p p p p
– La fonction x 7→ x est uniformément continue sur [0 ; +∞[. Car pour x, y > 0, | x − y| 6 |x − y|,
il suffit donc de prendre α = ε2 dans la définition. Cependant nous verrons que cette même fonction
n’est pas lipschitzienne sur [0 ; +∞[ (dérivée non bornée).
– La fonction x 7→ x 2 n’est pas uniformément continue sur R. Si c’était le cas : avec ε = 1 il existe α > 0
p p
tel que ∀ x, y ∈ R, |x − y| < α =⇒ |x 2 − y 2 | < 1. Prenons x n = n + 1 et y n = n alors x n − y n ∼ 2p1 n → 0,
donc pour n assez grand on aura |x n − y n | < α d’où |x n2 − y n2 | < 1 i.e. 1 < 1 ce qui est absurde.

p
FExercice 12.4 Étudier l’uniforme continuité des fonctions x 7→ cos( x) et x 7→ cos(x 2 ) sur [0 ; +∞[.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 117 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Continuité et fonctions monotones Chapitre 12 : Continuité

Théorème 12.5 (de Heine 1 )


Toute fonction continue sur un segment est uniformément continue.

Preuve : Par l’absurde : on suppose qu’il existe ε > 0 tel que :

NE
∀ α > 0, ∃ x, y ∈ I, |x − y| < α et | f (x) − f (y)| > ε.
1 1
En prenant α = n+1 pour chaque valeur de n ∈ N, on construit deux suites (x n ) et (y n ) de I telles que |x n − y n | < n+1
et | f (x n ) − f (y n )| > ε. La suite (x n ) étant bornée (car I est un segment), on peut en extraire une suite convergente :
1
x σ(n) → `. Par passage à la limite on ` ∈ I. L’inégalité |x n − y n | < n+1 pour tout n entraîne que y σ(n) → `. La fonction f
étant continue en `, on a f (x σ(n) ) → f (`) et f (y σ(n) ) → f (`), donc | f (x σ(n) ) − f (y σ(n) )| → 0, ce qui donne par passage à
la limite, 0 > ε ce qui est absurde. Donc f est uniformément continue sur I. 

FExercice 12.5 Montrer qu’une fonction continue sur un segment strictement positive, est minorée par un réel strictement
positif.

III CONTINUITÉ ET FONCTIONS MONOTONES

AIG
1) Image d’un intervalle

Théorème 12.6
Si f est strictement croissante et continue sur l’intervalle I, alors :
• lorsque I = [a; b], on a f (I) = [ f (a); f (b)],
• lorsque I = [a; b[, on a f (I) = [ f (a); lim f [,
b
• lorsque I =]a; b], on a f (I) =] lim f ; f (b)],
a
• lorsque I =]a; b[, on a f (I) =] lim f ; lim f [.
a b

Preuve : Montrons par exemple le cas où I = [a; b[, on sait que J = f (I) est un intervalle car f est continue sur I. La
borne de droite de J est la limite de f en b (finie ou +∞, la limite non atteinte car la monotonie est stricte), la borne de
gauche de J est f (a) qui le minimum de f , donc f (I) = [ f (a); lim f [. Les autres cas se traitent de la même façon, on a
b
NT
évidemment un énoncé analogue lorsque f est strictement décroissante. 

Attention !
Lorsque la monotonie n’est pas stricte, il se peut que les limites aux bornes exclues soit atteintes.

2) Monotonie et continuité

Théorème 12.7
Si f : I → R est monotone sur l’intervalle I et si f (I) est un intervalle, alors f est nécessairement
continue sur I.

Preuve : Quitte à changer f en − f , on peut supposons f croissante sur I. Soit a ∈ I un élément de I qui n’est pas la
MO

borne inférieure de I. Si x ∈ I avec x < a, alors f (x) 6 lim



f 6 f (a), ce qui entraîne que lim

f ∈ f (I). D’autre part, si x > a,
a a
alors f (x) > f (a). On en déduit que l’intervalle ] lim

f , f (a)[ est inclus dans f (I) mais il ne contient aucun élément de
a
f (I), cet intervalle est donc vide, i.e. lim

f = f (a), ce qui prouve que f est continue à gauche en a. Le raisonnement est
a
analogue pour montrer la continuité à droite en a (si a n’est pas la borne de droite de I). 
Remarque 12.5 – Ce théorème énonce une réciproque du théorème des valeurs intermédiaires, mais elle n’est
valable que pour les fonctions monotones.

Théorème 12.8
Si f : I → R est continue sur l’intervalle I et injective, alors f est strictement monotone.

Preuve : Soient a < b deux éléments de I, f étant injective, f (a) 6= f (b), quitte à changer f en − f , on peut supposer
f (a) < f (b), montrons alors que f est strictement croissante sur I :

1. HEINE Heinrich Eduard (1821 – 1881) : mathématicien allemand qui a travaillé sur la théorie des fonctions.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 118 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Continuité et fonctions monotones Chapitre 12 : Continuité

– Étape 1 : soit x ∈]a; b[, si f (x) > f (b), alors un réel c ∈] f (b); f (x)[ aura un antécédent dans ]x; b[ (théorème des
valeurs intermédiaires), et un antécédent dans ]a; x[ car on a aussi c ∈] f (a); f (x)[, ce qui contredit l’injectivité de
f , donc f (x) < f (b).

f (x)

NE
c

f (b)

f (a)

AIG
a u1 x u2 b
De la même façon, on montre que f (x) > f (a). En conclusion, si x ∈]a; b[, alors f (a) < f (x) < f (b).
– Étape 2 : soit x ∈ I avec x < a, si f (x) > f (b) alors d’après l’étape 1 (appliquée à − f ), on devrait avoir f (x) >
f (a) > f (b) ce qui est absurde, donc f (x) < f (b), mais alors l’étape 1 (en échangeant a et x) nous dit que
f (x) < f (a) < f (b). En conclusion, si x < a alors f (x) < f (a).
– Étape 3 : soit x ∈ I avec x > b, comme ci-dessus, on montre que f (x) > f (b).
– Étape 4 : soient x < y deux éléments de I :
• Si x < y 6 a : on sait que f (x) < f (a), mais alors l’étape 1 entraîne que f (x) < f (y).
• Si x 6 a < y : on sait alors que f (x) 6 f (a) < f (y), donc f (x) < f (y).
• Si a < x < y : alors on sait que f (a) < f (y), mais alors l’étape 1 entraîne que f (x) < f (y).
Dans tous les cas, f (x) < f (y), f est strictement croissante.


3) Théorème des bijections


NT
Soit f : I → R une fonction strictement monotone, alors f est injective, donc f induit une bijection f˜ de I
sur f (I), la bijection réciproque est :

f˜−1 : f (I) → I
x 7→ y défini par y ∈ I et f (y) = x

De plus, la bijection a le même sens de variation que f , en effet, supposons f croissante et soient y < y 0 deux
éléments de f (I), alors il existe x, x 0 ∈ I, tels que f (x) = y et f (x 0 ) = y 0 ; si on avait x > x 0 alors on aurait y > y 0
ce qui est contradictoire, donc x < x 0 i.e. f˜−1 (y) < f˜−1 (y 0 ).
D’autre part, dans un repère orthonormé du plan, on a :
½ ½
MO

x ∈ f (I) y ∈I
M(x, y) ∈ C f˜−1 ⇐⇒ ⇐⇒ ⇐⇒ M0 (y, x) ∈ C f .
y = f˜−1 (x) f (y) = x

On en déduit que les courbes représentatives des fonctions f et f˜−1 sont symétriques par rapport à la
première bissectrice.
Le théorème suivant apporte une précision sur la continuité de la réciproque :

Théorème 12.9
Si f : I → R est strictement monotone sur l’intervalle I, alors f induit une bijection de I sur J = f (I). Si
de plus f est continue sur I, alors la bijection réciproque est continue sur J.

Preuve : I étant un intervalle et f continue, l’ensemble J = f (I) est un intervalle, donc la bijection réciproque f˜−1 est
monotone et transforme l’intervalle J en l’intervalle I, d’après un des théorèmes précédents, f˜−1 est continue sur J. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 119 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Extension aux fonctions à valeurs complexes Chapitre 12 : Continuité

IV EXTENSION AUX FONCTIONS À VALEURS COMPLEXES

1) Continuité
Soit f : I → C une fonction à valeurs complexes, on pose u = Re( f ) et v = Im( f ).

NE
Définition 12.5
On dira que f est continue sur I lorsque lim f = f (t 0 ). L’ensemble des fonctions continues sur I est
t0
noté C 0 (I, C).

Remarque 12.6 – D’après le chapitre sur les limites, on a vu que :


lim f = f (t 0 ) si et seulement si lim u = u(t 0 ) et lim v = v(t 0 ), par conséquent on peut dire que :
t0 t0 t0
f est continue en t 0 si et seulement si Re( f ) et Im( f ) sont continues en t 0 .
1
ZExemple : La fonction t 7→ e i t est continue sur R, la fonction t 7→ 1+i t aussi.

AIG
2) Propriétés
Compte tenu de la définition, on retrouve des propriétés analogues au cas réel, à une exception près.
– On retrouve les mêmes théorèmes généraux, en particulier C 0 (I, C) est une C-algèbre.
– Si f est continue sur I, alors les fonctions f et | f | aussi.
– Si f : [a; b] → C est continue sur le segment [a; b], alors f est bornée et atteint ses bornes, c’est à dire, il
existe t 0 , t 1 ∈ [a; b] tels que :
| f (t 0 )| = sup | f (t )| et f (t 1 )| = inft ∈[a;b] | f (t )|.
t ∈[a;b]
En effet : la fonction | f | est continue sur [a; b] et à valeurs réelles, on sait donc qu’elle admet un
minimum et un maximum.
– Si f : [a; b] → C, est continue sur le segment [a; b], alors f est uniformément continue (théorème de
Heine). p
En effet : cela découle de l’égalité : | f (t ) − f (t 0 )| = |u(t ) − u(t 0 )|2 + |v(t ) − v(t 0 )|2 , et du théorème de
NT
Heine pour les fonctions à valeurs réelles.

Attention ! (Le théorème des valeurs intermédiaires n’est plus vrai)


Par exemple, la fonction f (t ) = e i t est continue sur [0; 2π], 0 est compris entre f (π) = −1 et f (0) = 1, mais 0 ∉
f ([0; 2π]) car f ne s’annule pas (ici f [0; 2π]) n’est pas un intervalle, mais un cercle !).

V SOLUTION DES EXERCICES

Solution 12.1
1/ Si a est non entier et n = bac, alors n < a < n + 1, et pour x ∈ ]n ; n + 1[ on a Ex est constamment égal à n, et donc
lim bxc = n = bac.
MO

x→a
Si a = n ∈ Z, alors pour x ∈ ]n − 1 ; n[ on a bxc = n − 1 et donc lim− bxc = n − 1 6= bac, et pour x ∈ ]n ; n + 1[ on a bxc = n
x→a
et donc lim− bxc = n = bac. La fonction est donc continue à droite en a, mais pas à gauche.
x→a
2/ Soit a un irrationnel, par densité de Q dans R, on sait qu’il existe une suite de rationnels (r n ) qui converge vers a, or
1Q (r n ) = 1 → 1 alors que 1Q (a) = 0, la fonction n’est donc pas continue en a.
Soit a un rationnel, par densité de R \ Q dans R, on sait qu’il existe une suite de rationnels (i n ) qui converge vers
a, or 1Q (i n ) = 0 → 0 alors que 1Q (a) = 1, la fonction n’est donc pas continue en a. Finalement, la fonction 1Q est
discontinue en tout point de R.

Solution 12.2 Les théorème généraux s’appliquent sur l’intervalle ]−∞ ; 0[ ainsi que sur l’intervalle ]0 ; π[. La limite à
gauche en 0 de f vaut e 0 − cos(0) = 0 = f (0) (continuité de exp et cos en 0). Pour la limite à droite en 0, on sait que
ln(1 + x) ∼ x et sin(x) ∼ x, d’où f (x) ∼ x − π et donc la limite à droite en 0 de f vaut −π, la fonction est donc continue à
0 0 0
gauche mais pas à droite en 0.
sin(x) sin(x)−sin(π)
La limite à gauche en π vaut − ln(1 + π) car x−π = x−π −−−→ sin0 (π) = cos(π) = −1. Il y a donc un prolonge-
x→π
ment par continuité en π en posant f (π) = − ln(1 + π).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 120 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 12 : Continuité

Solution 12.3 Soit f (x) = a 0 +a 1 x +· · ·+a 2n+1 x 2n+1 avec a 2n+1 6= 0. La fonction f est fonction sur R et on a les équivalents
f (x) ∼ a 2n+1 x 2n+1 , si a 2n+1 > 0 alors f tend vers +∞ en +∞ et vers −∞ en −∞ (c’est l’inverse si a 2n+1 < 0). Donc, au
±∞
voisinage de +∞ f n’a pas le même signe qu’au voisinage de −∞, et donc f s’annule au moins une fois.

Solution 12.4

NE
p p p p
1/ Pour x, y ∈ [0 ; +∞[, | cos( x) − cos( y)| 6 | x − y| 6 |x − y|. Soit ε > 0, si on prend α = ε2 , alors pour [x − y| < α
p
p p p p
on aura | cos( x) − cos( y)| < α = ε. La fonction x 7→ cos( x) est donc uniformément continue sur [0 ; +∞[.
p q p ³ q ´ p
2/ Pour n ∈ N, posons x n = 2nπ et y n = 2nπ − π2 , alors |x n − y n | = 2nπ 1 − 1 − 4n 1
∼ 8p2πn → 0. D’autre part
| cos(x n2 ) − cos(y n2 )| = 1 > 12 , ce qui prouve (par l’absurde) que la fonction x 7→ cos(x 2 ) n’est pas uniformément
continue sur R.

Solution 12.5 Si f est continue sur un segment [a ; b] alors elle admet un minimum en un certain réel x 1 de [a ; b], donc
pour tout x de [a ; b], on f (x) > f (x 1 ), mais comme f est strictement positive, on a f (x 1 ) > 0.

AIG
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 121 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 13

Dérivation

Sommaire
I Dérivée première . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
2) Théorème généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3) Dérivabilité à gauche et à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4) Dérivée d’une bijection réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
II Applications de la dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1) Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2) Les accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3) Sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
III Dérivées successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
1) Classe d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2) Formule de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3) Classe d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4) Classe d’une réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
NT
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3) Classe d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

I DÉRIVÉE PREMIÈRE

1) Définition
Origine géométrique :

La droite qui joint les points M(t , f (t )) et


MO

M0 (t 0 , f (t 0 )) (sécante) a pour équation :

f (t ) − f (t 0 )
M y= (x − t 0 ) + f (t 0 )
f (t ) t − t0
Lorsque l’on rapproche t de t 0 , cette droite pi-
vote autour du point M0 et, lorsque la courbe est
régulière, semble rapprocher d’une position « li-
M0 mite » qui nous définirons comme la tangente au
f (t 0 )
point M0 . Le coefficient directeur de cette droite
« limite » doit être la limite lorsque t tend vers t 0
t t0
du coefficient directeur de la sécante, c’est dire
f (t )− f (t )
lim t −t0 0 .
t →t 0

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 122 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Dérivée première Chapitre 13 : Dérivation

Définition 13.1
Soit f : I → R une fonction et soit t 0 ∈ I, on dit que f est dérivable en t 0 lorsque la fonction : t 7→
f (t )− f (t 0 )
t −t 0 admet une limite finie en t 0 . Si c’est le cas, cette limite est notée f 0 (t 0 ) et appelée nombre
dérivé de f en t 0 . Lorsque f est dérivable en tout point de I on dit que f est dérivable sur I et la

NE
df
fonction de I vers R qui à t associe f 0 (t ) est appelée dérivée de f sur I, on la note f 0 ou bien d t .
L’ensemble des fonctions dérivables sur I est noté D(I, R). Si le plan est muni d’un repère orthonormé
et si f est dérivable en t 0 , la droite d’équation y = f 0 (t 0 )(x − t 0 )+ f (t 0 ) est appelée tangente à la courbe
au point d’abscisse t 0 . Si le taux d’accroissement de f en t 0 a une limite infinie et si f est continue en
t 0 , alors on dit que la courbe admet une tangente verticale au point d’abscisse t 0 , d’équation x = t 0 .

Remarque 13.1 – Les fonctions trigonométriques, logarithme, exponentielle, polynomiales et rationnelles sont
dérivables sur leur ensemble de définition. Mais :

Attention !
La fonction valeur absolue et la fonction x 7→ x α avec 0 < α < 1, ne sont pas dérivables en 0. La fonction partie

AIG
entière n’est pas dérivable aux points entiers relatifs (pas continue).

Théorème 13.1 (définition équivalente)


f est dérivable en t 0 et f 0 (t 0 ) = a si et seulement si f (t ) = f (t 0 ) + a(t − t 0 ) + (t − t 0 )o (1).
t0
On dit alors que f admet un développement limité d’ordre 1 en t 0 .

Preuve : Celle-ci est simple et laissée en exercice. 

2) Théorème généraux

Théorème 13.2 (Dérivabilité et continuité)


Si f est dérivable en t 0 , alors f est continue en t 0 mais la réciproque est fausse.
NT
Preuve : Il suffit d’appliquer la définition équivalente ci-dessus pour voir que lim f = f (t 0 ). Pour la réciproque, on a par
t0
exemple la fonction t 7→ |t | qui est continue en 0 mais non dérivable. 

Théorème 13.3 (Théorèmes généraux)


• Si f et g sont dérivables sur I et si α ∈ R alors les fonctions f + g , f × g et α f sont dérivables sur I
avec les formules :
– ( f + g )0 = f 0 + g 0 .
– ( f × g )0 = f 0 × g + f × g 0 .
– (α f )0 = α f 0 . ³ ´0
−f 0
• Si f est dérivable sur I et ne s’annule pas alors 1f est dérivable sur et 1f = f 2 .
• Si f est dérivable sur I et si g est dérivable sur J avec Im( f ) ⊂ J, alors g ◦ f est dérivable sur I et
MO

(g ◦ f )0 = f 0 × [g 0 ◦ f ].

Preuve : Les deux premiers points ne posent pas de difficultés, passons au troisième : soit x 0 = f (t 0 ), posons :
( g (x)−g (x
0)
x−x 0 si x 6= x 0
h(x) = 0
g (x 0 ) si x = x 0

g ( f (t ))−g ( f (t 0 )) f (t )− f (t )
alors h est continue en x 0 et pour t 6= t 0 on a t −t 0 = h[ f (t )] × t −t0 0 , même si f (t ) = f (t 0 ), comme f est
g ( f (t ))−g ( f (t 0 ))
continue en t 0 , on a lim t −t 0 = h(x 0 ) × f 0 (t 0 ) = f 0 (t 0 ) × g 0 ( f (t 0 )). 
t →t 0
Du troisième point découlent les formules de dérivation usuelles :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 123 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Dérivée première Chapitre 13 : Dérivation
Fonction Dérivée
sin(u) u 0 cos(u)
cos(u) −u 0 sin(u)
u0
tan(u) u 0 (1 + tan(u)2 ) = cos(u) 2

u 0 ch(u)

NE
sh(u)
ch(u) u 0 sh(u)
u0
th(u) u 0 (1 − th(u)2 ) = ch(u) 2

eu u0e u
u0
ln(|u|) u
uα αu u0 α−1

Remarque 13.2 – Il découle des théorèmes généraux que pour les opérations usuelles sur les fonctions D(I, R)
est un anneau et un R-espace vectoriel.
(
x 2 sin( x1 ) si x 6= 0
FExercice 13.1 Soit f (x) = .

AIG
0 si x = 0
1/ Montrer que f est dérivable sur R.
2/ Montrer que f 0 n’est pas continue en 0.

3) Dérivabilité à gauche et à droite

Définition 13.2
Soit f : I → R une fonction, et soit t 0 ∈ I :
• Si t 0 6= inf(I) : on dit que f est dérivable à gauche en t 0 lorsque le taux d’accroissement de f a une
limite finie à gauche en t 0 . Si c’est le cas, cette limite est notée f g0 (t 0 ) et la demi-droite d’équation
(
y = f g0 (t 0 )(x − t 0 ) + f (t 0 )
, est appelée demi-tangente à la courbe au point d’abscisse t 0 .
x 6 t0
• Si t 0 6= sup(I) : on dit que f est dérivable à droite en t 0 lorsque le taux d’accroissement de f a une
limite finie à droite en t 0 . Si c’est le cas, cette limite est notée f d0 (t 0 ) et la demi-droite d’équation
NT
(
y = f d0 (t 0 )(x − t 0 ) + f (t 0 )
, est appelée demi-tangente à la courbe au point d’abscisse t 0 .
x > t0

ZExemples :
– La fonction valeur absolue est dérivable à gauche en 0, et f g0 (0) = −1, elle est dérivable à droite en 0 et
f d0 (0) = 1, mais elle n’est pas dérivable en 0 car −1 6= 1, on dit que le point de la courbe d’abscisse 0 est
un point anguleux.
p
– La fonction f (t ) = |t | n’est pas dérivable en 0, le taux d’accroissement tend vers +∞ en 0+ et vers
−∞ en 0− , on dit que le point de la courbe d’abscisse 0 est un point de rebroussement de première
espèce.
MO

Théorème 13.4
Soit t 0 un point intérieur à I, f est dérivable en t 0 ssi f est dérivable à gauche et à droite en t 0 avec
f g0 (t 0 ) = f d0 (t 0 ).

Preuve : Cela découle des propriétés des limites. 

4) Dérivée d’une bijection réciproque

Théorème 13.5
Si f : I → R est une fonction continue strictement monotone, alors f induit une bijection de I sur
J = Im( f ). Soit y 0 = f (t 0 ) ∈ J (t 0 ∈ I), si f est dérivable en t 0 et si f 0 (t 0 ) 6= 0, alors la bijection réciproque,
1 1
φ, est dérivable en y 0 et φ0 (y 0 ) = f 0 (t 0)
= f 0 ◦φ(y 0)
. Si f est dérivable en t 0 et f 0 (t 0 ) = 0, alors φ n’est pas

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 124 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications de la dérivation Chapitre 13 : Dérivation
dérivable en y 0 mais la courbe représentative de φ admet une tangente verticale au point d’abscisse
y0.

φ(y)−φ(y 0 ) t −t 0
Preuve : Soit t 0 ∈ I et y 0 = f (t 0 ), pour y ∈ J \{y 0 }, on a y−y 0 = f (t )− f (t 0 ) en posant t = φ(y), φ étant continue, lorsque
t −t 0 1 0
y t oy 0 , on a t → t 0 et donc → car f (t 0 ) 6= 0. Ce qui prouve le premier résultat.

NE
f (t )− f (t 0 ) f 0 (t 0 )
0 t −t 0
Si f (t 0 ) = 0, comme f est monotone la fraction f (t )− f (t 0 ) garde un signe constant, donc sa limite lorsque y → y 0 est
infinie, ce qui prouve le second résultat. 
Remarque 13.3 –
– Si f : I → J est bijective, continue, dérivable et si f 0 ne s’annule pas sur I, alors d’après le théorème
précédent, f −1 est dérivable sur J et on a la formule :
¢0 1
f −1 =
¡
.
f 0 ◦ f −1

– Si f n’est pas dérivable en t 0 mais si sa courbe a une tangente verticale en ce point, alors f −1 est dérivable
¢0
en y 0 = f (t 0 ) et f −1 (y 0 ) = 0 (car le taux d’accroissement de f en t 0 a une limite infinie en t 0 ).
¡

AIG
ZExemples :
– La fonction ln : ]0 ; +∞[ → R est une fonction continue, strictement croissante, dérivable et sa dérivée
ne s’annule pas. Sa bijection réciproque, la fonction exponentielle, est donc dérivable sur R et :

1
∀ x ∈ R, exp(x)0 = = exp(x).
ln0 ◦ exp(x)

– La fonction f : [− π2 ; π2 ] → [−1 ; 1] définie par f (x) = sin(x) est bijective, continue, dérivable et sa dérivée
( f 0 (x) = cos(x)) ne s’annule pas sur ]− π2 ; π2 [, donc la bijection réciproque arcsin, est dérivable sur ]−1 ; 1[
et :
1 1 1
arcsin0 (x) = 0 = =p .
f (arcsin(x)) cos(arcsin(x)) 1 − x2
Par contre la fonction arcsin n’est pas dérivable en ±1 (une tangente verticale en ces points).
– La fonction f : [0 ; π] → [−1 ; 1] définie par f (x) = cos(x) est bijective, continue, dérivable et sa dérivée
( f 0 (x) = − sin(x)) ne s’annule pas sur ]0 ; π[, donc la bijection réciproque arccos, est dérivable sur ]−1 ; 1[
NT
et :
1 −1 −1
arccos0 (x) = 0 = =p .
f (arccos(x)) sin(arccos(x)) 1 − x2
Par contre la fonction arccos n’est pas dérivable en ±1 (une tangente verticale en ces points).
– La fonction f : ]−π/2 ; π/2[ → R définie par f (x) = tan(x) est bijective, continue, dérivable et sa dérivée
( f 0 (x) = 1 + tan(x)2 ) ne s’annule pas, donc la bijection réciproque arctan, est dérivable sur R et :

1 1 1
arctan0 (x) = = = .
f 0 (arctan(x)) 1 + tan2 (arctan(x)) 1 + x2

II APPLICATIONS DE LA DÉRIVATION
MO

1) Théorème de Rolle

Théorème 13.6
Soit f : [a; b] → R dérivable sur ]a; b[ et soit t 0 ∈]a; b[. Si f admet un extremum local en t 0 , alors
f 0 (t 0 ) = 0, mais la réciproque est fausse.

f (t )− f (t 0 )
Preuve : Supposons que f présente un maximum local en t 0 , alors à gauche en t 0 on a t −t 0 > 0, d’où par passage à
f (t )− f (t 0 )
la limite en t 0 : f 0 (t 0 ) > 0. À droite en t 0 on a : t −t 0
0
6 0, d’où par passage à la limite en t 0 : f (t 0 ) 6 0, par conséquent
3
f 0 (t 0 ) = 0. Pour la réciproque il suffit de considérer la fonction x 7→ x en 0. 
Remarque 13.4 – Dans le théorème ci-dessus, il est essentiel que t 0 ne soit pas une borne de l’intervalle. Par
exemple la fonction f (t ) = 1 + t admet un maximum sur [0; 1] en t 0 = 1 mais f 0 (t 0 ) 6= 0.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 125 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications de la dérivation Chapitre 13 : Dérivation

Théorème 13.7 (de Rolle 1 )


Si f : [a; b] → R est continue sur [a; b], dérivable sur ]a; b[ et si f (a) = f (b), alors :
il existe c ∈]a; b[, f 0 (c) = 0.

NE
Preuve : Si f est constante alors il n’y a rien à montrer. Si f n’est pas constante, Im( f ) = [m; M] ( f est continue sur le
segment [a; b]) avec m < M. Supposons f (a) 6= M, alors f (b) 6= M or il existe c ∈ [a; b] tel que f (c) = M donc c ∈]a; b[,
d’après la proposition précédente (maximum global en c) on a f 0 (c) = 0. Si f (a) = M alors f (a) 6= m et le même
raisonnement s’applique avec le minimum. 
Remarque 13.5 –
– Ce théorème est faux si f n’est pas continue en a ou en b (prendre f (x) = x sur [0; 1[ et f (1) = 0).
– Ce théorème est faux si f est à valeurs complexes, par exemple f (t ) = e i t , on a f (0) = f (2π) mais
f 0 (t ) = i e i t ne s’annule jamais.

FExercice 13.2 Soit f : R → R une fonction dérivable qui admet n racines distinctes, alors f 0 admet au moins n −1 racines
distinctes.

AIG
2) Les accroissements finis

Théorème 13.8 (égalité de accroissements finis)


Si f : [a; b] → R est continue sur [a; b] et dérivable sur ]a; b[ alors :
∃c ∈]a; b[, f (b) − f (a) = (b − a) f 0 (c).

Preuve : Soit φ(t ) = t f (b) − f (a) − (b − a) f (t ), la fonction φ est continue sur [a; b] et dérivable sur ]a; b[, de plus
¡ ¢

φ(a) = a f (b) − b f (a) = φ(b), d’après le théorème de Rolle, il existe c ∈]a; b[ tel que φ0 (c) = 0, ce qui donne la relation. 

Remarque 13.6 –
– De même, si f et g sont continues sur [a; b] et dérivables sur ]a; b[, il existe c ∈]a; b[ tel que :
( f (b) − f (a))g 0 (c) = (g (b) − g (a)) f 0 (c).
f (b)− f (a)
– L’égalité s’écrit aussi : f 0 (c) = b−a , ce qui signifie géométriquement qu’il existe un point de la courbe
(d’abscisse c) où la tangente est parallèle à la corde définie par le point d’abscisse a et le point d’abscisse
NT
b.
f (b)− f (a)
– Autre preuve : soit g la fonction affine prenant la même valeur que f en a et b, g (x) = b−a (x − a) +
f (a). On a f (a) − g (a) = f (b) − g (b), d’après le théorème de Rolle il existe c ∈]a; b[ tel que f 0 (c) = g 0 (c) ce
f (b)− f (a)
qui donne f 0 (c) = b−a .

A
MO

a c1 c2 b

Théorème 13.9 (inégalité des accroissements finis)


Si f : [a; b] → R est continue sur [a; b], dérivable sur ]a; b[ et s’il existe deux réels m et M tels que
∀ x ∈]a; b[, m 6 f 0 (x) 6 M, alors :
m(b − a) 6 f (b) − f (a) 6 M(b − a).

Preuve : Celle-ci découle directement de l’égalité des accroissement finis. 

1. ROLLE Michel (1652 – 1719) : mathématicien français.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 126 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications de la dérivation Chapitre 13 : Dérivation

À retenir
Si ∀ t ∈]a; b[, | f 0 (t )| 6 M, alors | f (b) − f (a)| 6 M(b − a), et plus généralement :
∀ x, y ∈ [a; b], | f (x) − f (y)| 6 M|x − y|, la fonction f est M-lipschitzienne.
Réciproquement, si f est M-lipschitzienne sur un intervalle I, alors tous les taux d’accroissements

NE
sont majorés en valeur absolue par M, et donc par passage à la limite, | f 0 | 6 M.

FExercice 13.3 Soit f : [a; b] → [a; b] continue sur [a; b], dérivable sur ]a; b[ telle que | f 0 | 6 k < 1, on considère la suite
définie par u 0 ∈ [a; b] et u n+1 = f (u n ).
1/ Montrer que f admet au moins un point fixe ` et que celui-ci est unique.
2/ Montrer la suite u converge vers `.

ZExemples :
– Pour tout réel x, sin0 (x) = cos(x) et donc | sin0 (x)| 6 1, on en déduit (IAF) que pour tous réels x et y on a
| sin(x) − sin(y)| 6 |x − y|. De la même façon, on montre que | cos(x) − cos(y)| 6 |x − y|.
p p
– Pour tout x, y de [1 ; +∞[, on a | x − y| 6 12 |x − y|.

AIG
1
– ∀x > 0, x+1 6 ln(x + 1) − ln(x) 6 x1 .

Théorème 13.10 (limite de la dérivée)


Soit f : [a; b] → R continue sur [a; b] et dérivable sur [a; b[. Si f 0 admet une limite ` en b, alors :
• Si ` ∈ R alors f est dérivable en b et f 0 (b) = `.
• Si ` = ±∞ alors f n’est pas dérivable en b, mais il y a une tangente verticale pour la courbe réprésen-
tative.

Preuve : D’après l’égalité des accroissements finis, pour t ∈ [a; b[, il existe c t ∈]t ; b[ tel que f (b)− f (t ) = (b−t ) f 0 (c t ) = (b−
f (t )− f (b) f (t )− f (b)
t ) f 0 (c t ), d’où t −b = f 0 (c t ), mais si t tend vers b, alors c t tend vers b et donc f 0 (c t ) tend vers `, d’où : lim t −b = `,
t →b
ce qui termine la preuve. 
0
Remarque 13.7 – Si f n’a pas de limite en b, on ne peut rien dire en général.
On a un résultat analogue pour f : [a; b] → R continue sur [a; b], dérivable sur ]a; b], avec lim f 0 (t ) = `.
t →a
NT
1
ZExemple : La fonction arcsin est dérivable sur ] − 1; 1[ et arcsin0 (x) = p ,
cette dérivée a pour limite +∞
1−x 2
quand x → 1. On retrouve ainsi que arcsin n’est pas dérivable en 1 et qu’il y a une tangente verticale en ce
point pour la courbe.

3) Sens de variation

Théorème 13.11

Soit f : I → R une fonction continue sur l’intervalle I, et dérivable sur I privé des ses bornes (noté I,
intérieur de I), on a les résultats suivants :

• f est croissante si et seulement si ∀ t ∈ I, f 0 (t ) > 0.

MO

• f est décroissante si et seulement si ∀ t ∈ I, f 0 (t ) 6 0.



• f est constante si et seulement si ∀ t ∈ I, f 0 (t ) = 0.

• f est strictement croissante si et seulement si ∀ t ∈ I, f 0 (t ) > 0 et il n’existe aucun intervalle ouvert
non vide inclus dans I sur lequel f 0 est constamment nulle.

• f est strictement décroissante si et seulement si ∀ t ∈ I, f 0 (t ) 6 0 et il n’existe aucun intervalle ouvert
non vide inclus dans I sur lequel f 0 est constamment nulle.


Preuve : Si f est croissante sur I, soit t 0 ∈ I, le taux d’accroissement de f en t 0 est toujours positif, donc par passage à la

limite, on a f 0 (t 0 ) > 0. Réciproquement, si f 0 > 0 sur I, soit t < t 0 deux éléments de I, d’après l’égalité des accroissements
finis, il existe c compris entre t et t 0 (strictement) tel que f (t ) − f (t 0 ) = f 0 (c)(t − t 0 ) 6 0, donc f (t ) 6 f (t 0 ) i.e. f est
croissante. Pour f décroissante on applique ce qui précède à − f . Pour f constante, il suffit de dire que f est à la fois
croissante et décroissante.

Si f est strictement croissante, alors on sait que f 0 > 0 sur I. Si f 0 est nulle sur un intervalle J ⊂ I, alors f est

constante sur J, ce qui est absurde. Réciproquement, si ∀ t ∈ I, f 0 (t ) > 0 et il n’existe aucun intervalle ouvert non vide
inclus dans I sur lequel f 0 est constamment nulle, soit t < t 0 deux éléments de I, on sait que f (t ) 6 f (t 0 ), si on avait

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 127 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Dérivées successives Chapitre 13 : Dérivation

f (t ) = f (t 0 ) alors ∀ c ∈ [t ; t 0 ], f (t ) = f (c) = f (t 0 ), donc f est constante sur [t ; t 0 ], ce qui entraîne que f 0 est nulle sur
]t ; t 0 [ : absurde, donc f (t ) < f (t 0 ) i.e. f est strictement croissante. 
1
Remarque 13.8 – Ce théorème est faux si I n’est pas intervalle, par exemple la fonction f (t ) = t est dérivable
sur R∗ avec f 0 < 0, mais f n’est pas monotone sur R∗ .

NE
III DÉRIVÉES SUCCESSIVES

1) Classe d’une application

Définition 13.3
Soit f : I → R une fonction et soit n ∈ N∗ . On dit que f est de classe C n sur I lorsque f est n fois
dérivable sur I et que la dérivée n e de f est continue sur I. L’ensemble des fonctions de classe C n sur I
dn f
est noté C n (I, R). La dérivée n e de f est notée f (n) où d t n . Par convention, on pose f (0) = f , on a alors
¢0
∀ n ∈ N, f (n+1) = f (n) .
¡

AIG
Remarque 13.9 –
– C n+1 (I, R) ⊂ C n (I, R).
– Si f ∈ C n (I, R) avec n > 1, alors ∀ k ∈ J0 ; n K, f (k) ∈ C n−k (I, R).
ZExemples :
– ∀ n ∈ N, f : t 7→ e t est de classe C n sur R, et f (n) (t ) = e t .
(
0 si p > n
– Soit n ∈ N, ∀ p ∈ N, f : t 7→ t n est de classe C p sur R, et f (p) (t ) = n! n−p
.
(n−p)! x sinon
1 (−1)n n!
– ∀ n ∈ N, f : t 7→ t est de classe C n sur R∗ , et f (n) (t ) = t n+1
.
n−1
– ∀ n ∈ N, f : t 7→ ln(t ) est de classe C n sur ]0 ; +∞[, et pour n > 1, f (n) (t ) = (−1) t n(n−1)! .
– ∀ n ∈ N, cos et sin sont de classe C n sur R et cos(n) (t ) = cos(t + n π2 ), sin(n) (t ) = sin(t + n π2 ).

FExercice 13.4
1
f est de classe C n sur R \ {a} pour tout n ∈ N, et calculer f (n) (x).
NT
1/ Soit a ∈ R, et f : x 7→ x−a , montrer que
1
2/ Soit f : x 7→ x 2 −1
, montrer que f est de classe C n sur R \ {±1} pour tout n, et calculer f (n) (x).

Définition 13.4
Lorsque f est de classe C n pour tout entier n, on dit que f est de classe C ∞ , l’ensemble des ces
T n
fonctions est noté C ∞ (I, R), et on a donc C ∞ (I, R) = C (I, R).
n∈N

Remarque 13.10 –
– ∀ n ∈ N, C ∞ (I, R) ⊂ C n (I, R).
– Dire que f est C ∞ sur I revient à dire que f est dérivable autant de fois que l’on veut (infiniment
T n
dérivable), autrement dit C ∞ (I, R) = D (I, R).
MO

n∈N

ZExemples :
– Toute fonction polynomiale est C ∞ sur R (car la dérivée d’un polynôme est un polynôme).
– Toute fonction rationnelle est C ∞ sur son ensemble de définition (car la dérivée d’une fonction
rationnelle est une fonction rationnelle).
– Les fonctions ln, exp, cos, sin et tan sont C ∞ sur leur ensemble de définition.

FExercice 13.5 Étudier la classe sur R de la fonction f : x 7→ x 2 |x|.

Théorème 13.12 (prolongement de classe C n )


Soit f : [a ; b[ → R une fonction de classe C n sur [a; b[ telle que toutes ses dérivées k e ont une limite
finie en b : ∀k ∈ J0 ; n K, ∃`k ∈ R, lim f (k) (x) = `k . Alors le prolongement de f obtenu en posant
x→b
f (b) = `0 , est un prolongement de classe C n sur [a ; b], et on a ∀k ∈ J0 ; n K, f (k) (b) = `k .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 128 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Dérivées successives Chapitre 13 : Dérivation

Preuve : Par récurrence sur n. Pour n = 0, c’est un prolongement par continuité de f en b. Supposons le théorème
établi au rang n et que f vérifie les hypothèses au rang n + 1, en appliquant (HR), le prolongement de f obtenu en
posant f (b) = `0 , est un prolongement de classe C n sur [a; b], et on a ∀k ∈ J0 ; n K, f (k) (b) = `k . Soit g = f (n) , alors g est
continue sur [a; b], de classe C 1 sur [a; b[ et lim g 0 (x) = `n+1 ∈ R, on en déduit que g est dérivable en b (théorème sur la
x→b
limite de la dérivée) et que g 0 (b) = `n+1 , ce qui entraîne que g 0 est continue en b. Finalement le prolongement de f est

NE
bien de classe C n+1 sur [a ; b], et f (k) (b) = `k pour k ∈ J0 ; n + 1K. 

2) Formule de Leibniz

Théorème 13.13 (généraux)


Si f et g sont de classe C n sur I alors :
• f + g est de classe C n sur I et ( f + g )(n) = f (n) + g (n) .
• ∀λ ∈ R, λ. f est de classe C n sur I et (λ. f )(n) = λ. f (n) .
¢(n) Pn ¡ ¢
n (k)
• f × g est de classe C n sur I et on a la formule (de Leibniz) : f × g × g (n−k) .
¡
= k f
k=0

AIG
Preuve : Pour le dernier point : pour n = 0 le résultat est vrai. Supposons le dernier point démontré au rang n > 0
avec la formule de Leibniz, et supposons que f et g sont de classe C n+1 . En particulier f et g sont C n , donc f × g
¢(n) n ¡ ¢ ¢(n)
n (k)
× g (n−k) , on en déduit donc que f × g
¡ P ¡
aussi et f × g = k f est dérivable sur I (somme de produits
k=0
¢(n+1) n ¡ ¢ n ¡ ¢
n (k+1) n (k)
× g (n−k) + × g (n+1−k) , ce qui donne
¡ P P
de fonctions dérivables) et sa dérivée est f × g = k f k f
k=0 k=0
n ¡¡ ¢ ¡ n+1
(n+1) (n+1) n n ¢¢ (k) P ¡n+1¢ (k)
× g (n+1−k) , c’est à dire × g (n+1−k) , ce qui donne la formule au
P
f ×g + f ×g + k + k−1 f k f
k=1 k=0
rang n + 1, de plus cette somme est une somme de fonctions continues, ce qui prouve que f × g est bien de classe C n+1
sur I. 

Théorème 13.14
∀ n ∈ N ∪ {+∞}, C n (I, R) est un R-espace vectoriel et un anneau.

Preuve : Cela découle du théorème précédent (s.e.v et sous-anneau de F (I, R)). 


NT
FExercice 13.6 Calculer de deux façons la dérivée n e en 0 de la fonction x 7→ (1 − x 2 )n . Quelle relation obtient-on ?

3) Classe d’une composée

Théorème 13.15
Soient f : I → R et g : J → R deux fonctions de classe C n avec Im( f ) ⊂ J, alors g ◦ f est de classe C n sur
I. En particulier, si f et g sont C ∞ alors g ◦ f aussi.

Preuve : Le théorème est vrai pour n = 0 (composée de deux fonctions continues), supposons le vrai au rang n > 0 et
supposons f et g de classe C n+1 , comme n + 1 > 1, f et g sont dérivables, donc g ◦ f est dérivable avec la formule
(g ◦ f )0 = f 0 × g 0 ◦ f , d’après l’hypothèse de récurrence, g 0 ◦ f est de classe C n (car g 0 et f sont de classe C n ), or f 0 est
MO

également de classe C n , par conséquent f 0 × g 0 ◦ f est de classe C n , ce qui signifie que g ◦ f est de classe C n+1 . 
Remarque 13.11 –
– Il existe une formule qui exprime (g ◦ f )0 en fonction des dérivées de f et de g , mais ce n’est pas une
formule simple.
– La fonction inverse g : x 7→ x1 est C ∞ sur R∗ , si f : I → R est une fonction de classe C n qui ne s’annule,
alors la composée, i.e. la fonction 1f , est de classe C n (même si n = ∞).
– On retrouve donc les mêmes théorèmes généraux que pour la continuité et la dérivabilité.

4) Classe d’une réciproque

Théorème 13.16
Soit f : I → J une bijection de I sur J = Im( f ), de classe C n avec n ∈ N∗ ∪ {∞}. Si f 0 ne s’annule pas sur
I, alors la bijection réciproque f −1 est de classe C n sur J (i.e. de même classe que f ).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 129 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Extension aux fonctions à valeurs complexes Chapitre 13 : Dérivation
1
Preuve : On sait déjà que f −1 est dérivable sur J et que ( f −1 )0 = f 0 ◦ f −1
, on voit alors que f −1 est de classe C 1 sur J, le
théorème est donc vrai pour n = 1, supposons le vrai au rang n > 1 et supposons que f est C n+1 , par hypothèse de
récurrence f −1 est de classe C n , mais alors f 0 ◦ f −1 est une fonction de classe C n qui ne s’annule pas, donc son inverse
est de classe C n , i.e. ( f −1 )0 est C n , ce qui signifie que f −1 est de classe C n+1 sur J. 

NE
ZExemples :
– Les fonctions arcsin et arccos sont de classe C ∞ sur ] − 1; 1[.
– La fonction arctan est de classe C ∞ sur R.

IV EXTENSION AUX FONCTIONS À VALEURS COMPLEXES

1) Définition
On adopte la même définition que dans le cas réel :

Définition 13.5
f (t )− f (t )
On dira que f : I → C est dérivable en t 0 ∈ I si et seulement si la fonction t 7→ t −t0 0 définie sur

AIG
I \ {t 0 }, admet une limite finie (dans C) en t 0 . Si celle-ci existe, elle est notée f 0 (t 0 ). L’ensemble des
fonctions dérivables sur I est noté D(I, C).

2) Propriétés

Théorème 13.17 (caractérisation)


Soit f : I → C une fonction, soit u = Re( f ) et v = Im( f ), alors f est dérivable en t 0 ∈ I si et seulement si
u et v sont dérivables en t 0 . Si tel est le cas, alors f 0 (t 0 ) = u 0 (t 0 ) + i v 0 (t 0 ).

Preuve : Il suffit d’écrire que :


f (t ) − f (t 0 ) u(t ) − u(t 0 ) v(t ) − v(t 0 )
= +i
t − t0 t − t0 t − t0
avec u = Re( f ) et v = Im( f ). 
NT
À retenir
Il découle de ce théorème, que lorsque f est dérivable sur I, on a : Re( f 0 ) = Re( f )0 et Im( f 0 ) = Im( f )0 .

Comme la caractérisation nous ramène aux fonctions à valeurs réelles, on peut déduire les propriétés des
fonctions dérivables à valeurs complexes :
– On retrouve les mêmes théorèmes généraux, à savoir :
• Toute fonction f : I → C dérivable est continue (réciproque fausse).
• Si f , g : I → C sont dérivables, alors f + g , f × g et λ f (λ ∈ C) sont dérivables avec les formules :
( f + g )0 = f 0 + g 0 , ( f × g )0 = f 0 × g + f × g 0 , (λ f )0 = λ f 0 .
g0
• Si g : I → C est dérivable et ne s’annule pas, alors g1 est dérivable sur I et ( g1 )0 = − g 2 . On en déduit que
MO

³ ´0
f f 0 ×g − f ×g 0
si f est également dérivable sur I alors g = g2
.
• Si f : I → R et g : J → C sont dérivables avec Im( f ) ⊂ J, alors g ◦ f est dérivable sur I et (g ◦ f )0 =
f 0 ×g0 ◦ f .
• Si f : I → C est dérivable alors exp( f ) est dérivable sur I et [exp( f )]0 = f 0 × exp( f ).
– Cependant, le théorème de Rolle n’est plus valable, par exemple la fonction f (t ) = exp(i t ) est dérivable
sur R et f 0 (t ) = i exp(i t ), on a f (0) = f (2π) mais f 0 ne s’annule pas. Par conséquent l’égalité des
accroissements finis n’est plus valable non plus, mais on conserve les inégalités.

Théorème 13.18 (inégalité des accroissements finis généralisée)


Si f : I → C est une fonction C 1 sur I, et si ∀ t ∈ I, | f 0 (t )| 6 g 0 (t ) où g : I → R est une fonction C 1 sur I,
alors :
∀a, b ∈ I, | f (b) − f (a)| 6 |g (b) − g (a)|.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 130 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 13 : Dérivation

Remarque 13.12 –
– Si ∀ t ∈ I, | f 0 (t )| 6 M, alors en prenant la fonction g (t ) = Mt , et en appliquant le théorème ci-dessus, on
obtient ∀a, b ∈ I, | f (b) − f (a)| 6 M|b − a|.
ZExemple : Avec f (t ) = exp(αt ) où α = a + i b ∈ C avec a 6= 0, on a | f 0 (t )| = |α| exp(at ) = g 0 (t ), par conséquent :

NE
|α|
∀ t , t 0 ∈ R, | exp(αt ) − exp(αt 0 )| 6 | exp(at ) − exp(at 0 )|.
|a|

3) Classe d’une fonction


On donne la même définition avec les mêmes notations que pour les fonctions à valeurs réelles, à savoir :
f : I → C est de classe C n ssi f est n fois dérivable et f (n) est continue sur I, ce qui revient à dire que les
parties réelle et imaginaire de f sont de classe C n . L’ensemble des fonctions de classe C n sur I est noté
C n (I, C), et on pose C ∞ (I, C) =
T n
C (I, C) : ensemble des fonctions de classe C ∞ .
n∈N
On retrouve les mêmes théorèmes généraux : C n (I, C) est une C-algèbre (n ∈ N ∪ {∞}). La formule de
Leibniz reste valable, et la composée de deux fonctions de classe C n est également de classe C n .

AIG
p
FExercice 13.7 Soit f (t ) = cos(t ) exp(t 3), calculer f (n) (t ).

V SOLUTION DES EXERCICES

Solution 13.1
1/ Les théorèmes généraux s’appliquent sur R∗ . Le taux d’accroissement en 0 s’écrit x sin( x1 ) qui tend vers 0 en 0, donc f
est dérivable en 0 et f 0 (0) = 0.
1
2/ Pour x 6= 0, f 0 (x) = 2x sin( x1 ) − cos( x1 ), or si on pose u n = 1 n
nπ , alors u n → 0 et cos( u n ) = (−1) n’a pas de limite. Donc
1 1
la fonction x 7→ cos( x ) n’a pas de limite en 0, et comme la fonction x 7→ 2x sin( x ) tend vers 0 en 0, cela entraîne que
f 0 (x) ne peut pas avoir de limite en 0.

Solution 13.2 Il suffit d’appliquer le théorème de Rolle à la fonction f entre deux racines consécutives. On montre ainsi
qu’entre deux racines de f il y a toujours une racine de f 0 .
NT
Solution 13.3
1/ On montre que la fonction g : x 7→ f (x) − x s’annule en un point ` car elle est continue et change de signe puisque
g (a) = f (a) − a > 0 et g (b) = f (b − b 6 0. Si ` et `0 sont deux points de f dans [a ; b], alors en appliquant l’inégalité
des AF, on |` − `0 | = [ f (`) − f (`0 )| 6 k|` − `0 |, or k < 1, ce qui entraîne |` − `0 | = 0 et donc ` = `0 .
2/ Par récurrence tous les termes u n existent dans [a ; b]. On a alors (IAF) |u n+1 − `| = | f (u n ) − f (`)| 6 k|u n − `|, on en
déduit par récurrence que |u n − `| 6 k n |u 0 − `|, or k n → 0 car |k| < 1, et donc u n → ` (c’est le théorème du point fixe).

Solution 13.4

Solution 13.5 On vérifie que f est dérivable sur R, avec f 0 (x) = 3x 2 si x > 0, f 0 (x) = −3x 2 si x < 0 et f 0 (0) = 0. On peut
écrire f 0 (x) = 3x|x| pour tout x, et donc f 0 est continue sur R, f est donc au moins de classe C 1 sur R.
De même, on vérifie que f 0 est dérivable sur R, avec f 00 (x) = 6x si x > 0, f 0 (x) = −6x si x < 0 et f 00 (0) = 0. On peut
MO

écrire f 00 (x) = 6|x| pour tout x, et donc f 00 est continue sur R, f 0 est donc au moins de classe C 1 sur R, c’est à dire f est au
moins de classe C 2 sur R.
Par contre, on peut vérifier que f 00 n’est pas dérivable en 0, et donc f n’est pas de classe C 3 sur R.

n ¡ ¢
n k 2k
¡n ¢ k (2k)!
(Newton) et donc f (n) (x) = 2k−n
et donc f (n) (0) = 0
P P
Solution 13.6 On a f (x) = k (−1) x n k (−1) (2k−n)! x
k=0 n
2 6k 6n
n ¡n ¢
si n est impair, et f (n) (0) = (−1) 2 n n!.
2
n ¡ ¢
n k n! n−k n!
On a f (x) = (1 − x)n × (1 + x)n , et donc f (n) (x) = k (n)
P
k (−1) (n−k)! (1 − x) k! (1 + x) (Leibniz), d’où f (x) =
k=0
n ¡ ¢2 n ¡ ¢2
n k n−k k n
(n)
(−1)k . En égalant les deux résultats, on en déduit que :
P P
n! k (−1) (1 − x) (1 + x) et donc f (0) = n! k
k=0 k=0
n ¡ ¢2 n
n ¡n ¢
(−1)k = (−1) 2
P
k n si n est pair, et 0 sinon.
k=0 2

p p
Solution 13.7 On a f (t ) = Re(g (t )) avec g (t ) = exp(t (i + 3)) = exp(αt ) en posant α = 3 + i = 2 exp(i π6 ). On a donc
p
g (n) (t ) = αn exp(αt ) et f (t ) = Re(αn exp(αt )) = 2n cos(t + n π6 ) exp(t 3).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 131 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 14

Développements limités

Sommaire
I Développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
2) Formule de Taylor-Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3) Développements usuels en 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
II Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
2) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
3) Développements usuels (compléments) . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
III Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
1) Recherche d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
2) Étude locale d’une fonction au voisinage d’un point . . . . . . . . . . . . . . . . . . . . 137
3) Étude locale au voisinage de l’infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4) Recherche d’un équivalent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
NT
I DÉVELOPPEMENTS LIMITÉS

1) Définition

Définition 14.1
Soit f : I → C une fonction et soit a ∈ I ou une borne réelle de I. Soit n ∈ N, on dit que f admet un
développement limité d’ordre n en a (ou un dln (a)) lorsqu’il existe un polynôme P de degré au plus n
tel que :
f (x) = P(x − a) + o (x − a)n .
¡ ¢
a

Si c’est le cas, alors le polynôme P(x − a) est appelé partie régulière du dln (a).
MO

Remarque 14.1 –
– On notera Cn [X] l’ensemble des polynômes de degré au plus n et à coefficients complexes.
n
a k (x − a)k , dans la pratique on ne développe jamais les termes (x − a)k .
P
– On a P(x − a) =
k=0
– Le reste du dln (a) , c’est à dire o ((x − a)n ) peut aussi se mettre sous la forme (x − a)n ε(x) où lim ε(x) = 0.
a x→a
– C’est le reste qui donne l’ordre du dln (a).
ZExemples :
– On sait que sin(x) ∼ x, donc sin(x) = x + o (x), c’est un dl1 (0) de sin(x), la partie régulière est x.
0 0
− 12 ¡ 2¢
– Pour x 6= 0, e x = o x , c’est un dl2 (0), la partie régulière est nulle.
0

2) Formule de Taylor-Young

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 132 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Développements limités Chapitre 14 : Développements limités

Définition 14.2 (polynôme de Taylor et reste)


Soit f : I → C une fonction, et soit a ∈ I, si f possède des dérivées jusqu’à l’ordre n en a, alors on
appelle polynôme de Taylor de f en a à l’ordre n, la fonction polynomiale notée Tn, f ,a définie par :
n f (k) (a)
P k
Tn, f ,a (x) = k! (x − a) .

NE
k=0
La différence f (x) − Tn, f ,a (x) est notée Rn, f ,a (x) est appelée reste de f en a à l’ordre n.

£ ¤0
Remarque 14.2 – Si f est n + 1 fois dérivable en a, alors Tn+1, f ,a (x) = Tn, f 0 ,a (x).

Théorème 14.1
Si f est définie et continue au voisinage de a et si f (x) = o ((x − a)n ) avec n ∈ N, alors au voisinage de
Rx a
a, on a a f (t ) dt = o (x − a)n+1 .
¡ ¢
a

Preuve : On écrit f (t ) = (t − a)n α(t ) avec lim α(t ) = 0. On se donne ε > 0, dans un voisinage V de a on aura | f (t )| 6
t →0
¯R x Rx n+1
|t − a| ε, pour x > a dans V, on obtient a f (t ) dt ¯ 6 ε a (t − a)n dt = ε (x−a)
n
< (x − a)n+1 ε. De même pour x < a dans
¯

AIG
¯
n+1
R x
¯R x f (t ) dt Rx
V, on vérifie que ¯ a f (t ) dt ¯ < |x − a|n+1 ε. Ce qui montre que lim (x−a) n+1
¯ ¡ ¢
a
n+1 = 0 et donc a f (t ) dt = o (x − a) . 
x→a a

Théorème 14.2 (formule de Taylor-Young)


Soit n ∈ N, soit f : I → C une fonction de classe C n sur l’intervalle I et a ∈ I, on a : Rn, f ,a (x) = o ((x − a)n ),
a
n f (k) (a)
P k n
c’est à dire : f (x) = k! (x − a) + o ((x − a) ).
k=0 a

Preuve : Par récurrence sur n : pour n = 0 f (x) = f (a) + ( f (x) − f (a)), et f (x) − f (a) = o (1), car f est continue
a
en a. Supposons le théorème démontré au rang n, et supposons f de classe C n+1 sur I, alors f 0 est de classe
C n , l’hypothèse de récurrence s’applique à f 0 : f 0 (t ) = Tn, f 0 ,a (t ) + o ((t − a)n ), en intégrant entre a et x, on obtient
a
n f 0(k) (a)
k+1 n+1
P ¡ ¢
f (x) − f (a) = (k+1)! (x − a) + o (x − a) , en appliquant le théorème précédent pour l’intégration du o, un
k=0 a
nf 0(k) (a) ¢ n+1
P f (k) (a)
NT
k+1
+ o (x − a)n+1 = k
+ o (x − a)n+1 .
P ¡ ¡ ¢
changement d’indice donne alors f (x) = f (a) + (k+1)! (x − a) k! (x − a)
k=0 a k=0 a

Remarque 14.3 – Sous les mêmes hypothèses, on peut écrire qu’il existe une fonction ε telle que :
f (x) = Tn, f ,a (x) + (x − a)n ε(x) avec lim ε(x) = 0.
x→a

Théorème 14.3
Soit f : I → C et soit a ∈ I, si f est de classe C n sur l’intervalle I, alors f admet un dln (a) et sa partie
régulière est Tn, f ,a (x), c’est à dire son polynôme de Taylor en a à l’ordre n. Si f est de classe C ∞ sur I,
alors f admet un dl en tout point de I et à n’importe quel ordre.
MO

3) Développements usuels en 0

À retenir
n
xk
+ o (x n ).
P
– exp(x) = k!
k=0 0
n k
(−1)k−1 xk + o (x n ).
P
– ln(1 + x) =
k=1 0
n
x 2k+1
(−1)k (2k+1)! + o x 2n+2 (il s’agit du dl2n+2 (0)).
P ¡ ¢
– sin(x) =
k=0 0
n 2k
x
(−1)k (2k)! + o x 2n+1 (il s’agit d’un dl2n+1 (0)).
P ¢ ¡
– cos(x) =
k=0 0
n 2k+1
x
+ o x 2n+2 (il s’agit du dl2n+2 (0)).
P ¢ ¡
– sh(x) = (2k+1)!
k=0 0
n
x 2k
+ o x 2n+1 (il s’agit d’un dl2n+1 (0)).
P ¡ ¢
– ch(x) = (2k)!
k=0 0

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 133 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés Chapitre 14 : Développements limités
à ! à !
n α α α(α − 1) · · · (α − k + 1)
– (1 + x)α = x k + o x n , où
P ¡ ¢
= , formule des coefficients du binôme
k=0 k 0 k k!
n
1
(−1)k x k + o (x n ).
P
généralisée. En particulier : 1+x =
k=0 0

NE
II PROPRIÉTÉS

1) Généralités

Théorème 14.4 (troncature)


Si f admet un dln (a) alors pour tout entier p ∈ J0 ; n K, f admet un dlp (a) dont la partie régulière
s’obtient en tronquant la partie régulière du dln (a) au degré p.

Preuve : Celle-ci est simple et laissée en exercice. 

FExercice 14.1 Comment s’écrit le dln (0) d’un polynôme ?

AIG
Théorème 14.5 (unicité du dl)
Si f admet un dln (a) alors celui-ci est unique.

Preuve : Par récurrence sur n. Au rang 0 c’est évident avec un passage à la limite. Supposons l’unicité montrée au rang
n − 1. Si f a deux dln (a), alors par troncature elle a deux dln−1 (a), ils sont donc égaux, ce qui donne après simplification
αn (x − a)n + o ((x − a)n ) = βn (x − a)n + o ((x − a)n ), en simplifiant par (x − a)n (pour x 6= a), et par passage à la limite en
a a
a, on obtient αn = βn et on a bien l’unicité au rang n. 

Changement de variable
On peut toujours se ramener en a = 0 :
– On pose u = x − a, on a alors f (x) = f (u + a) = g (u), d’où :

f admet un dln (a) ⇐⇒ ∃ P ∈ Cn [X], f (x) = P(x − a) + o (x − a)n


¡ ¢
a
NT
¡ n¢
⇐⇒ ∃ P ∈ Cn [X], g (u) = P(u) + o u
0
⇐⇒ g admet un dln (0).

– Si f est définie au voisinage de ±∞ : on pose u = x1 , on a alors f (x) = f ( u1 ) = g (u). Si g admet un dln (0) ;
alors il existe un polynôme P ∈ Cn [X] tel queg (u) = P(u) + o (u n ), ce qui donne f (x) = P( x1 ) + o x1n , on
¡ ¢
0 ±∞
1
dit alors que f admet un développement asymptotique en x d’ordre n en ±∞, on remarquera que la
partie régulière n’est pas un polynôme en x mais en x1 .

Théorème 14.6
• f admet un dl0 (a) si et seulement si f admet une limite finie en a.
• f admet un dl1 (a) si et seulement si f admet un prolongement continu dérivable en a.
MO

• Si f admet un dln (0), alors la partie régulière a la même parité que f .

Preuve : Celle-ci est simple et laissée en exercice. 

Attention !
Une fonction peut avoir un dl2 (a) sans être deux fois dérivable en a.

FExercice 14.2 Montrer que la fonction définie par f (x) = x 3 sin( x1 ) avec f (0) = 0, admet un dl2 (0) (dont la partie régulière
est nulle), mais f 0 n’est pas dérivable en 0, donc f n’est pas deux fois dérivable en 0 (et donc f 0 n’a pas de DL en 0).

2) Règles de calculs

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 134 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés Chapitre 14 : Développements limités

Théorème 14.7
Si f , g admettent un dln (0), f (x) = P(x) + o (x n ) et g (x) = Q(x) + o (x n ), avec P, Q ∈ Cn [X].
0 0
– DL d’une combinaison linéaire : ∀ λ ∈ C, λ f + g admet un dln (0) dont la partie régulière en λP(x) +
Q(x).

NE
– DL d’un produit : f (x) × g (x) admet un dln (0) dont la partie régulière est [P(x)Q(x)]n (polynôme
P(x) × Q(x) tronqué au degré n).
– DL d’une composée : si lim g (x) = 0, alors f (g (x)) admet un dln (0) dont la partie régulière est
x→0
[P(Q(x))]n .
– Intégration des DL : si f 0 admet un dln (0) dont la partie régulière est P(x), alors f admet un dln+1 (0)
Rx
dont la partie régulière est : f (0) + 0 P(t ) d t .
1
– Inversion d’un DL : si lim f (x) = a 6= 0, alors f (x) admet un dln (0) qui s’obtient en composant le
x→0
1 f (x)−a
dln (0) de 1+u avec celui de a , et en multipliant par a1 .

Preuve : Donnons un exemple pour la composition avec n = 2 : f (x) = a + bx + c x 2 + x 2 u(x) et g (x) = αx + βx 2 + x 2 v(x),
avec u et v de limite nulle en 0, on en déduit en composant : f (g (x)) = a + b(αx + βx 2 + x 2 v(x))) + c(αx + βx 2 +

AIG
v(x))2 + (αx + βx 2 + x 2 v(x))2 u(g (x)), ce qui donne après
¡ ¢avoir développer et regrouper les puissances de x strictement
supérieures à 2 : f (g (x)) = a + bαx + [bβ + cα2 ]x 2 + o x 2 , on peut vérifier que la partie régulière est la troncature au
0
degré 2 de P(Q(x)). Rx
Pour l’intégration cela découle de la propriété déjà établie : 0 o (t n ) dt = o x n+1 .
¡ ¢
0 0
1 1 1 1 f (x)−a
Pour f (x) : comme a 6= 0, on a f (x) = a 1+ f (x)−a , et a −
− −
→ 0, donc la règle de composition s’applique. 
a x→0

Attention !
Il n’y a pas de propriété de dérivation de DL. Par exemple, on vérifiera que la fonction définie par f (x) = x 2 sin( x1 )
avec f (0) = 0, admet un dl1 (0) (dont la partie régulière est nulle), mais f 0 n’a pas de limite fine en 0, donc f 0 n’a pas
de dl0 (0).

3) Développements usuels (compléments)


NT
n
1−x n+1
xk =
P
Pour x 6= 1, on a 1−x , on en déduit :
k=0

1 n x n+1 Xn
xk + xk + o xn .
X ¡ ¢
= =
1 − x k=0 1 − x k=0 0

En substituant −x à x, on obtient :

1 n
(−1)k x k + o x n .
X ¡ ¢
=
1 + x k=0 0

En intégrant ce dernier développement entre 0 et x, on obtient :


MO

n x k+1
(−1)k + o x n+1 .
X ¡ ¢
ln(1 + x) =
k=0 k +1 0

En substituant x 2 à x dans l’avant dernier, on obtient :

1 n
(−1)k x 2k + o x 2n+1 c’est un dl2n+1 (0).
X ¡ ¢
2
=
1+x k=0
0

En intégrant ce dernier développement entre 0 et x, on obtient :

n x 2k+1
(−1)k + o x 2n+2 .
X ¡ ¢
arctan(x) =
k=0 2k + 1 0

On a : Ã !
1 n −1/2
xk + o xn .
X ¡ ¢
p =
1 + x k=0 k 0

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 135 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications Chapitre 14 : Développements limités
(2kk )
= (−1)k 1×3×...×(2k−1)
¡−1/2¢
Or k k!2k
= (−1)k 4k
, on a finalement :
¡2k ¢
1 n
(−1) kk x k + o x n .
k
X ¡ ¢
p =
1 + x k=0 4 0

NE
On en déduit que :
¡2k ¢
1 n
k
x 2k + o x 2n+1 .
X ¡ ¢
p = k
k=0 4
1−x 2 0

En intégrant entre 0 et x, obtient :


¡2k ¢
n
k
x 2k+1 + o x 2n+2 .
X ¡ ¢
arcsin(x) = k
k=0 4 (2k + 1) 0

et :
¡2k ¢
π Xn

AIG
k
x 2k+1 + o x 2n+2 .
¡ ¢
arccos(x) = − k
2 k=0 4 (2k + 1) 0

ZExemples :
– Calculer un dl3 (0) de exp(sin(x)).
3 2 3
On a sin(x) = x − x6 + o x 3 et exp(u) = 1 + u + u2 + u6 + o u 3 . Comme lim sin(x) = 0, on peut appli-
¡ ¢ ¡ ¢
0 0 x→0
quer le théorème de composition, et composer les parties régulières jusqu’à l’ordre 3, ce qui donne
2
exp(sin(x)) = 1 + x + x2 + o x 3 .
¡ ¢
0
– Calculer un dl4 (0) de (1 + sin(x))x .
3
L’expression est égale à exp[x ln(1 + sin(x))]. Un dl3 (0) de sin(x) est sin(x) = x − x6 + o x 3 , et ln(1 + u) =
¡ ¢

3 2 3 ¡ 0¢
u − u2 + u3 + o u 3 , on obtient par composition, ln(1 + sin(x)) = x − x2 + x6 + o x 3 et donc x ln(1 +
¡ ¢
0
3 4 2 ¡ ¢ 0
sin(x)) = x 2 − x2 + x6 + o x 4 . On a également exp(v) = 1 + v + v2 + o v 2 , d’où par composition :
¡ ¢
0 0
3 4
exp[x ln(1 + sin(x))] = 1 + x 2 − x2 + 2 x3 + o x 4 .
¡ ¢
NT
0
– Calculer un dl5 (0) de tan(x) :
3
x5
1
. sin(x) = x − x6 + 120 1
+ o x 5 . D’autre part cos(x) 1
¡ ¢
On a tan(x) = sin(x) × cos(x) = 1+u avec u = cos(x) − 1,
0
2
x4
comme u → 0, on pourra donc composer, cos(x) − 1 = − x2 + 24 1
+ o x 5 et 1+u = 1 − u + u 2 + o u 2 , ce
¡ ¢ ¡ ¢
0 0
2
x4
1
= 1 + x2 + 5 24 + o x 5 . On effectue ensuite le produit avec le dl de sin(x), ce qui donne
¡ ¢
qui donne : cos(x)
0
3 5
tan(x) = x + x3 + 2x
¡ 5¢
15 + o x .
0
Autre méthode : on a tan(x) = 0 + o (1), d’où 1 + tan(x)2 = 1 + o (1), en intégrant, on obtient tan(x) =
0 0
x +o (x) = x ×(1+o (1)). Puis on recommence : 1+tan(x)2 = x 2 ×(1+o (1))2 = x 2 ×(1+o (1)) = 1+x 2 +o x 2
¡ ¢
0 0 0 0
3 2 2 ¡ 0¢
et donc tan(x) = x + x3 + o x 3 = x × (1 + x3 + o x 2 ), mais alors 1 + tan(x)2 = x 2 × (1 + x3 + o x 2 )2 =
¡ ¢ ¡ ¢
0 0 0
2 4 3 5
x 2 × (1 + 2x3 + o x 2 ) = 1 + x 2 + 2x3 + o x 4 , et donc tan(x) = x + x3 + 2x
¡ ¢ ¡ ¢ ¡ 5¢
+ o x ... etc
MO

0 0 15 0

III APPLICATIONS

1) Recherche d’une limite


2
ZExemple : Soit f (x) = xx(x−1)
−1−2x ln(x)
ln(x) , calculer lim f (x). x→1
Il s’agit bien d’une forme indéterminée, on ramène le problème en 0 en posant u = x − 1, ce qui donne
2 2
f (x) = u +2u−2(1−u) ln(1+u)
u(1+u) ln(1+u) ∼ u +2u−2(1+u)
u2
ln(1+u)
. On cherche alors un dl2 (0) du numérateur, ce qui donne
¡ 2¢ 0
o u , on a donc f (x) = f (1 + u) ∼ o (1) et donc la limite cherchée est nulle.
0 0 0

x
FExercice 14.3 Calculer lim x 2 ln( 1+x ) + x − 1.
x→+∞

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 136 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 14 : Développements limités

2) Étude locale d’une fonction au voisinage d’un point


Si f a un dl2 (a), f (x) = a 0 + a 1 (x − a) + a 2 (x − a)2 + o (x − a)2 , alors on voit que lim f (x) = a 0 , on peut
¡ ¢
a x→a
donc prolonger f par continuité en a, en posant f (a) = a 0 (si ce n’est pas déjà fait !). Le taux d’accroissement
f (x)−a
en a s’écrit : x−a 0 = a 1 + o (1), donc ce prolongement est dérivable en a et f 0 (a) = a 1 . L’équation de la

NE
a
tangente à la courbe au point d’abscisse a est y = a 1 (x − a) + a 0 , et l’étude de la position courbe-tangente se
fait en étudiant le signe de f (x) − [a 0 + a 1 (x − a)] = (x − a)2 [a 2 + o (1)], d’où la discussion :
a
– si a 2 > 0 : alors au voisinage de a on a [a 2 + o (1)] > 0 et donc f (x) > a 0 + a 1 (x − a), i.e. la courbe est
a
au-dessus de sa tangente au voisinage de a.
– si a 2 < 0 : c’est la situation inverse.
– si a 2 = 0 : on ne peut rien dire, il faut aller plus loin dans le développement limité. Dans la pratique on
s’arrête au premier terme non nul de degré supérieur ou égal à 2.

x ln(x)
FExercice 14.4 Soit f (x) = x 2 −1
, effecter une étude locale en a = 1.

3) Étude locale au voisinage de l’infini

AIG
Si f est définie au voisinage de ∞ et admet une limite infinie, alors on peut étudier la branche infinie
f (x)
de f de la manière suivante : on pose g (x) = x , on se ramène en 0 en posant u = 1/x, ce qui donne
g (x) = g (1/u) = u f (1/u), et on cherche un dl2 (0) de cette expression : u f (1/u) = a 0 + a 1 u + a 2 u 2 + o u 2 ,
¡ ¢
0
ce qui donne en revenant à x, f (x) = a 0 x + a 1 + a 2 x1 + o x1 , d’où lim f (x) − [a 0 x + a 1 ] = 0, donc la droite
¡ ¢
∞ x→∞
d’équation y = a 0 x + a 1 est asymptote à C f au voisinage de ∞. Pour la position courbe-asymptote, on étudie
la différence : f (x) − [a 0 x + a 1 ] = x1 [a 2 + o (1)], l’étude du signe se fait comme dans le paragraphe précédent si

a 2 6= 0. Lorsque a 2 = 0 il faut aller plus loin dans le développement pour avoir le signe.
f (x)
Remarque 14.4 – Dans la pratique, on n’est pas obligé de passer par la fonction x , en travaillant directement
sur f (x).
q
3 x4
FExercice 14.5 f (x) = x−3 au voisinage de +∞.
NT
4) Recherche d’un équivalent

Théorème 14.8
Si f admet un dln (a), alors f (x) est équivalente en a au terme non nul de plus bas degré de la partie
régulière, s’il existe.

Preuve : Soit a p (x − a)p le premier terme non nul, on a alors f (x) = a p (x − a)p + o ((x − a)p ) = (x − a)p [1 + o (1)], ce qui
a a
prouve l’équivalence annoncée. 
Remarque 14.5 –
– En se ramenant en 0, on peut également trouver un équivalent d’une fonction en ±∞.
– Avec ce théorème, on retrouve tous les équivalents dits « classiques ».
MO

FExercice 14.6 Équivalent en 0 de la fonction f (x) = arcsin(x)


p
2
3x
− 3−2x 2.
1−x

IV SOLUTION DES EXERCICES

Solution 14.1 Il suffit de le tronquer au degré n, la somme des termes suivants est un o (x n ).
0

2
qui un dl2 (0) de f , on en déduit que f est dérivable en 0 avec f 0 (0) = 0. Pour x 6= 0, on a
¡ ¢
Solution 14.2 On a f (x) = o x
0
f 0 (x)− f 0 (0)
f 0 (x) = 2x 2 sin( x1 ) − x cos( x1 ), d’où x−0 = 2x sin( x1 ) − cos( x1 ), or cette fonction n’a pas de limite en 0 car si on prend
u n = nπ , alors cos( un ) = (−1) n’a pas de limite, alors que 2u n sin( u1n ) → 0. Donc f n’est pas deux fois dérivable en 0.
1 1 n

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 137 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 14 : Développements limités

Solution 14.3 Il s’agit bien d’une forme indéterminée, on se ramène en 0 en posant u = 1/x, on a alors f (x) = f ( u1 ) =
−1
u2
ln(1 + u) + u1 − 1, ce qui donne f ( u1 ) = −1 −1
2 + o (1), et donc la limite cherchée est 2 .
0

2
Solution 14.4 On pose u = x − 1 d’où f (x) = f (1 + u) = ln(1+u)
u
1
(1 + u) 2[1+u/2] , le calcul donne f (x) = f (1 + u) = 12 − u12 +

NE
o u . On en déduit que f se prolonge par continuité en 1 en posant f (1) = 21 , ce prolongement est dérivable en 1 et
¡ 2¢
0
f 0 (1) = 0, de plus, au voisinage de 1, la courbe est en-dessous de la tangente. On a donc un maximum local en 1.

Solution 14.5 On voit que f est définie au voisinage de +∞ et que f (x) ∼ x, il y a donc une branche infinie de
+∞
direction asymptotique y = x. Posons u = x1 , on a alors f (x) = f ( u1 ) = u1 (1 − 3u)−1/3 = u1 (1 + u + 2u 2 + o u 2 ), d’où
¡ ¢
0
f (x) = x + 1 + x2 + o x1 . Donc la droite d’équation y = x + 1 est asymptote à la courbe de f en +∞, et au voisinage de
¡ ¢
+∞
+∞ la courbe de f est au-dessus.

2 4 3 5
p 1 = 1 + x2 + 3x8 + o x 5 , en intégrant on obtient arcsin(x) = x + x6 + 3x x5
¡ ¢ ¡ ¢
Solution 14.6 On a 40 + o , en effectuant le
1−x 2 0 0
3 5 2x 2 4
produit, il vient que : arcsin(x) = x + 2x3 + 8x 3x 1
+ 4x9 + o x 4 ] =
¡ 5¢ ¡ ¢
15 + o x . D’un autre côté, on a 3−2x 2 = x 1−2x 2 /3 = x[1 + 3
p
1−x 2 0 0
3 5 5 5
x + 2x3 + 4x9 + o x 5 . Finalement, on a f (x) = 4x + o x 5 , et donc f (x) ∼ 4x
¡ ¢ ¡ ¢
45 .
0 45

AIG
0 0

NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 138 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 15

Structures algébriques

Sommaire
I Lois de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

AIG
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
2) Élément neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
II Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
2) Sous-groupes d’un groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
III Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
1) Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
2) Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

I LOIS DE COMPOSITION INTERNE

1) Définitions
NT
Définition 15.1 (loi de composition interne)
Soit E un ensemble non vide. On appelle loi de composition interne (ou lci) dans E toute application
de E × E vers E. L’image d’un couple (x, y) ∈ E2 par une telle application est en général noté sous la
forme d’une opération avec un symbole : x + y ou x × y ou x ∗ y ou x.y ou xTy, ... Et on écrira (E, ∗)
pour dire que l’ensemble E est muni d’une lci notée ∗.

ZExemples :
– L’addition et la multiplication des nombres sont des lci dans N, dans Z, dans Q, dans R, dans C mais
pas dans [−2; 2] par exemple.
– L’addition et la multiplication des fonctions dans (F (A, C) sont des lci (A étant un ensemble non vide).
En particulier l’addition et la multiplication des suites sont des lci dans F (N, C).
MO

– Soit E un ensemble non vide, dans F (E, E), la composition des applications (dite loi ◦) est une lci.

x+y
FExercice 15.1 Soit E =] − 1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer que l’on définit ainsi une lci dans E.

Définition 15.2 (associativité, commutativité)


Soit (E, ∗) un ensemble muni d’une lci.
• On dit que la loi est associative lorsque : ∀x, y, z ∈ E, x ∗ (y ∗ z) = (x ∗ y) ∗ z.
• On dit que deux éléments x et y de E commutent lorsque x∗y = y ∗x. Si tous les éléments commutent
deux à deux, non dit que la lci est commutative.

ZExemples :
– L’addition et la multiplication des nombres dans N, Z, Q, R, C, sont associatives et commutatives.
– L’addition et la multiplication des fonctions dans F (A, C) (A étant un ensemble non vide) sont associa-
tives et commutatives.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 139 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Structure de groupe Chapitre 15 : Structures algébriques

– Dans (F (E, E), ◦), la loi est associative mais non commutative en général.
– Dans (R, ∗) avec x ∗ y = x − y pour tout x, y ∈ R, la loi est une lci non commutative (2 ∗ 3 = −1 mais
3 ∗ 2 = 1) et non associative ( (1 ∗ 2) ∗ 3 = (−1) ∗ 3 = −4 et 1 ∗ (2 ∗ 3) = 1 ∗ (−1) = 2).

x+y
FExercice 15.2 Soit E =]−1; 1[. Pour x, y ∈ E, on pose x∗y = 1+x y . Montrer que l’opération ∗ est associative et commutative.

NE
2) Élément neutre

Définition 15.3
Soit (E, ∗) un ensemble muni d’une lci et soit e ∈ E, on dit que e est un élément neutre pour la loi
∗ lorsque ∀x ∈ E, x ∗ e = e ∗ x = x. Dans le cas où l’opération est notée additivement, l’élément
neutre (s’il existe) est appelé noté en général 0E (zéro de E). Dans le cas où l’opération est notée
multiplicativement, l’élément neutre (s’il existe) est noté en général 1E (un de E).

ZExemples :

AIG
– L’élément neutre de l’addition des nombres est 0. Celui de la multiplication des nombres est 1.
– L’élément neutre de l’addition des fonctions dans (F (A, C) est la fonction constamment nulle. Celui de
la multiplication est la fonction constante x 7→ 1.
– Dans (F (E, E), ◦), idE est élément neutre.
– Dans (R, ∗) avec x ∗ y = x − y il y a un élément neutre à droite qui est 0 car ∀x ∈ R, x − 0 = x, mais il n’y
a pas d’élément neutre à gauche.

x+y
FExercice 15.3 Soit E =]−1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer qu’il y a un élément neutre pour cette opération.
Remarque 15.1 – Si (E, ∗) possède un élément neutre, alors celui-ci est unique. En effet, si on a deux éléments
neutre e et e 0 , alors e ∗ e 0 = e car e 0 est neutre, et e ∗ e 0 = e 0 car e est neutre, d’où e = e 0 .

Définition 15.4
Soit (E, ∗) un ensemble muni d’une lci possédant un élément neutre e. On dit que x ∈ E est symétri-
sable lorsqu’il existe x 0 ∈ E tel que x ∗ x 0 = x 0 ∗ x = e. Si c’est le cas, on dit que x 0 est un symétrique
NT
de x. Dans le cas où l’opération est notée additivement, le symétrique de x est appelé opposé de x
et noté −x. Dans le cas où l’opération est notée multiplicativement, le symétrique de x est appelé
inverse de x et noté x −1 .

ZExemples :
– Dans (C, +), (R, +), (Q, +) et (Z, +), chaque élément possède un opposé, mais pas dans (N, +).
– Dans (C∗ , ×), (R∗ , ×), (Q∗ , ×), chaque élément possède un inverse, mais pas dans (Z∗ , ×).
– Dans (F (A, C), +) chaque fonction possède un opposé.
– Dans (F (A, C), ×), seules les fonctions qui ne s’annulent jamais ont un inverse.
– Dans (F (E, E), ◦), un élément f de F (E, E) a un symétrique si et seulement si il existe g dans F (E, E)
telle que f ◦ g = g ◦ f = idE , ce qui équivaut à dire que f est une bijection, auquel cas le symétrique de
MO

f est la bijection réciproque f −1 .

Théorème 15.1
Soit (E, ∗) un ensemble muni d’une lci associative et possédant un élément neutre e. Si un élément x
possède un symétrique x 0 dans E, alors celui-ci est unique.

Preuve : Si x 0 et x 00 sont deux symétriques de x, alors x 0 = x 0 ∗ e = x 0 ∗ (x ∗ x 00 ) = (x 0 ∗ x) ∗ x 00 = e ∗ x 00 = x 00 . 

x+y
FExercice 15.4 Soit E =] − 1; 1[. Pour x, y ∈ E, on pose x ∗ y = 1+x y . Montrer que chaque élément a un symétrique dans E.

II STRUCTURE DE GROUPE

1) Définitions

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 140 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Structure de groupe Chapitre 15 : Structures algébriques

Définition 15.5
Un groupe est un ensemble non vide G muni d’une opération ∗ (ou loi de composition) qui vérifie les
propriétés suivantes :
– elle doit être interne : ∀ x, y ∈ G, x ∗ y ∈ G.

NE
– elle doit être associative : ∀ x, y, z ∈ G, x ∗ (y ∗ z) = (x ∗ y) ∗ z.
– elle doit posséder un élément neutre : ∃ e ∈ G, ∀ x ∈ G, e ∗ x = x ∗ e = x. Si la loi est une addition
l’élément neutre sera noté 0G et on parlera de groupe additif. Si la loi est une multiplication,
l’élément neutre sera noté 1G et on parlera de groupe multiplicatif. Dans le cas général l’élément
neutre est souvent noté e G .
– tout élément de G doit avoir un symétrique dans G : ∀ x ∈ G, ∃ x 0 ∈ G, x ∗ x 0 = x 0 ∗ x = e G . En notation
additive, le symétrique de x est appelé opposé de x et noté −x, en notation multiplicative on
l’appelle inverse de x et on le note x −1 .
Lorsque toutes ces conditions sont remplies, on dit (G, ∗) est un groupe. Si en plus la loi ∗ est commu-
tative (∀ x, y ∈ G, x ∗ y = y ∗ x), alors on dit que (G, ∗) est un groupe abélien (ou groupe commutatif).

AIG
ZExemples :
– (Z, +), (Q, +), (R, +), (C, +), (Q∗ , ×), (R∗ , ×), (C∗ , ×) sont des groupes abéliens.
– (N, +) et (Z∗ , ×) ne sont pas des groupes.
– (F (I, C), +) est un groupe abélien pour l’addition des fonctions¯ (ou des suites si I = N).
© ª
– Si E est un ensemble non vide, on note S E = f : E → E f est bijective , alors (S E , ◦) est un groupe (non
¯
abélien en général), on l’appelle groupe des permutations de E.

À retenir : Règles de calculs


Soit (G, ∗) un groupe :
– Soient x, y ∈ G, le symétrique de x ∗ y est : (x ∗ y)0 = y 0 ∗ x 0 .
– Soient a, b ∈ G, l’équation a ∗ x = b admet comme unique solution dans G, x = a 0 ∗ b.
– Soient a, b, c ∈ G, si a ∗ b = a ∗ c alors b = c (régularité à gauche).
– Soient a, b, c ∈ G, si b ∗ a = c ∗ a alors b = c (régularité à droite).
NT
FExercice 15.5 Soit n > 2, dans Kn (K = R ou K = C) on définit l’addition :
(x 1 , . . . , x n ) + (y 1 , . . . , y n ) = (x 1 + y 1 , . . . , x n + y n ).
Montrer que (Kn , +) est un groupe abélien.

2) Sous-groupes d’un groupe

Définition 15.6
Soit (G, .) un groupe et H un ensemble, on dit que H est un sous-groupe de (G, .) lorsque :
H ⊂ G; H 6= ∅ et ∀ x, y ∈ H, x.y ∈ H, x −1 ∈ H.
MO

ZExemples :
– {e} et G sont des sous-groupes de (G, .), ils sont appelés sous-groupes triviaux de (G, .).
– Si (H, .) est un groupe inclus dans un groupe (G, .) pour la même loi, alors H est un sous-groupe de G,
car on vérifie facilement que l’élément neutre de G est forcément égal à l’élément neutre de H, ce qui
entraîne pour x ∈ H, que son symétrique dans G et son symétrique dans H sont les mêmes.
– (U, ×) et (Un , ×) sont des sous-groupes de (C∗ , ×).
– L’ensemble des fonctions définies sur R et 2π-périodiques est un groupe additif, car c’est un sous-
groupe de (F (R, R), +).
– L’ensemble des entiers pairs est un groupe additif, car c’est un sous-groupe de (Z, +).
– Z[i ] = {a + i b | a, b ∈ Z} est un sous-groupe de (C, +).
Remarque 15.2 – Si H est un sous-groupe de (G, .) alors (H, .) lui-même est un groupe (de même élément neutre
que G). Ceci est souvent utilisé dans la pratique pour montrer qu’un ensemble est un groupe pour une loi, on
essaie de montrer (quand c’est possible) que c’est un sous-groupe d’un groupe connu pour cette même loi.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 141 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Anneaux et corps Chapitre 15 : Structures algébriques

Théorème 15.2 (sous-groupes de (Z, +))


H est un sous-groupe de (Z, +) si et seulement si il existe un entier n tel que H = n Z (ensemble des
multiples entiers de n). L’entier n est unique au signe près et si H 6= {0}, alors n = min H∗+ .

NE
Preuve : Il est facile de vérifier que pour n ∈ Z, nZ est un sous-groupe de Z. Si H = {0}, alors on peut prendre n = 0 et
c’est le seul entier qui convienne. Si H 6= {0}, posons, n = min H∗+ (n existe dans N, c’est la propriété fondamentale de
N), on a n ∈ H, comme H est un sous-groupe de (Z, +), tout multiple de n est dans H, i.e. nZ ⊂ H. Soit k ∈ H effectuons
la division euclidienne de k par n (n 6= 0) : k = nq + r avec 0 6 r < n. On a donc r = k − nq ∈ H+ , si r 6= 0 alors r > n
ce qui est absurde, donc r = 0 ce qui donne k = nq ∈ nZ, finalement H = nZ. Si on a aussi H = mZ avec m ∈ N, alors
nZ = mZ, donc n et m se divisent mutuellement dans N, donc n = m. 

Théorème 15.3 (sous-groupes de (R, +))


Soit G un sous-groupe de (R, +) non réduit à {0}, alors soit G est dense dans R, soit G est de la forme
G = αZ avec α > 0 réel.

Preuve : Il existe x ∈ G non nul, on a donc x et −x dans G, par conséquent G∗+ est non vide (et minoré par 0), soit
α = inf G∗+ .

AIG
– Si α 6= 0, alors α > 0 : supposons α ∉ G, alors on peut trouver deux éléments de G, g 1 et g 2 tels que α < g 1 < g 2 < 2α,
mais¥ alors 0 < g 2 − g 1 < α avec g 2 − g 1 ∈ G∗+ : absurde, donc α ∈ G. On en déduit alors que αZ ⊂ G. Soit g ∈ G et

n = α , alors nα 6 g < ((n + 1)α et donc 0 6 g − nα < α, on en déduit que g − nα est nul car c’est un élément
positif de G, d’où G = αZ. j k
x
– Si α = 0 : soit x ∈ R et ε > 0, il existe g ∈ G tel que 0 < g < ε, soit n = g alors ng 6 x < ng + g < ng + ε, donc
|x − ng | < ε avec ng ∈ G, donc G est dense dans R.


a
FExercice 15.6 Soient a, b ∈ R∗ , montrer que G = aZ + bZ est un sous-groupe de (R, +) dense dans R si et seulement si b
est irrationnel. En déduire que {cos(n) | n ∈ N} est dense dans [−1; 1].

Théorème 15.4 (propriétés des sous-groupes)


• Soit H ⊂ (G, ∗) non vide, alors H est un sous-groupe de (G, ∗) si et seulement si ∀x, y ∈ H, x ∗ y −1 ∈ H.
• Une intersection quelconque de sous-groupes de (G, ∗), est un sous-groupe de (G, ∗), mais ceci n’est
NT
pas vrai pour la réunion.

Preuve : Le premier point est laissé en exercice.


T
Soit (Hi )i ∈I une famille de sous-groupes de (G, ∗), posons K = Hi , ce sont des parties de G donc l’intersection
i ∈I
aussi : K ⊂ G. Tous les sous-groupes Hi contiennent l’élément neutre e de G, donc l’intersection aussi et par conséquent
K est non vide. Si x, y ∈ K, alors x, y sont dans tous les sous-groupes Hi , donc x ∗ y −1 aussi, par conséquent x ∗ y −1 est
dans l’intersection, i.e. x ∗ y −1 ∈ K, K est donc un sous-groupe de (G, ∗).
Donnons un contre-exemple pour la réunion : 2Z ∪ 3Z n’est pas un sous-groupe de (Z, +), car 2 et 3 sont dans la
réunion, mais pas 2 + 3 = 5, cet ensemble n’est donc pas stable pour l’addition (les autres conditions sont néanmoins
remplies).

MO

III ANNEAUX ET CORPS

1) Anneaux

Définition 15.7
Un anneau est un ensemble A muni de deux lois de composition internes : une addition et une
multiplication, qui vérifient :
– (A, +) est un groupe abélien.
– La multiplication :
• est associative,
• admet un élément neutre (noté 1).
• est distributive sur l’addition.
Si de plus la multiplication est commutative, on dit que (A, +, ×) est un anneau commutatif.

ZExemples :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 142 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Anneaux et corps Chapitre 15 : Structures algébriques

– (Z, +, ×) est un anneau commutatif mais ce n’est pas un corps.


– (F (N, C), +, ×) est un anneau commutatif.
– Si E est un ensemble non vide, l’ensemble des fonctions de E dans C muni des opérations usuelles sur
les fonctions, est un anneau commutatif, i.e. (F (E, C), +, ×) est un anneau commutatif.
– Plus généralement, si (A, +, ×) est un anneau et E est un ensemble non vide, alors (F (E, A), +, ×) est un

NE
anneau.

À retenir : Règles de calculs dans un anneau


Soit (A, +, ×) un anneau :
– ∀ x ∈ A, x × 0 = 0 × x = 0.
– ∀ x, y ∈ A, −(x × y) = (−x) × y = x × (−y).
– ∀ x, y ∈ A, si x et y sont inversibles (pour la multiplication), alors x × y est inversible est (x × y)−1 =
y −1 × x −1 .
– Si x ∈ A et p ∈ Z alors on note p.x = 0 si p = 0, p.x = x +· · ·+x, p fois si p > 0, et p.x = (−x)+· · ·+(−x),
−p fois si p < 0. On note également x p = 1A si p = 0, x p = x × · · · × x, p fois si p > 0, et x p =
x −1 × · · · × x −1 , −p fois si p < 0 et x inversible.

AIG
– ∀ x, y ∈ A, si x et y commutent (x × y = y × x), alors on peut utiliser la formule du binôme, c’est à
dire : ∀ n ∈ N, (x + y)n = nk=0 nk .x k × y n−k = nk=0 nk .x n−k × y k .
P ¡ ¢ P ¡ ¢

– Si x, y ∈ A avec x × y = y × x alors ∀n ∈ N∗ : x n − y n = (x − y) n−1 a k b n−1−k .


P
k=0

Pn Pn
FExercice 15.7 Si x ∈ A, simplifier (1 − x) k=0
x k et (1 + x) k=0
(−1)k x k .

Théorème 15.5 (groupe des inversibles)


Soit (A, +, ×) un anneau, l’ensemble des inversibles de A est noté U(A), cet ensemble est un groupe
multiplicatif. (U(A), ×) est appelé groupe des unités de A.

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemples :
– U(Z) = {±1}.
NT
– Si A est l’anneau des suites complexes, alors U(A) est l’ensemble des suites complexes qui ne s’annulent
pas.

Définition 15.8 (anneau intègre)


Soit (A, +, ×) un anneau. On dit que A est un anneau intègre lorsque le produit de deux éléments non
nuls est toujours non nul, sinon on dit que A est un anneau non intègre.

Remarque 15.3 –
– Dans un anneau intègre, un produit de facteurs est nul si et seulement si au moins un des facteurs est
nul.
– (Z, +, ×) est un anneau intègre.
MO

– L’ensemble des suites complexes est un anneau non intègre.

Définition 15.9 (sous-anneaux d’un anneau)


Soit (A, +, ×) un anneau, et soit H un ensemble, on dit que H est un sous-anneau de A lorsque :
– H ⊂ A.
– 1A ∈ H.
– ∀ x, y ∈ H, x + y ∈ H, x × y ∈ H et −x ∈ H.
Si c’est le cas, alors (H, +, ×) est lui-même un anneau.

ZExemple : Z[i ] est un sous-anneau de (C, +, ×).

Théorème 15.6
Une intersection de sous-anneaux de (A, +, ×) est un sous-anneau de A.

Preuve : Celle-ci est simple et laissée en exercice. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 143 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 15 : Structures algébriques

2) Corps

Définition 15.10
Un corps est un ensemble E muni de deux opérations (ou deux lois de composition), une addition et
une multiplication. Ces deux opérations doivent vérifier les propriétés suivantes :

NE
– (E, +, ×) est un anneau.
– U(E) = E \ {0}, i.e. : ∀ x ∈ E \ {0}, x a un inverse dans E. Si de plus la multiplication est commutative,
on dit que (E, +, ×) est un corps commutatif.

ZExemples :
– (R, +, ×), (Q, +, ×), (C, +, ×) sont des corps commutatifs, mais (Z, +, ×) n’est pas un corps.
– Il existe des corps non commutatifs (corps des quaternions).
Remarque 15.4 –
– Un corps est toujours intègre.
– Les règles de calculs sont les mêmes que dans un anneau.

AIG
Définition 15.11 (sous-corps d’un corps)
Soit (K, +, ×) un corps et soit H un ensemble, on dit que H est un sous-corps de K lorsque :
– H ⊂ K.
– 1K ∈ H.
– ∀ x, y ∈ H, x + y ∈ H, −x ∈ H et x × y ∈ H.
– ∀ x ∈ H \ {0}, x −1 ∈ H.
Si c’est le cas alors (H, +, ×) est lui-même un corps.

ZExemples :
– Q est un sous-corps de R qui est lui-même un sous-corps de C.
– Q[ip] = {a + i b /pa, b ∈ Q} est un sous-corps de (C, +, ×).
– Q[ 2] = {a + b 2 / a, b ∈ Q} est un sous-corps de R.
NT
IV SOLUTION DES EXERCICES
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 144 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 16

Polynômes

Sommaire
I Ensemble des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
2) Opérations sur les polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
II Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
1) Degré d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
2) Algorithme de la division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
3) Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
III Fonctions polynomiales, racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
1) Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
2) Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
3) Corps algébriquement clos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
4) Relations racines coefficients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
IV Formule de Taylor des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
1) Dérivation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
2) Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
NT
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

Dans tout ce chapitre, K désigne un corps inclus dans C.

I ENSEMBLE DES POLYNÔMES

1) Définition

Définition 16.1
On appelle polynôme à coefficients dans K toute somme de la forme : P = a 0 + a 1 X + · · · + a n X n , où
n ∈ N, a 0 , . . . , a n ∈ K, et où X est un symbole appelé indéterminée. Les a i sont appelés coefficients du
MO

polynôme. Si tous les coefficients sont nuls, on dit que P est le polynôme nul. Si tous les coefficients
sont nuls sauf un, le polynôme est appelé monôme. Si tous les coefficients sont nuls à partir de l’indice
1, on dit que le polynôme est constant. L’ensemble des polynômes à coefficients dans K est noté K[X].

a k X k avec la convention que les


P
Remarque 16.1 – Il est commode de noter les polynômes sous la forme
k∈N
coefficients sont tous nuls à partir d’un certain rang. Ainsi on peut dire que les coefficients d’un polynôme
forment une suite (a k ) d’éléments de K, nulle à partir d’un certain rang.

Définition 16.2 (égalité de deux polynômes)


ak Xk = b k X k ⇐⇒ ∀k ∈ N, a k = b k (mêmes coefficients).
P P
On pose :
k∈N k∈N

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 145 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Division euclidienne Chapitre 16 : Polynômes

2) Opérations sur les polynômes


a k X k et Q = b k X k deux polynômes. Il existe deux entiers N et N0 tels que : n > N =⇒
P P
Soient P =
k∈N k∈N
a n = 0, et n > N =⇒ b n = 0, par conséquent si n > max(N, N0 ), alors a n + b n = 0. Si λ ∈ K, alors n > N =⇒
0

λa n = 0.

NE
Définition 16.3 (Somme et produit par un scalaire)
(a k +b k )X k , et pour λ ∈ K, on pose λ.P = λa k X k . On définit ainsi une addition
P P
On pose : P +Q =
k∈N k∈N
interne dans K[X] et un produit par les scalaires.

Propriétés : (K[X], +, .) est un K-espace vectoriel.


n
Avec les notations précédentes, pour n ∈ N, on pose c n = a k b n−k , si n > N + N0 − 1, alors il est facile de
P
k=0
voir que pour toute valeur de k dans J0 ; n K, le produit a k b n−k est nul, et donc c n est nul.

Définition 16.4 (Produit de deux polynômes)

AIG
n
c n X n où la suite (c n ) est définie par : c n =
P P
On pose P × Q = a k b n−k . On définit ainsi une
n∈N k=0
multiplication interne dans K[X].

n
P P
Remarque 16.2 – On a aussi c n = a n−k b k = ap bq .
k=0 p+q=n
Propriétés : on vérifie que cette multiplication :
– est commutative,
– est associative,
– possède un élément neutre qui est le polynôme constant 1.
– est distributive sur l’addition.

Par conséquent : (K[X], +, ×)est un anneau.


NT
On a également : ∀P, Q ∈ K[X], ∀λ ∈ K, λ.(P × Q) = (λ.P) × Q = P × (λ.Q).

À retenir
an Xn = b n X n ⇐⇒ ∀ n ∈ N, a n = b n .
P P
n∈N
µ ¶ n∈N
µ ¶
n n
(a n + b n )X n .
P P P
an X + bn X =
µ n∈N ¶ µ n∈N ¶ n∈N
µ ¶
an Xn × bn Xn = a p b q Xn .
P P P P
n∈N n∈N n∈N p+q=n
a n X n ∈ K ⇐⇒ ∀ n > 1, a n = 0.
P
n∈N
MO

II DIVISION EUCLIDIENNE

1) Degré d’un polynôme


Soit P ∈ K[X], si P = 0 alors tous les coefficients de P sont nuls, si P 6= 0, alors l’ensemble des indices des
coefficients non nuls de P n’est pas vide, et il est majoré (les coefficients sont nuls à partir d’un certain rang),
donc cet ensemble admet un plus grand élément.

Définition 16.5
Soit P ∈ K[X], si P = 0 alors on pose deg(P) = −∞, sinon on pose deg(P) = max{k ∈ N / a k 6= 0}. Si P est
non nul de degré n, alors le coefficient a n est appelé coefficient dominant de P, si ce coefficient vaut
1, alors on dit que le polynôme P est unitaire (ou normalisé).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 146 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Division euclidienne Chapitre 16 : Polynômes
Remarque 16.3 – Caractérisations du polynôme nul et des polynômes constants non nuls
– P = 0 ⇐⇒ deg(P) = −∞.
– P ∈ K∗ ⇐⇒ deg(P) = 0.

Théorème 16.1

NE
Soient P, Q ∈ K[X], deg(P + Q) 6 max(deg(P), deg(Q)), et deg(P × Q) = deg(P) + deg(Q).

Preuve : Si l’un des deux polynômes est nul, alors le théorème est évident. Supposons les deux polynômes non nuls : P =
a n X n et Q = b n X n , si a n +b n 6= 0 alors a n 6= 0 ou b n 6= 0, donc n 6 deg(P) ou n 6 deg(Q) i.e. n 6 max(deg(P), deg(Q)),
P P
n n
ce qui prouve le premier résultat.
P × Q = c n X n où c n = a p b q . Posons N = deg(P) et N0 = deg(Q), il est clair que c N+N0 = a N b N0 6= 0, d’autre
P P
n p+q=n
part si n > N + N0 , alors si p + q = n on a p > N ou q > N0 donc a p b q = 0 ce qui entraîne c n = 0. Par conséquent,
deg(P × Q) = N + N0 = deg(P) + deg(Q). 
Remarque 16.4 – Lorsque P et Q ont des degrés distincts, ou bien lorsque P et Q ont même degré mais des
coefficients dominants non opposés, alors deg(P + Q) = max(deg(P), deg(Q)).

AIG
Théorème 16.2
L’anneau (K[X], +, ×) est un anneau intègre, et seuls les polynômes constants non nuls ont un inverse
dans K[X].

Preuve : Si P et Q sont deux polynômes non nuls, alors deg(P × Q) = deg(P) + deg(Q) ∈ N, donc P × Q 6= 0, ce qui prouve
que K[X] est intègre.
Si P est inversible dans K[X], alors il existe un polynôme Q tel que P × Q = 1, d’où deg(P) + deg(Q) = 0, ce qui
entraîne deg(P) = deg(Q) = 0 et donc P ∈ K∗ . La réciproque est évidente. 
Notation : Soit n ∈ N, on note Kn [X] l’ensemble des polynômes de degré inférieur ou égal à n :

Kn [X] = {P ∈ K[X] / deg(P) 6 n}

2) Algorithme de la division euclidienne


NT
Théorème 16.3 (de la division euclidienne)
Soient A et B deux polynômes avec B 6= 0, alors il existe deux polynômes Q et R uniques tels que :
A = B × Q + R avec deg(R) < deg(B)

Preuve : Pour l’existence : si deg(A) < deg(B), alors on peut prendre Q = 0 et R = A ; si deg(A) = deg(B) = d : soit a d
a
le coefficient dominant de A, et b d celui de B, posons Q = b d , alors le coefficient dominant de B × Q est a d , donc
d
deg(A − B × Q) < d = deg(B), on peut donc prendre R = A − B × Q. Supposons maintenant l’existence démontrée
a
pour deg(A) 6 n avec n > d , et soit A de degré n + 1, notons a n+1 son coefficient dominant, soit Q0 = bn+1 X n+1−d ,
d
alors deg(B × Q0 ) = n + 1 et le coefficient dominant de B × Q0 est a n+1 , donc deg(A − B × Q0 ) 6 n, d’après l’hypothèse
de récurrence, il existe deux polynômes Q00 et R tels que A − B × Q0 = B × Q" + R avec deg(R) < deg(B), mais alors
A = B × (Q0 + Q00 ) + R, ce qui prouve l’existence au rang n + 1.
Pour l’unicité : supposons que A = B×Q+R = B×Q0 +R0 avec deg(R) < deg(B) et deg(R0 ) < deg(B), alors B×(Q−Q0 ) =
MO

0
R − R, d’où deg(B) + deg(Q − Q0 ) = deg(R0 − R) < deg(B), comme deg(B) > 0, on a nécessairement deg(Q − Q0 ) = −∞ =
deg(R0 − R), et donc Q = Q0 , R = R0 . 
Remarque 16.5 – La démonstration est constructive, en ce sens qu’elle donne un algorithme de calcul du
quotient (Q) et du reste (R).
ZExemple : Avec A = X4 + aX2 + bX + c et B = X2 + X + 1, on obtient le quotient Q = X2 − X + a et le reste
R = (b − a + 1)X + c − a. On peut vérifier que A = B × (X 2 − X + a) + (b − a + 1)X + c − a.

3) Divisibilité

Définition 16.6
Soient A, B ∈ K[X], on dit que B divise A lorsqu’il existe un polynôme Q tel que A = Q × B, notation B|A.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 147 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions polynomiales, racines Chapitre 16 : Polynômes
Remarque 16.6 – On définit ainsi une relation dans K[X], on peut vérifier que celle - ci est réflexive, transitive,
mais elle n’est ni symétrique, ni antisymétrique. Plus précisément, B|A et A|B ssi il existe λ ∈ K∗ tel que A = λB
(on dit que A et B sont associés).

Théorème 16.4

NE
– Si B 6= 0, alors B|A si et seulement si le reste de la division euclidienne de A par B est nul.
– Si A 6= 0 et B|A, alors deg(B) 6 deg(A).
– Si B|A et B|C, alors ∀ U, V ∈ K[X], B|A × U + C × V.

Preuve : Celle-ci est simple et laissée en exercice. 


Remarque 16.7 – Il découle du dernier point que si B|A − C et B|D − E, alors B|(A + D) − (C + E) et B|AD − EC,
en particulier, si B|A − C alors ∀ n ∈ N, B|An − Cn .

III FONCTIONS POLYNOMIALES, RACINES

1) Fonctions polynomiales

AIG
Théorème 16.5 (Substitution)
Soit A une K-algèbre et soit a ∈ A , l’application : S a : K[X] → A , est un morphisme
n n
αk X k αk a k
P P
7 →
k=0 k=0
de K-algèbres, c’est à dire : ∀ P, Q ∈ K[X], ∀ λ ∈ K
– S a (P + Q) = S a (P) + S a (Q).
– S a (P × Q) = S a (P) × S a (Q).
– S a (λP) = λS a (P).
– S a (1) = 1.

Preuve : Celle - ci repose sur les règles de calculs dans une algèbre. 
Remarque 16.8 – L’application S a est appelée substitution par a. Concrètement, le théorème ci - dessus dit que
NT
la substitution par a consiste simplement à remplacer l’indéterminée X par a. Par exemple, si on a P = Q×B+R,
alors S a (P) = S a (Q) × S a (B) + S a (R).

Définition 16.7
L’application : P e: K → K , est appelée fonction polynomiale associée au polynôme P. Si
x 7→ S x (P)
n n
k
a k x k où x est une variable qui décrit K.
P P
P= a k X , alors P
e : x 7→
k=0 k=0

Remarque 16.9 – On prendra garde à ne pas confondre la variable x, qui est un élément de K, avec l’indéter-
minée X (qui n’appartient pas à K).
MO

Remarque 16.10 – On a P
„ +Q = P
e + Q,
e P„×Q = P e λ.P
e × Q, g = λ.P.
e

2) Racines d’un polynôme

Définition 16.8
n
a k X k ∈ K[X], on appelle racine de P dans K tout élément a ∈ K tel que P(a)
P
Soit P = e = 0, c’est à dire
k=0
n
toute solution dans K à l’équation a k x k = 0.
P
k=0

Théorème 16.6
Soit P ∈ K[X] :
– Soit a ∈ K, a est racine de P ssi X − a|P.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 148 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions polynomiales, racines Chapitre 16 : Polynômes
– Si deg(P) 6 n et si P admet au moins (n + 1) racines dans K, alors P = 0.

Preuve : Soit a ∈ K, on effectue la division euclidienne de P par X − a : P = Q × (X − a) + R avec deg(R) < 1, donc R est
un polynôme constant R = λ, finalement P = Q × (X − a) + λ. Substituons a à X : P(a)e = Q(a)
e × (a − a) + λ, c’est à dire :
λ = P(a), ce qui prouve la première assertion.
e

NE
La deuxième assertion se démontre par récurrence sur n : pour n = 0, l’hypothèse dit que P est une constante et
que P a au moins une racine, donc cette constante est nulle, i.e. P = 0. Supposons le résultat démontré au rang n, et soit
deg(P) 6 n + 1 avec P ayant au moins n + 2 racines, soit a l’une d’elles, alors il existe Q ∈ K[X], tel que P = Q × (X − a),
mais alors deg(Q) 6 n et Q a au moins n + 1 racines dans K, donc Q = 0 (HR) et par conséquent, P = 0. 
Conséquences :
a) Si a 1 , . . . , a n sont des racines distinctes de P alors (X − a 1 ) · · · (X − a n )|P.
b) Si P est non nul de degré n, alors P admet au plus n racines distinctes.
c) L’application φ : K[X] → F (K, K) définie par φ(P) = P
e est injective. On pourrait donc identifier P et P
e la
fonction polynomiale associée à P.

FExercice 16.1 Soit P un polynôme de degré 2, on pose :


e + X(X−1) P(−1)
Q = (1 − X 2 )P(0) + X(X+1)

AIG
2
e
2 P(1)
e
Montrer que P = Q.
Remarque 16.11 – Pour montrer qu’un polynôme P est nul on dispose de trois méthodes :
– Montrer que tous les coefficients de P sont nuls.
– Montrer que le degré de P est −∞.
– Montrer que P a une infinité de racines.
Soit P un polynôme non nul et soit a ∈ K, on sait que que si (X − a)k |P alors k 6 deg(P) (car P 6= 0). Par
conséquent l’ensemble {k ∈ N / (X − a)k |P} est un ensemble non vide (contient 0) et majoré par deg(P),
comme c’est une partie de N, cet ensemble admet un plus grand élément.

Définition 16.9 (multiplicité d’une racine)


Soit P ∈ K[X] un polynôme non nul et soit a ∈ K, on appelle multiplicité de a dans P le plus grand des
entiers k tels que (X − a)k |P. Notation : m P (a). Une racine de multiplicité 1 est appelée racine simple,
une racine de multiplicité 2 est appelée racine double...etc
NT
Remarque 16.12 –
– a est racine de P équivaut à m P (a) > 1.
– Il est facile de vérifier que si q ∈ {k ∈ N / (X − a)k |P}, alors tout entier inférieur ou égal à q est également
dans l’ensemble, cela signifie que l’ensemble {k ∈ N / (X − a)k |P} est un intervalle d’entiers, on peut donc
énoncer : m = m P (a) ⇐⇒ (X − a)m divise P et (X − a)m+1 ne divise pas P.

FExercice 16.2 Calculer la multiplicité de 1 dans les polynômes P = X3 − 3X 2 + 2 et Q = X3 − 4X 2 + 5X − 2.

Théorème 16.7
Soit P un polynôme non nul, soit a ∈ K, et soit m ∈ N, on a alors :
MO

m = m P (a) ⇐⇒ ∃ Q ∈ K[X], P = (X − a)m × Q et Q(a)


e 6= 0.

Preuve : Si on a P = (X − a)m × Q et Q(a)


e 6= 0, alors m P (a) > m, mais si (X − a)m+1 |P, il est facile de voir que X − a|Q ce
qui est absurde, donc m P (a) = m.
Réciproquement, si m = m P (a), alors il existe Q tel que P = (X−a)m ×Q, si Q(a)
e = 0 alors X−a|Q et donc (X−a)m+1 |P
ce qui contradictoire, donc Q(a)
e 6= 0. 

Théorème 16.8
Soient P, Q ∈ K[X], non nuls, et a ∈ K
a) m P×Q (a) = m P (a) + m Q (a).
b) si P + Q 6= 0, alors m P+Q (a) > min(m P (a); m Q (a)).

Preuve : Celle-ci est simple et laissée en exercice. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 149 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Fonctions polynomiales, racines Chapitre 16 : Polynômes

3) Corps algébriquement clos


Soit P un polynôme non nul ayant des racines dans K, soient a 1 , . . . , a n toutes les racines distinctes de P de
multiplicités respectives : m 1 , . . . , m n . D’après ce qui précède il existe un polynôme Q tel que P = (X−a 1 )m1 ×Q
e 1 ) 6= 0, comme a 2 6= a 1 on peut affirmer que a 2 est racine de Q : Q = (X − a 2 )m ×T avec T(a
avec Q(a e 2 ) 6= 0, mais

NE
alors P = (X−a 2 ) ×(X−a 1 ) ×T, on en déduit que m = m 2 , par conséquent on a P = (X−a 1 ) (X−a 2 )m2 ×T
m m1 m1

avec a 1 et a 2 qui ne sont pas racines de T. De proche en proche (récurrence sur n) on a arrive à : il existe un
polynôme S tel que P = (X − a 1 )m1 · · · (X − a n )mn × S, avec a 1 , . . . , a n qui ne sont pas racines de S, mais comme
P n’a pas d’autres racines on peut en déduire que S est sans racine dans K.

Théorème 16.9 (factorisation d’un polynôme connaissant toutes ses racines)


Si a 1 , . . . , a n sont les racines distinctes de P de multiplicités respectives m 1 , . . . , m n , alors il existe un
n
polynôme Q sans racine dans K tel que P = Q × (X − a k )mk .
Q
k=1

Définition 16.10 (polynôme scindé)

AIG
Si a 1 , . . . , a n sont les racines distinctes de P de multiplicités respectives m 1 , . . . , m n , alors d’après le
Pn n
P
théorème précédent : m k 6 deg(P). La quantité m k (somme des multiplicités des racines) est
k=1 k=1
appelée nombre de racines de P comptées avec leur multiplicité. On dira que le polynôme P est
scindé sur K lorsque cette quantité est égale au degré de P, on dit aussi que P admet toutes ses racines
dans K (toutes : signifie que le nombre de racines comptées avec leur multiplicité, est égal au degré)

n
(X − a k )mk , on voit que lorsque P est scindé, alors
Q
En reprenant la factorisation précédente : P = Q ×
k=1
deg(Q) = 0, le polynôme Q est donc une constante non nulle, en comparant les coefficients dominants de
chaque coté, on voit que Q est égal au coefficient dominant de P, d’où l’énoncé :

Théorème 16.10
Si P est scindé et si a 1 , . . . , a n sont les racines distinctes de P de multiplicités respectives m 1 , . . . , m n ,
n
alors P = λ (X − a k )mk , où λ est le coefficient dominant de P.
Q
NT
k=1

ZExemples :
– X 2 − 2 est scindé sur R, mais pas sur Q.
– X 2 + 1 est scindé sur C, mais pas sur R.

Définition 16.11
On dit que le corps K est algébriquement clos lorsque tout polynôme non constant de K[X] admet au
moins une racine dans K.

Remarque 16.13 – D’après les exemples précédents, les corps Q et R ne sont pas algébriquement clos.
MO

Théorème 16.11
Si K est un corps algébriquement clos, alors tout polynôme non constant de K[X] est scindé sur K.

Preuve : On montre par récurrence sur n que si deg(P) = n alors P admet n racines dans K. Pour n = 1, P = aX + b =
a(X + b/a), une racine −b/a. Supposons le résultat démontré au rang n, et soit P de degré n + 1 : P est non constant,
donc P admet au moins une racine a, d’où P = (X − a) × Q, mais deg(Q) = n, il suffit alors d’appliquer l’hypothèse de
récurrence à Q pour terminer. 

Théorème 16.12 (de D’Alembert 1 )


C est un corps algébriquement clos.

ZExemples :
1. D’ALEMBERT J EAN Le Rond (1717 – 1783) : mathématicien français qui contribua notamment à l’étude des nombres
complexes, l’analyse et les probabilités.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 150 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Formule de Taylor des polynômes Chapitre 16 : Polynômes

– Factoriser X 2n − 1 dans C[X] puis dans R[X].

2n−1 π
X 2n − 1 =
Y
(X − exp(i k ))
k=0 n
n−1 π π

NE
Y
= (X − 1)(X + 1) (X − exp(i k ))(X − exp(−i k ))
k=1 n n
n−1 π
(X 2 − 2 cos(k )X + 1).
Y
= (X − 1)(X + 1)
k=1 n

– Factoriser dans R[X] : X 4 + X 2 + 1 et X 4 + X 2 − 1.

X 4 + X 2 + 1 = (X 2 + 1)2 − X 2 = (X 2 − X + 1)(X 2 + X + 1)
p p
4 2 2 1 2 5 2 1+ 5 2 5−1
X + X − 1 = (X + ) − = (X + )(X − )
2 4 2 2
p s p s p
2 1+ 5 5−1 5−1
= (X + )(X − )(X + )

AIG
2 2 2

FExercice 16.3
1/ Soit P ∈ C[X] avec P = a k X k , on appelle conjugué de P le polynôme P = a k X k . Montrer que P + Q = P + Q, que
P P
k k
PQ = P × Q, et que P ∈ R[X] si et seulement si P = P. Vérifier que pour z ∈ C, P(z) = P(z).
2/ Soit P ∈ R[X] non constant, soit z une racine complexe de P de multiplicité m. Montrer que z est racine de P de
multiplicité m.

4) Relations racines coefficients


Soit P un polynôme scindé sur K, si deg(P) = n et si λ est le coefficient dominant de P, alors il existe
a 1 , . . . , a n ∈ K (racines de P) tels que P = λ(X − a 1 ) · · · (X − a n ), si on développe ensuite cette expression, on va
obtenir les coefficients de P en fonction des a k . Par exemple :
NT
– P = λ(X − a 1 )(X − a 2 ) = λX 2 − λ(a 1 + a 2 )X + λa 1 a 2 .
– P = λ(X − a 1 )(X − a 2 )(X − a 3 ) = λX 3 − λ(a 1 + a 2 + a 3 )X 2 + λ(a 1 a 2 + a 1 a 3 + a 2 a 3 )X − λa 1 a 2 a 3 .
Notation : On pose σ0 = 1, et pour k compris entre 1 et n : σk =
P
ai 1 · · · ai k .
16i 1 <···<i k 6n
σk est la somme des produits des racines (de P) par paquets de longueur k, par exemple : σ1 est la somme
des racines, σ2 est la somme des produits deux à deux, · · · , σn est le produit des racines.
Par récurrence on peut alors établir que :
n
(X − a 1 ) · · · (X − a n ) = X n − σ1 X n−1 + σ2 X n−2 − · · · + (−1)n σn = (−1)k σk X n−k
X
k=0

On en déduit :

Théorème 16.13
MO

n
Soient a 1 , . . . , a n ∈ K, si P = αk X k = αn (X − a 1 ) · · · (X − a n ), alors on a les relations racines - coeffi-
P
k=0
k
cients suivantes : αn−k = (−1) αn σk .

αn−1
En particulier, la somme des racines est − αn et le produit des racines est (−1)n ααn0 .

FExercice 16.4 Calculer la somme et le produit des racines n-ièmes de l’unité.

IV FORMULE DE TAYLOR DES POLYNÔMES

1) Dérivation des polynômes


On reprend la dérivation usuelle des fonctions polynomiales :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 151 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Formule de Taylor des polynômes Chapitre 16 : Polynômes

Définition 16.12
a k X k , on appelle polynôme dérivé de P, le polynôme noté P 0 ou dd XP , et défini par :
P
Soit P =
k
P0 = ka k X k−1 .
P
k >1

NE
(
P si n = 0
Par récurrence, la dérivée n-ième de P, notée P (n) , est : P (n) = £ (n−1) ¤0
P si n > 1

Théorème 16.14 (propriétés)


Soient, P, Q ∈ K[X] et soit λ ∈ K :
– (P + Q)0 = P 0 + Q0 et (λP)0 = λP 0 .
– (P × Q)0 = P 0 × Q + P × Q0 , plus généralement, on a la formule de L EIBNIZ 2 :
à !
n n
(n)
P (k) × Q(n−k) .
X
(P × Q) =
k=0 k

AIG
– P(Q)0 = Q0 × P 0 (Q) (dérivée d’une composée).

Preuve : La première propriété est simple à vérifier. Pour la deuxième propriété, on commence par montrer que
(X n × Q)0 = nX n−1 × Q + X n × Q0 , puis on applique la première propriété. La formule de L EIBNIZ se montre ensuite par
récurrence sur n (exactement comme la formule du binôme de N EWTON). Quant à la troisième, on commence par le
cas où P = X n , c’est à dire on commence par montrer que [Qn ]0 = nQ0 × Qn−1 , ce qui se fait par récurrence sur n, on
utilise ensuite la première propriété pour le cas général. 

Théorème 16.15
(
n! n−k
(n−k)! X si k 6 n
Si P = X n , alors P (k) = a n X n , alors
P
. On en déduit que si P =
0 si k > n n

n!
P (k) = a n X n−k
X
NT
n >k (n − k)!

En particulier si deg(P) = n alors P (n) = a n n! et si k > deg(P), alors P (k) = 0. D’autre part, lorsque
k 6 deg(P), alors deg(P (k) ) = deg(P) − k.

Preuve : Celle - ci est simple et laissée en exercice. 

2) Formule de Taylor
n n ¡k ¢
a k X k , soit r un entier compris entre 0 et n, alors P (r ) = a k X k−r , substituons 0 à X, on
P P
Soit P = r! r
k=0 k=r
obtient alors P (r ) (0) = r !a
r , on en déduit donc que :
g
MO

P
g (r ) (0)
∀r ∈ J0 ; n K, a r = .
r!

Remarquons que la formule reste vraie pour r > n, finalement on obtient la formule de TAYLOR 3 en 0 :

(k) (0)
X Pg
P= Xk .
k k!

Soit a ∈ K, posons Q = P(X + a) (composée de P avec le polynôme X + a), d’après ce qui précède, on a :

XQ
g (k) (0)
Q= Xk .
k k!

2. LEIBNIZ Gottfried (1646 – 1716) : philosophe et mathématicien allemand.


3. TAYLOR B ROOK (1685 – 1731) : mathématicien anglais qui a énoncé sa célèbre formule en 1715.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 152 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 16 : Polynômes

Or, il est facile de montrer que Q(k) = P (k) (X + a), par conséquent Q g (k) (0) = P
g (k) (a), et comme P = Q(X − a), on

obtient :
X Pg (k) (a)
P= (X − a)k .
k k!

NE
Théorème 16.16
(k) (a)
P Pg
Si P ∈ K[X] et a ∈ K, alors P = k! (X − a)k . C’est la formule de TAYLOR pour le polynôme P en a.
k

Applications :
– Division euclidienne d’un polynôme P par (X − a)n : d’après la formule de TAYLOR en a appliquée à P, on a :

(k) (a)
X Pg
P= (X − a)k
k k!
X Pg(k) (a) X Pg(k) (a)
= (X − a)k + (X − a)k

AIG
k >n k! k<n k!
X Pg(k) (a) X Pg(k) (a)
= (X − a)n × (X − a)k−n + (X − a)k ,
k >n k! k<n k!

(k) (a)
Pg
P k
comme deg( k! (X − a) ) < n, on en déduit que le quotient Q et le reste R dans la division euclidienne par
k<n
n
(X − a) sont :
X Pg(k) (a) X Pg(k) (a)
Q= (X − a)k−n et R = (X − a)k .
k >n k! k<n k!

– Calcul de la multiplicité d’une racine :

Théorème 16.17
a ∈ K est une racine de P de multiplicité n > 1 si et seulement si :
(k) (a) = 0 et P
∀ k ∈ J0 ; n − 1K, Pg g (n) (a) 6= 0.
NT
(k) (a)
Pg (k) (a)
Pg
Preuve : En effet, d’après ce qui précède, P = (X − a)n Q + R avec Q = k−n k
P P
k! (X − a) et R = k! (X − a) , d’où :
k >n k<n

n = m P (a) ⇐⇒ R = 0 et Q(a)
e 6= 0
⇐⇒ R(X + a) = 0 et Q(a)
e 6= 0
(k) (a) = 0, et P
⇐⇒ ∀k ∈ J0 ; n − 1K, Pg g (n) (a) 6= 0

V SOLUTION DES EXERCICES


MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 153 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 17

Arithmétique des polynômes

Sommaire
I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

AIG
1) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
2) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
3) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
V Polynômes irréductibles, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
NT
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
2) Décomposition en facteurs irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3) Notion de P-valuation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

I DIVISIBILITÉ

1) La division euclidienne

Théorème 17.1
MO

Soient A ∈ K[X] et B ∈ K[X] non nul, il existe un unique couple de polynômes (Q, R) tel que A = BQ + R
avec deg(R) < deg(B), Q est appelé le quotient, et R le reste.

Définition 17.1
Soient A, B ∈ K[X], on dit que B divise A lorsqu’il existe un polynôme Q tel que A = Q × B, notation B|A.

Remarque 17.1 – On définit ainsi une relation dans K[X], on peut vérifier que celle - ci est réflexive, transitive,
mais elle n’est ni symétrique, ni antisymétrique. Plus précisément, B|A et A|B ssi il existe λ ∈ K∗ tel que A = λB
(on dit que A et B sont associés).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 154 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Divisibilité Chapitre 17 : Arithmétique des polynômes

Théorème 17.2

NE
– Si B 6= 0, alors B|A si et seulement si le reste de la division euclidienne de A par B est nul.
– Si A 6= 0 et B|A, alors deg(B) 6 deg(A).
– Si B|A et B|C, alors ∀ U, V ∈ K[X], B|A × U + C × V.

Preuve : Celle-ci est simple et laissée en exercice. 


Remarque 17.2 – Il découle du dernier point que si B|A − C et B|D − E, alors B|(A + D) − (C + E) et B|AD − EC,
en particulier, si B|A − C alors ∀ n ∈ N, B|An − Cn .
Notation : Soit P ∈ K[X], on note P K[X] l’ensemble des multiples de P : P K[X] = {P × Q / Q ∈ K[X]}.
On vérifie facilement la propriété suivante :
(P K[X], +) est un groupe commutatif et ∀B ∈ K[X], ∀U ∈ P K[X], BU ∈ P K[X].

2) Congruences

AIG
Définition 17.2 (congruences)
Soient A, B, P ∈ K[X], on dit que A est congru à B modulo P lorsque P | A − B.
Notation : A ≡ B (mod P).

Théorème 17.3
• La relation de congruence modulo P est une relation d’équivalence.
• Soient A, B, C, D, P ∈ K[X], si A ≡ B (mod P) et C ≡ D (mod P) alors :
AC ≡ BD (mod P) et A + C ≡ B + D (mod P).
On dit que la relation de congruence est compatible avec les opérations.

3) Diviseurs communs

Définition 17.3 (polynôme normalisé)


Soit A un polynôme non nul, on appelle A normalisé le polynôme noté A e obtenu en divisant A par son
NT
coefficient dominant, ce polynôme est donc unitaire et associé à A. C’est l’unique polynôme unitaire
associé à A.

Définition 17.4 (diviseurs communs)


Pour A ∈ K[X], on note DA l’ensemble des diviseurs de A. Cet ensemble contient toujours K∗ . On
notera DA,B = DA ∩ DB l’ensemble des diviseurs communs à A et B.

Remarque 17.3 –
© ª
– Si A 6= 0, alors DA est un ensemble infini, mais deg(P) / P ∈ DA est fini car inclus dans J0 ; deg(A)K.
– D0 = K[X], si λ ∈ K∗ , Dλ = K∗ .
– Si A est non nul, DA = DAe .

Théorème 17.4
Soient A, B, Q, R ∈ K[X], si A = BQ + R, alors DA ∩ DB = DB ∩ DR .
MO

Application – Le théorème ci-dessus fournit un algorithme pour la recherche des diviseurs communs à A et B basé sur
la division euclidienne : c’est l’algorithme d’Euclide, rappelons son principe :
On remarque que si B = 0 alors DA,B = DA . On peut supposer désormais que B 6= 0 et on cherche à calculer
D = DA,B :
Étape 1 : on effectue la division euclidienne de A par B : A = BQ1 +R1 avec deg(R1 ) < deg(B). On a D = DB,R1 ,
donc si R1 = 0 alors D = DB , sinon on passe à l’étape 2 :

Étape 2 : on effectue la division euclidienne de B par R1 : B = R1 Q2 + R2 avec deg(R2 ) < deg(B). On a


D = DR1 ,R2 , donc si R2 = 0 alors D = DR1 , sinon on passe à l’étape 3 ...
La suite des degrés des restes obtenus est une suite strictement décroissante d’entiers positifs, elle est
donc nécessairement finie, i.e. il existe nécessairement un entier n > 1 tel que Rn = 0, l’ensemble cherché est
donc D = DRn−1 (avec la convention R0 = B).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 155 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Éléments premiers entre eux Chapitre 17 : Arithmétique des polynômes

II ÉLÉMENTS PREMIERS ENTRE EUX

1) Théorème de Bézout

Définition 17.5

NE
Soient A, B ∈ K[X], on dit que a et b sont premiers entre eux (ou A est premier avec B) lorsque le seul
diviseur commun unitaire est 1, i.e. DA,B = K∗ .

Remarque 17.4 –
– Dire que A est premier avec B revient à dire que le dernier reste non nul dans l’algorithme d’Euclide est
égal à 1 une fois normalisé.
– Si A est premier avec B, alors au moins un des deux est non nul (sinon l’ensemble des diviseurs communs
est K[X]).
– A est premier avec A si et seulement si A ∈ K∗ .

Théorème 17.5 (théorème de Bézout)

AIG
Soient A, B ∈ K[X], alors A et B sont premiers entre eux si et seulement si il existe U, V ∈ K[X] tels que
AU + BV = 1. Les polynômes U et V sont appelés coefficients de Bézout (non uniques en général).

Preuve : C’est l’algorithme d’Euclide étendu, comme dans Z. 

FExercice 17.1 Soient A = X3 + 1 et B = X2 + 1. Montrer que A et B sont premiers entre eux, et déterminer une relation de
Bézout.

2) Conséquences

Théorème 17.6
• Si A est premier avec B et si A est premier avec C, alors A est premier avec le produit BC. On en
déduit que si A est premier avec C1 , . . . , Cn , alors A est premier avec le produit C1 × . . . × Cn .
• Si A est premier avec C, si A | B et si C | B, alors AC | B.
• Si A | BC et si A est premier avec C, alors A | B.
NT
Preuve : Identique à celle dans Z. 

III LE PLUS GRAND DIVISEUR COMMUN

1) Définition
Soient A, B ∈ K[X] non tous deux nuls, on sait que DA,B = DR où R est le dernier reste non nul dans
l’algorithme d’Euclide, on voit que les diviseurs communs à A et B ont un degré inférieur ou égal à celui de R.
Soit D un diviseur commn de même degré que R, alors comme D | R on a R = λQ avec λ ∈ K∗ , on en déduit
que les polynômes R et D normalisés sont égaux.
MO

Définition 17.6
Soient A, B ∈ K[X] non tous deux nuls, le pgcd de A et de B le plus grand diviseur commun unitaire.
Notation : pgcd(A, B) ou A ∧ B, c’est le dernier reste non nul dans l’algorithme d’Euclide, une fois
normalisé.

Remarque 17.5 – Il en découle que deux éléments A et B de K[X], non tous deux nuls, sont premiers entre eux
si et seulement si pgcd(A, B) = 1. On remarquera au passage qu’un pgcd entre deux polynômes est unitaire.

Théorème 17.7
Soient A, B ∈ K[X] non tous deux nuls, et D un polynôme unitaire, alors D = pgcd(A, B) si et seulement
si D | A, D | B et il existe deux polynômes U et V tels que D = AU + BV.

Preuve : Si D = pgcd(A, B) cela découle de l’algorithme d’Euclide étendu.


Si D est diviseur commun et si on a la relation, alors tout diviseur commun de A et B divise D et a donc un degré
inférieur ou égal à celui de D, comme D est unitaire, c’est le pgcd de A et B. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 156 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Le plus grand diviseur commun Chapitre 17 : Arithmétique des polynômes

Théorème 17.8 (Calcul pratique d’un pgcd)


Si A, B ∈ K[X] sont non tous deux nuls alors ∀Q ∈ K[X], pgcd(A, B) = pgcd(A − BQ, B).

FExercice 17.2 Calculer le pgcd entre X4 − 1 et X10 − 1.

NE
2) Propriétés

Théorème 17.9 (caractérisations du pgcd)


Soient A, B ∈ K[X] non tous deux nuls, et soit D ∈ K[X] non nul et unitaire. On a alors :
D = pgcd(A, B) ⇐⇒ ∃ U, V ∈ K[X] premiers entre eux tels que A = DU et B = DV.

Preuve : Si D = pgcd(A, B) alors il existe U, V ∈ K[X] tels que A = DU et B = DV, de plus il existe des polynômes U1 et V1
tels que D = AU1 + BV1 , i.e. D = DUU1 + DVV1 , D étant non nul et K[X] intègre, on en déduit que 1 = UU1 + VV1 et donc
U et V sont premiers entre eux.
Si A = DU, B = DV avec U ∧ V = 1, alors D est un diviseur commun à A et B, d’après le théorème de Bézout, il existe

AIG
α, β ∈ K[X] tels que αU + βV = 1, d’où D = αA + βB, comme D est unitaire, on a D = A ∧ B. 

Théorème 17.10 (quelques propriétés du pgcd)


Soient A, B ∈ K[X] non tous deux nuls :
a) ∀ P ∈ K[X], si P | A et P | B, alors P | pgcd(A, B).
b) pgcd(A, B) = pgcd(A,
e B).
e
c) ∀ K ∈ K[X], unitaire, pgcd(KA, KB) = K pgcd(A, B).
d) ∀ n ∈ N, pgcd(An , Bn ) = pgcd(A, B)n .
e) Si A et C sont premiers entre eux, alors pgcd(A, BC) = pgcd(A, B).

Preuve : Pour le premier point : soit D = pgcd(A, B), alors DA,B = DD donc tout diviseur commun à A et B est un diviseur
de D.
Pour le deuxième point : soit D = pgcd(A, B), alors il existe U, V ∈ K[X] premiers entre eux tels que A = DU et B = DV,
NT
d’où KA = KAU et KB = KDV, donc KD = pgcd(KA, KB) (KD est unitaire).
Pour le reste la preuve est identique à celle dans Z. 

Théorème 17.11
Soient A et B deux polynômes non tous deux nuls :
• les racines communes à A et B dans K, sont exactement les racines dans K de pgcd(A, B).
• A et B sont premiers entre eux si et seulement si ils n’ont pas de racine commune dans C.

Preuve : Soit a ∈ K, alors A(a) = B(a) = 0 ⇐⇒ X − a | A et X − a | B ⇐⇒ X − a | pgcd(A, B). Si A et B sont premiers entre
eux, alors pgcd(A, B) = 1 qui est sans racine dans C, donc A et B n’ont pas de racine commune dans C.
Si A et B n’ont pas de racine commune dans C, alors leur pgcd n’a pas de racine dans C, or C est algébriquement
clos (théorème de D’Alembert Gauss), donc D est nécessairement constant, comme il est unitaire, D = 1. 
MO

3) Généralisation
Soient A, B, C trois polynômes non tous nuls, l’ensemble des diviseurs communs à A, B et C est :

DA,B,D = DA ∩ DB ∩ DC = (DA ∩ DB ) ∩ DC = DA ∩ (DB ∩ DC )

or on sait que DA ∩ DB = DA∧B , donc DA,B,C = D(A∧B)∧C = DA∧(B∧C) . Ces deux polynômes étant unitaires, on a
(A ∧ B) ∧ C = A ∧ (B ∧ C) et ce polynôme est le plus grand (en degré) diviseur unitaire commun à A, B et C. Par
définition ce nombre est le pgcd de A, B et C, on le note : pgcd(A, B, C) .

Théorème 17.12 (associativité du pgcd)


Soient A, B, C trois polynômes avec B non nul, alors pgcd(A, B, C) = (A ∧ B) ∧ C = A ∧ (B ∧ C).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 157 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Le plus petit multiple commun Chapitre 17 : Arithmétique des polynômes

À retenir
L’associativité du pgcd permet de ramener le calcul au cas de deux polynômes.

Notons D1 = A ∧ B et R = pgcd(A, B, C), alors R = D1 ∧ C, donc il existe deux polynômes U1 et W tels que

NE
R = D1 U1 + CW, de même, il existe deux polynômes U2 et V1 tels que D1 = AU2 + BV1 , d’où en remplaçant,
R = AU2 U1 + BV1 U1 + cW = AU + BV + CW avec U, V, W ∈ K[X].
Réciproquement, si R est un diviseur commun unitaire, et si R = AU + BV + CW, alors il est facile de voir
que tout diviseur commun à A, B et C est un diviseur de R et donc R = pgcd(A, B, C), d’où le théorème :

Théorème 17.13
Soient A, B, C trois polynômes non tous nuls et R unitaire, alors :
R = pgcd(A, B, C) ⇐⇒ R ∈ DA,B,C et ∃U, V, W ∈ K[X], R = AU + BV + CW.

Définition 17.7
Soient A, B, C trois polynômes non tous nuls, on dira que ces trois polynômes sont :

AIG
• premiers entre eux dans leur ensemble lorsque pgcd(A, B, C) = 1.
• premiers entre eux deux à deux lorsque pgcd(A, B) = pgcd(B, C) = pgcd(A, C) = 1.

Attention !
Les deux notions ne sont pas équivalentes, la deuxième entraîne la première mais la réciproque est fausse comme
le montre l’exemple suivant :
pgcd((X + 1)X, (X + 1)(X + 2), X(X + 2)) = 1 mais pgcd(X(X + 1), (X + 1)(X + 2)) = X + 1, pgcd(X(X + 1), X(X + 2)) = X et
pgcd((X + 1)(X + 2), X(X + 2)) = X + 2.

Il découle du théorème précédent :

Théorème 17.14 (de Bézout)


Soient A, B, C trois polynômes non tous nuls, alors A, B et C sont premiers entre eux dans leur ensemble
si et seulement si :
∃U, V, W ∈ K[X], AU + BV + CW = 1.
NT
Théorème 17.15 (caractérisation)
Soient A, B, C trois polynômes non tous nuls et R unitaire, alors :
R = pgcd(A, B, C) ⇐⇒ ∃U, V, W ∈ K[X], A = RU, B = RV et C = RW avec pgcd(U, V, W) = 1.

Preuve : Si R = pgcd(A, B, C) alors il existe ∃U, V, W ∈ K[X], A = RU, B = RV et C = RW. Il existe également des polynômes
U1 , V1 et W1 tels que R = AU1 + BV1 + CW1 d’où 1 = UU1 + VV1 + WW1 et donc pgcd(U, V, W) = 1.
Réciproquement, si A = RU, B = RV et C = RW avec pgcd(U, V, W) = 1. Il existe des polynômes U1 , V1 et W1 tels
1 = UU1 + VV1 + WW1 , en multipliant par R il vient alors que R = RUU1 + RVV1 + RWW1 = AU1 + BV1 + CW1 , ce qui
entraîne que R = pgcd(A, B, C) (car R est unitaire et diviseur commun à A, B et C). 
Remarque 17.6 – La notion de pgcd s’étend de la même manière à n polynômes.
MO

IV LE PLUS PETIT MULTIPLE COMMUN

1) Définition

Théorème 17.16
Si A et B sont non nuls, il existe un unique polynôme M unitaire dans K[X] tel que :
AK[X] ∩ BK[X] = MK[X].
© ª
Preuve : deg(P) / P ∈ AK[X] ∩ BK[X], P 6= 0 contient deg(AB), il existe donc un multiple commun non nul de degré
minimal, quitte à le normaliser, on peut le supposer unitaire, et on le note M. Il est facile de voir que MK[X] ⊂
AK[X] ∩ BK[X]. Si P ∈ AK[X] ∩ BK[X], on effectue la division de P par M, P = MQ + R avec deg(R) < deg(M), d’où
R = P − MQ, on vérifie alors que R est aussi dans AK[X] ∩ BK[X] . Si R 6= 0 alors deg(R) > deg(M) car M est de degré
minial, ceci est absurde, donc R = 0 et P = MQ, d’où AK[X] ∩ BK[X] ⊂ MK[X], et finalement on a bien l’inégalité.
Si M0 K[X] = MK[X] avec M0 unitaire, alors M et M0 se divisent mutuellement, ils sont donc associés et unitaires
d’où M = M0 . 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 158 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Polynômes irréductibles, décomposition Chapitre 17 : Arithmétique des polynômes

Il découle de ce théorème que C est un multiple commun à A et B si et seulement si C ∈ AK[X] ∩ BK[X],


ce qui équivaut à C ∈ MK[X], c’est à dire M | C. Ceci entraîne en particulier : deg(M) 6 deg(C).

Définition 17.8
Soit A, B ∈ K[X], non nuls, et soit M ∈ K[X] unitaire, on dit que M est le ppcm de A et B lorsque

NE
AK[X] ∩ BK[X] = MK[X]. Notation : M = ppcm(A, B) ou encore M = A ∨ B.

Théorème 17.17 (caractérisation du ppcm)


Soient A, B ∈ K[X], non nuls, et soit M ∈ K[X] unitaire alors :
M = ppcm(A, B) ⇐⇒ ∃ U, V ∈ K[X] premiers entre eux tels que M = AU = BV.

Preuve : On suppose a, b ∈ K[X], non nuls.


Si m = ppcm(a, b) : alors a | m et b | m. Donc il existe u, v ∈ K[X] tels que m = au = bv, soit d = pgcd(u, v) alors il
existe α, β ∈ K[X] premiers entre eux tels que u = d α et v = d β, d’où m = ad α = bd β, mais alors m 0 = aα = bβ est un
multiple commun à a et b donc deg(m) 6 deg(m 0 ) ce qui entraîne d = 1 (car d est unitaire et m = m 0 d ).
Si ∃u, v ∈ K[X] premiers entre eux tels que m = au = bv, alors a | m et b | m, il existe α, β tels que uα + vβ = 1, soit

AIG
m 0 un multiple commun non nul, alors m 0 = m 0 uα + m 0 vβ, on en déduit que m | m 0 et donc deg(m) 6 deg(m 0 ), ce qui
prouve que m = ppcm(a, b). 

2) Propriétés

Théorème 17.18
Soient a, b ∈ K[X], non nuls :
a) ∀ P ∈ K[X], si A | P et B | P alors ppcm(A, B) | P.
b) Si A et B sont premiers entre eux, alors ppcm(A, B) = A
e B.
e
c) ∀ K ∈ K[X], unitaire, ppcm(KA, KBb) = K ppcm(A, B).
d) ppcm(A, B) × pgcd(A, B) = A
e B.
e
e) ∀ n ∈ N, ppcm(An , Bn ) = ppcm(A, B)n .
NT
Preuve : Analogue au cas des entiers. 

V POLYNÔMES IRRÉDUCTIBLES, DÉCOMPOSITION

1) Définition

Définition 17.9
Un polynôme P ∈ K[X] est dit irréductible sur K lorsque P est non constant et que ses seuls diviseurs
e L’ensemble des éléments irréductibles normalisés de K[X] est noté IK[X] .
unitaires sont 1 et P.
MO

ZExemples :
– Tout polynôme de degré 1 est irréductible, donc ∀ λ ∈ K, X + λ ∈ IK[X] .
– Tout polynôme de degré 2 sans racine dans K est irréductible dans K[X]. Cependant cette propriété
ne se généralise pas au delà du degré
p 2, par exemple
p : X 4 + 1 est sans racine dans R, mais ce polynôme
est réductible car X 4 + 1 = (X 2 − 2X + 1)(X 2 + 2X + 1).
– La notion de polynôme irréductible dépend du corps K, par exemple, X 2 + 1 est irréductible dans R[X],
mais pas dans C[X]. De même, le polynôme X 2 − 2 est irréductible dans Q[X], mais pas dans R[X].

Théorème 17.19
Dans C[X], les polynômes irréductibles unitaires sont les polynômes unitaires de degré 1, c’est à dire :
IC[X] = {X + a / a ∈ C}.
Dans R[X], les polynômes irréductibles sont les polynômes unitaires de degré 1, plus les polynômes
unitaires de degré 2 sans racines réelles. C’est à dire :
IR[X] = {X + a / a ∈ R} ∪ X 2 + pX + q / p, q ∈ R, p 2 − 4q < 0 .
© ª

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 159 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Polynômes irréductibles, décomposition Chapitre 17 : Arithmétique des polynômes

Preuve : Pour C[X] cela découle du théorème de D’Alembert.


Dans R[X] : les polynômes annoncés sont bien irréductibles unitaires. Soit P ∈ IK[X] , avec deg(P) > 2 alors P admet
des racines complexes, et celles-ci sont non réelles (P est irréductible de degré supérieur à 1), soit α l’une d’elles, alors α
est également racine de P (et distincte de α), donc dans C[X] le polynôme P est divisible par (X −α)(X −α) = X 2 +pX +q ∈
R[X] avec p 2 − 4q < 0. Mais alors P est divisible dans R[X] par X 2 + pX + q (unicité du quotient et du reste), or P ∈ IK[X] ,

NE
donc nécessairement P = X 2 + pX + q. 
Propriétés élémentaires :
a) Si P est irréductible, alors pour tout polynôme Q, soit P | Q soit pgcd(P, Q) = 1.
Preuve : Soit D = pgcd(P, Q), D | P donc D = 1 ou D = P.
e 

b) Si P ∈ K[X] est non constant, alors P possède au moins un diviseur irréductible.


Preuve : Soit B = {deg(d ) / d | P et d ∉ K∗ }, alors B est une partie de N non vide (deg(P) ∈ B), soit Q un diviseur
de P avec deg(P) ∈ B minimal, si D | Q avec D normalisé et D ∉ K∗ , alors D | P et donc deg(D) ∈ B, d’où deg(D) >
deg(Q), or D | Q, donc deg(D) 6 deg(Q) et finalement deg(D) = deg(Q), d’où D = Q e et donc Q est irréductible. 

c) L’ensemble IK[X] est infini, puisque tout polynôme X + a où a ∈ K est irréductible unitaire.
d) Si P est irréductible et si P | AB, alors P | A ou P | B.

AIG
Preuve : Supposons que P ne divise pas A, alors pgcd(P, A) = 1 et par conséquent P | B (d’après le théorème de
Gauss). 

2) Décomposition en facteurs irréductibles

Théorème 17.20 (décomposition en produit de facteurs irréductibles)


Tout élément Q ∈ K[X] non constant, est un produit d’éléments irréductibles. Plus précisément, il
existe r > 1, il existe P1 , . . . , Pr ∈ IK[X] , il existe des entiers α1 , . . . , αr ∈ N∗ , il existe λ ∈ K∗ tels que :
α α α
Q = λ × P1 1 × P2 2 × . . . × Pr r .

Preuve : On a Q = λ × Qe avec λ le coefficient dominant de Q. On se ramène ainsi au cas où Q est unitaire.


Par récurrence sur deg(Q) : pour deg(Q) = 1 il n’y a rien à montrer. Supposons le théorème démontré jusqu’au
rang k, si deg(Q) = k + 1 alors Q admet au moins un diviseur irréductible unitaire P, donc Q = PR, si R = 1 alors Q est
irréductible, sinon R est un produit de facteurs irréductibles (HR), donc Q aussi. 
NT
Théorème 17.21 (unicité de la décomposition)
α α β β
Si Q ∈ K[X] s’écrit sous la forme : Q = λ × P1 1 × . . . × Pr r = µ × Q1 1 × . . . × Qs s ,
avec P1 , . . . , Pr ∈ IK[X] , α1 , . . . , αr ∈ N∗ , Q1 , . . . , Qs ∈ IK[X] , β1 , . . . , βs ∈ N∗ , et λ, µ ∈ K∗ , alors r = s, λ = µ
et il existe une permutation σ de J1 ; r K telle que pour i ∈ J1 ; r K, Pi = Qσ(i ) , αi = βσ(i ) . La décomposition
est unique [à l’ordre près].

Preuve : Identique à celle des entiers. 

3) Notion de P-valuation
Si Q est un polynôme non nul et P un polynôme irréductible, alors l’ensemble k ∈ N / P k | Q est non
© ª
MO

vide (contient 0) et majoré par deg(Q), cet ensemble admet donc un maximum :

Définition 17.10
Soit P ∈ IK[X] et Q polynôme non nul, on appelle P-valuation de Q, notée v P (Q), le plus grand entier
k tel que P k | Q. La définition s’étend au polynôme nul en posant v P (0) = +∞.

Remarque 17.7 :
– v P (Q) = k ⇐⇒ P k | Q et P k+1 - Q ⇐⇒ ∃ T ∈ K[X], Q = P k T avec P - Q .
– v P (Q) > 1 ⇐⇒ P | Q, auquel cas v P (Q) est la puissance de P dans la décomposition de Q en facteurs
irréductible.
– k ∈ N / P k | Q = J0 ; v P (Q)K.
© ª

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 160 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 17 : Arithmétique des polynômes

À retenir
Si Q est non constant, la décomposition de Q en produit de facteurs irréductibles s’écrit :
Q = λQ P v P (Q) .
Q
P∈IK[X]

NE
En effet, seul un nombre fini de valuations sont non nulles (les autres donnent un facteur égal à 1).

Théorème 17.22 (Propriétés)


Soient Q, R deux polynômes, on a :
a) ∀P ∈ IK[X] , v P (QR) = v P (Q) + v P (R).
b) ∀P ∈ IK[X] , v P (Q + R) > min(v P (Q); v P (R)).
c) Q | R ⇐⇒ ∀P ∈ IK[X] , v P (Q) 6 v P (R).
d) Si Q et R sont non nuls alors ∀P ∈ IK[X] :
v P (Q ∧ R) = min(v P (Q); v P (R)) et v P (Q ∨ R) = max(v P (Q); v P (R)).

AIG
Preuve : Analogue au cas des entiers. 

À retenir : formules du pgcd et du ppcm


Il découle du théorème ci-dessus que :
P min(v P (Q);v P (R)) et ppcm(Q, R) = P max(v P (Q);v P (R)) .
Q Q
pgcd(Q, R) =
P∈IK[X] P∈IK[X]

4) Applications
Comme dans Z :
– Si P est non constant, alors la décomposition de P en produit de facteurs irréductibles permet de
trouver tous les diviseurs de P.
– Si P, Q sont non constants, alors à partir de leur décomposition en produit de facteurs irréductibles, on
NT
peut calculer pgcd(P, Q) et ppcm(P, Q).

FExercice 17.3 Dans C[X], montrer que pour n, m ∈ N∗ , on a pgcd(Xn − 1, Xm − 1) = Xd − 1 où d = pgcd(n, m).

VI SOLUTION DES EXERCICES

Solution 17.1 L’algorithme d’Euclide étendu donne un dernier reste non nul égal à 2 avec la relation : 2 = (X + 1)A − (X 2 +
X − 1)B, il suffit de tout diviser par 2.

Solution 17.2 En appliquent l’algorithme d’Euclide, le dernier reste non nul normalisé est D = X 2 − 1 qui est donc le pgcd.

Solution 17.3 Il existe u, v ∈ Z tels que nu + mv = d , on en déduit que z n = z m = 1 si et seulement si z d = 1, les racines
MO

du pgcd sont donc les racines d es de l’unité, comme les racines de X n − 1 sont simples, celles du pgcd le sont aussi, ce qui
donne le résultat.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 161 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 18

Espaces vectoriels

Sommaire
I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
2) Exemples de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
3) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
4) Sous-espaces vectoriels d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . 163
II Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
1) Définition, noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
3) S.e.v. et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
III S.e.v. d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
1) Sous-espace engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
2) Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
3) Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
4) S.e.v. supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
IV Projections, symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
NT
1) Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
2) Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
V Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
1) Sous espace engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
2) Sommes de s.e.v. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

Dans ce chapitre, K désigne un sous-corps de C.

I GÉNÉRALITÉS
MO

1) Définition

Définition 18.1
Soit E un ensemble non vide, on dit que E est un K - espace vectoriel (ou K-e.v.) lorsque E possède une
addition et un produit par les scalaires (loi de composition externe, notée « . », c’est une application :
K×E → E
), avec les propriétés suivantes :
(λ, x) 7→ λ.x
−→
– (E, +) est un groupe abélien (l’élément neutre est noté 0E ou 0E et appelé vecteur nul de E).
– La loi . (ou produit par les scalaires) doit vérifier : ∀ λ, µ ∈ K, ∀ x, y ∈ E :
• 1.x = x
• λ.(x + y) = λ.x + λ.y
• (λ + µ).x = λ.x + µ.x
• λ.(µ.x) = (λµ).x

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 162 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Généralités Chapitre 18 : Espaces vectoriels
Si ces propriétés sont vérifiées, on dit que (E, +, .) est un K - e.v., les éléments de K sont appelés les
scalaires et les éléments de E sont appelés vecteurs (parfois notés avec une flèche).

2) Exemples de référence

NE
ZExemples :
– Un corps K est un K-e.v..
– R est un Q-e.v., C est un Q-e.v., C est un R-e.v. Plus généralement si K est corps inclus dans un autre
corps L, alors L est un K-e.v..
– L’ensemble Kn muni des opérations suivantes :

(x 1 , . . . , x n ) + (y 1 , . . . , y n ) = (x 1 + y 1 , . . . , x n + y n ) et λ.(x 1 , . . . , x n ) = (λx 1 , . . . , λx n ),

est un K-e.v., le vecteur nul est le n-uplet : (0, . . . , 0).


– Si I est un ensemble non vide, alors l’ensemble des applications de I vers K : F (I, K), pour les opérations
usuelles (addition de deux fonctions et produit par un scalaire) est un K-e.v., le vecteur nul étant
l’application nulle. En particulier (C n (I, K), +, .) sont des K-e.v., ainsi que l’espace des suites à valeurs

AIG
dans K.
Plus généralement, si E est un K-e.v., l’ensemble des applications de I vers E : F (I, E), pour les opéra-
tions usuelles sur les fonctions, est un K-e.v..
– (K[X], +, .), (K(X), +, .) sont des K-espaces vectoriels.
– Espace produit : Soient E et F deux K-e.v., on définit sur E × F l’addition : (x, y) + (x 0 , y 0 ) = (x + x 0 , y + y 0 ),
et un produit par les scalaires : λ.(x, y) = (λ.x, λ.y). On peut vérifier alors que (E × F, +, .) est un K-e.v., le
vecteur nul étant (0E , 0F ). Cela se généralise au produit cartésien d’un nombre fini de K-e.v.

3) Règles de calculs
Soit E un K-e.v.

− →
− → −
– ∀→−
x ∈ E, 0.→

x = 0 , et ∀ λ ∈ K, λ. 0 = 0 .
– ∀→−
x ∈ E, ∀ λ ∈ K, −(λ.→−
x ) = (−λ).→−
x = λ.(−→

x ).
NT

− →
− →
− →
− →−
– ∀ x ∈ E, ∀ λ ∈ K, λ. x = 0 =⇒ λ = 0 ou x = 0 .

4) Sous-espaces vectoriels d’un espace vectoriel

Définition 18.2
Soit E un K-e.v. et soit H un ensemble, on dit que H est un sous-espace vectoriel de E (ou s.e.v de E)
lorsque :
– H ⊂ E, H 6= ∅.
– ∀ x, y ∈ H, x + y ∈ H (H est stable pour l’addition).
– ∀ x ∈ H, ∀ λ ∈ K, λ.x ∈ H (H est stable pour la loi .).
Si c’est le cas, alors il est facile de vérifier que (H, +, .) est lui-même un K-e.v.
MO

ZExemples :
– L (E, F) est un s.e.v. de F (E, F).
– L’ensemble des fonctions paires (respectivement impaires, bornées, T-périodiques, lipschitziennes)
définies sur R est un s.e.v. de F (R, R).
– L’ensemble (C n (I, C), +, .) est un sous-espace vectoriel de (F (I, C), +, .).
– L’ensemble (Kn [X], +, .) est un sous-espace vectoriel de (K[X], +, .).
– L’ensemble des suites complexes de limite nulle et un s.e.v de l’espace des suites complexes conver-
gentes, qui est lui-même un s.e.v de l’espace de suites complexes bornées, qui est lui-même un s.e.v de
l’espace des suites complexes.
– Soient a, b, c ∈ K, F = {(x, y, z) ∈ K3 / ax + b y + c z = 0} est un s.e.v de K3 .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 163 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications linéaires Chapitre 18 : Espaces vectoriels

Théorème 18.1 (intersection de sous-espaces vectoriels)


T
Soit (Hi )i ∈I une famille de s.e.v de E (I est un ensemble d’indices), alors Hi est un s.e.v de E.
i ∈I

Preuve : Celle-ci est simple et laissée en exercice. 

NE
II APPLICATIONS LINÉAIRES

1) Définition, noyau

Définition 18.3
Soient E et F deux K-e.v. et soit f : E → F une application, on dit que f est une application linéaire (ou
morphisme de K-espaces vectoriels), lorsque :
∀ x, y ∈ E, ∀ λ ∈ K, f (x + y) = f (x) + f (y) et f (λ.x) = λ. f (x).
Si de plus, f est bijective, alors on dit que f est un isomorphisme (d’espaces vectoriels). L’ensemble
des applications linéaires de E vers F est noté L (E, F).

AIG
Remarque 18.1 – Les applications linéaires de K dans K sont les applications de la forme f (x) = ax (a ∈ K),
car f (x) = x f (1).
ZExemples :
– L’application nulle (notée 0) de E vers F est linéaire.
– L’application identité de E : idE : E → E définie par idE (x) = x, est linéaire bijective (et (idE )−1 = idE ).
– Soit λ ∈ K∗ , l’homothétie de rapport λ : h λ : E → E, définie par h λ (x) = λ.x, est linéaire et bijective. Sa
réciproque est l’homothétie de rapport 1/λ. L’ensemble des homothéties de E est un groupe pour la loi
◦ car c’est un sous-groupe du groupe des permutations de E.
– L’application f : K2 → K2 définie par f (x, y) = (x; −y) est un isomorphisme de K2 sur lui-même.

À retenir
f ∈ L (E, F) alors f (0E ) = 0F et ∀x ∈ E, f (−x) = − f (x).
NT
Définition 18.4 (vocabulaire)
– Une application linéaire de E vers E est appelée un endomorphisme de E. L’ensemble des endo-
morphismes de E est noté L (E) (on a donc L (E) = L (E, E)).
– Un isomorphisme de E vers E est appelé un automorphisme de E. L’ensemble des automorphismes
de E est noté GL(E) et appelé groupe linéaire de E.
– Une application linéaire de E vers K est appelée une forme linéaire sur E. L’ensemble des formes
linéaires sur E est noté E∗ et appelé dual de E (on a donc E∗ = L (E, K)).

ZExemples :
MO

– idE ∈ GL(E), ∀ λ ∈ K∗ , h λ ∈ GL(E).


R1
– Soit E = C 0 ([0; 1], R) et φ : E → R définie par φ( f ) = 0 f (t ) d t , alors φ est une forme linéaire sur E.
– Soit E = {u ∈ F (N, C) / (u n ) converge} est un C-e.v. et l’application φ : E → C définie par φ(u) = lim u n ,
est une forme linéaire sur E.
– Soient a, b, c ∈ K, l’application φ : K3 → K définie par φ(x, y, z) = ax + b y + c z, est une forme linéaire
sur K3 . En exercice, montrer la réciproque, c’est à dire que toutes les formes linéaires sur K3 sont de ce
type.

Définition 18.5 (Noyau d’une application linéaire)


Soit f ∈ L (E, F), on appelle noyau de f l’ensemble noté ker( f ) et défini par :
© ª
ker( f ) = x ∈ E / f (x) = 0F
Le noyau de f contient toujours 0E .

ZExemples :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 164 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications linéaires Chapitre 18 : Espaces vectoriels

– Le noyau d’une application linéaire bijective est {0E }.


– Le noyau de l’application linéaire d : K[X] → K[x] définie par d (P) = P 0 est ker(d ) = K.
– Le noyau de l’application linéaire f : K3 → K2 définie par f (x, y, z) = (x + y + z, x − 2y − z) est ker( f ) =
{(x, 2x, −3x) / x ∈ K}.

NE
2) Propriétés
Il est facile de vérifier les propriétés suivantes :
– f ∈ L (E, F) est injective si et seulement si ker( f ) = {0E }.
– La composée de deux applications linéaires est linéaire. On en déduit que GL(E) est stable pour la loi ◦.
– Si f ∈ L (E, F) est un isomorphisme, alors f −1 ∈ L (F, E). On en déduit que GL(E) est stable par symétri-
sation, i.e. si f ∈ GL(E), alors f −1 ∈ GL(E).
– (GL(E), ◦) est un groupe (non abélien en général), c’est en fait un sous-groupe du groupe des permuta-
tions de E : (S E , ◦).
– Si f , g ∈ L (E, F) et si λ ∈ K, alors f + g et λ. f sont linéaires. On en déduit que (L (E, F), +, .) est un K-e.v.
(s.e.v. de F (E, F)).

AIG
– (L (E), +, ◦) est un anneau, la loi ◦ jouant le rôle d’une multiplication.
Remarque 18.2 –
– En général, l’anneau L (E) n’est pas commutatif. Le groupe des inversibles de cet anneau est GL(E).
– La loi ◦ jouant le rôle d’une multiplication, on adopte les notations usuelles des anneaux pour les
puissances, i.e. si u ∈ L (E) et si n est entier, alors :

idE

 si n = 0
un = u ◦···◦u n fois si n > 0 ,

u −1 ◦ · · · ◦ u −1

−n fois si u est inversible et n < 0

de plus si u, v ∈ L (E) commutent (i.e. u ◦ v = v ◦ u), alors on peut utiliser le binôme de Newton :
à !
n n
n
u k ◦ v n−k
X
(u + v) =
k=0 k
NT
– Soit E = K2 et f : (x; y) 7→ (y; 0), on vérifie facilement que f ∈ L (E) et que f 2 = 0 (application nulle),
pourtant f 6= 0. Cet exemple montre qu’en général L (E) n’est pas un anneau intègre.

3) S.e.v. et applications linéaires

Théorème 18.2 (noyau et image d’une application linéaire)


Si f ∈ L (E, F) alors ker( f ) est un s.e.v de E et Im( f ) est un s.e.v de F.

Preuve : Celle-ci est simple et laissée en exercice. 


MO

À retenir
Soit f ∈ L (E, F) alors f est un isomorphisme si et seulement si ker( f ) = {0E } et Im( f ) = F.

Théorème 18.3 (image d’un s.e.v par une application linéaire)


Soit H un s.e.v de E et f ∈ L (E, F), alors f (H) (ensemble des images par f des éléments de H) est un
s.e.v de F.

Preuve : Il suffit de considérer la restriction de f à H : g : H → F définie par ∀ x ∈ H, g (x) = f (x), il est clair que g est
linéaire et que f (H) = Im(g ), on peut appliquer alors le théorème précédent. 

Théorème 18.4 (image réciproque d’un s.e.v par une application linéaire)
Soit H un s.e.v de F et soit f ∈ L (E, F) alors f −1 (H) (ensemble des antécédents des éléments de H par
f ) est un s.e.v de E.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 165 – ©Fradin Patrick – https://mpsi.tuxfamily.org


S.e.v. d’un espace vectoriel Chapitre 18 : Espaces vectoriels

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemples : Rb
– H = { f ∈ C 0 ([a; b], R) / 0 f = 0} est un s.e.v de C 0 ([a; b], R), car c’est le noyau de la forme linéaire
Rb
φ : f 7→ 0 f .

NE
– H = {(x, y, z) ∈ K3 / ax +b y +cz = 0} est un s.e.v de K3 car c’est le noyau de la forme linéaire φ : (x, y, z) 7→
ax + b y + cz.
– H = {(x, y, z) ∈ K3 / 2x + y − z = 0 et 3x − 2z = 0} est un s.e.v de K3 car c’est l’intersection des noyaux des
deux formes linéaires : φ1 : (x, y, z) 7→ 2x + y − z et φ2 : (x, y, z) 7→ 3x − 2z.

Théorème 18.5
Soient u ∈ L (E, F) et v ∈ L (F, G), alors : v ◦ u = 0 ⇐⇒ Im(u) ⊂ ker(v).

Preuve : Celle-ci est simple et laissée en exercice. 

Définition 18.6 (hyperplan)

AIG
Soit H un s.e.v de E, on dit que H est un hyperplan de E lorsqu’il existe une forme linéaire φ sur E,
non identiquement nulle, telle que H = ker(φ).

III S.E.V. D’UN ESPACE VECTORIEL

1) Sous-espace engendré

Définition 18.7 (combinaisons linéaires d’un nombre fini de vecteurs)


Soit E un K-e.v et soit x 1 , . . . , x n des vecteurs de E. On appelle combinaison linéaire de la famille
(x i )16i 6n , tout vecteur x de E pour lequel il existe des scalaires λ1 , . . . , λn tels que :
n
λi x i .
P
x=
i =1
L’ensemble des combinaisons linéaires de la famille (x i )16i 6n est noté Vect [x 1 , . . . , x n ].
Deux vecteurs x et y de E sont dits colinéaires lorsque l’un des deux est combinaison linéaire de
NT
l’autre, i.e. ∃ λ ∈ K, x = λy ou y = λx.

Théorème 18.6 (sous-espace engendré)


Soit (x i )16i 6n une famille de vecteurs de E, Vect [x 1 , . . . , x n ] est un s.e.v de E. C’est même le plus petit
(pour l’inclusion) s.e.v de E qui contient tous les vecteurs de cette famille. On l’appelle s.e.v engendré
par (x 1 , . . . , x n ).

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemples :
– Vect [0E ] = {0E }.
MO

– Si x ∈ E \ {0E }, alors Vect [x] = {λx / λ ∈ K}, c’est un s.e.v de E appelé droite vectorielle engendrée par x.
On dit que x est un vecteur directeur de cette droite. Les autres vecteurs directeurs sont les vecteurs de
la forme λx avec λ 6= 0.
£ ¤
– Soient x, y ∈ E deux vecteurs non nuls, si les deux vecteurs sont colinéaires, alors Vect x, y = Vect [x] =
£ ¤
Vect y (droite vectorielle). Si ces deux vecteurs sont non colinéaires, alors :

Vect x, y = αx + βy / α, β ∈ K
£ ¤ © ª

c’est un s.e.v de E, on l’appelle plan vectoriel engendré par x et y, il contient (strictement) les deux
droites engendrées par x et y.
– Dans K3 déterminer une équation cartésienne du plan vectoriel engendré par les vecteurs x = (1, 1, 1)
et y = (0, −1, 1).
Remarque 18.3 – Un s.e.v. de E est stable par combinaisons linéaires.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 166 – ©Fradin Patrick – https://mpsi.tuxfamily.org


S.e.v. d’un espace vectoriel Chapitre 18 : Espaces vectoriels

Théorème 18.7 (image d’une combinaison linéaire par une application linéaire)
Soit E un K-e.v et soit (x i )16i 6n une famille de vecteurs de E. Soit f ∈ L (E, F), alors l’image par f d’une
combinaison linéaire de la famille (x i )16i 6n est une combinaison linéaire de la famille ( f (x i ))16i 6n
(dans F) avec les mêmes coefficients.

NE
Preuve : Par récurrence sur n : pour n = 1 il n’y a rien à démontrer. Supposons le théorème vrai au rang n, et soit
x = λ1 x 1 + · · · + λn+1 x n+1 , f étant linéaire, on peut écrire f (x) = f (λ1 x 1 + · · · + λn x n ) + λn+1 . f (x n+1 ), on applique alors
l’hypothèse de récurrence pour conclure. 
ZExemples :
– Soit E = Kn pour i ∈ J1 ; n K on pose e i = (δi ,1 , . . . , δi ,n ), on a alors E = Vect [e 1 , . . . , e n ].
– Soit H = {u ∈ K3 / ∃ α, β, γ ∈ K, u = (α − β, 2α − 2β + γ, −α + β + 2γ)}. Posons e 1 = (1, 2, −1), e 2 = (−1, −2, 1)
et e 3 = (0, 1, 2), on a alors H = Vect [e 1 , e 2 , e 3 ], ce qui prouve que H est un s.e.v de K3 . On remarque que
e 2 = −e 1 , donc finalement H = Vect [e 1 , e 3 ], et comme e 1 et e 3 ne sont pas colinéaires, H est un plan
vectoriel.
– Soit E = F (R, R), les deux fonctions idR et 1 sont non colinéaires, donc elles engendrent un plan
vectoriel dans E : P = Vect [idR , 1]. f ∈ P équivaut à ∃ a, b ∈ R, f = a. idR +b.1, et donc f : x 7→ ax + b, P

AIG
est donc l’ensemble des applications affines.

2) Somme de sous-espaces vectoriels

Définition 18.8 (somme de s.e.v)


Soient F et G deux s.e.v de E, on appelle somme de F et G l’ensemble noté F + G et défini par :
F + G = {x ∈ E / ∃ u ∈ F, v ∈ G, x = u + v}.

Théorème 18.8
Une somme de s.e.v de E est un s.e.v de E.

Preuve : F + G est inclus dans E et contient le vecteur nul puisque celui-ci est dans F et dans G. Si x et y sont dans
F + G alors on peut écrire x = x F + x G et y = y F + y G avec x F , y F ∈ F et X G , y G ∈ G, on a x + y = (x F + y F ) + (x G + y G ) et
NT
λx = λx F + λx G , comme F et G sont stables pour l’addition et le produit par les scalaires, on voit que x + y et λx sont
dans F + G. 
Remarque 18.4 – F + G est un s.e.v. de E qui contient à la fois F et G.
ZExemples :
– Dans K3 , posons i = (1, 0, 0), j = (0, 1, 0), k = (0, 0, 1), on peut vérifier que K3 = Vect [i ] + Vect j , k =
£ ¤
£ ¤ £ ¤
Vect i , j + Vect [k] = Vect [i , k] + Vect j .
£ ¤ £ ¤
– Soient x, y ∈ E deux vecteurs, on a Vect [x]+Vect y = Vect x, y . Plus généralement, on peut remplacer
x et y par deux familles de vecteurs de E.

3) Sommes directes
MO

Définition 18.9 (somme directe)


Soient F, G deux s.e.v de E, on dit que la somme F + G est directe lorsque tout vecteur x de cette
somme s’écrit de manière unique sous la forme x = x F + x G avec x F ∈ F, et x G ∈ G. Si c’est le cas, la
somme est notée F ⊕ G.

Théorème 18.9 (caractérisation des sommes directes)


Soient F et G deux s.e.v de E, les assertions suivantes sont équivalentes :
a) la somme F + G est directe.
b) ∀ (x F , x G ) ∈ F × G, si x F + x G = 0E alors x F = x G = 0E .
c) F ∩ G = {0E }.
d) l’application linéaire φ : F × G → E définie par φ(x F , x G ) = x F + x G est injective.

Preuve : Celle-ci est simple et laissée en exercice. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 167 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Projections, symétries Chapitre 18 : Espaces vectoriels

ZExemples :
– Dans F (R, R) le s.e.v des fonctions paires et le s.e.v des fonctions impaires sont en somme directe.
– Dans K3 le plan P d’équation x + y + z = 0 et la droite engendrée par le vecteur i = (1, 1, 1) sont en
somme directe, mais P n’est pas en somme directe avec le plan P 0 engendré par i et j = (1, −1, 1).

NE
4) S.e.v. supplémentaires

Définition 18.10 (s.e.v supplémentaires)


Soient F et G deux s.e.v de E , on dit que F et G sont supplémentaires lorsque F ⊕ G = E. Ce qui signifie
que E = F + G et la somme F + G est directe, ou encore : tout vecteur de E s’écrit de manière unique
comme somme d’un vecteur de F et d’un vecteur de G.

ZExemples :
– Dans F (R, R) le s.e.v des fonctions paires et le s.e.v des fonctions impaires sont supplémentaires.
Rb
– Dans E = C 0 ([a; b], R) le s.e.v H = { f ∈ E / a f = 0} et le s.e.v G = Vect [idR ] sont supplémentaires.

AIG
Théorème 18.10 (caractérisations des hyperplans)
Soit H un s.e.v de E, les assertions suivantes sont équivalentes :
a) H est un hyperplan de E (i.e. le noyau d’une forme linéaire sur E non nulle).
b) ∀ x 0 ∈ E \ H, H ⊕ Vect [x 0 ] = E.
c) ∃ x 0 ∈ E \ H tel que H ⊕ Vect [x 0 ] = E.

Preuve : Montrons que a) =⇒ b) : soit x 0 ∈ E \ H, comme x 0 n’est pas dans H, il est facile de voir que H et Vect [x 0 ] sont
en somme directe. Soit φ une forme linéaire (non nulle) telle que ker(φ) = H, on a φ(x 0 ) = α 6= 0, soit x ∈ E et λ = φ(x),
posons y = x − αλ x 0 , on a φ(y) = 0, donc y ∈ H et de plus x = y + αλ x 0 , ce qui prouve que E = H + Vect [x 0 ].
Montrons que b) =⇒ c) : rien à faire.
Montrons que c) =⇒ a) : Pour x ∈ E, il existe y ∈ H et λ ∈ K, uniques tels que x = y + λx 0 . Posons φ(x) = λ. On
définit ainsi une application non nulle de E vers K, on peut vérifier ensuite que φ est bien linéaire (laissé en exercice),
x ∈ ker(φ) ⇐⇒ λ = 0 ⇐⇒ x = y ⇐⇒ x ∈ H, donc ker(φ) = H, ce qui prouve que H est un hyperplan. 
NT
IV PROJECTIONS, SYMÉTRIES

1) Projecteurs

Définition 18.11
Soit E un K-e.v, une projection dans E (ou un projecteur de E) est un endomorphisme p de E tel que
p 2 = p (i.e. p ◦ p = p).

ZExemples :
– E = K2 et p(x, y) = (x, 0).
f (x)+ f (−x)
– E = F (R, R) et p qui à f ∈ E associe p( f ) : x 7→ .
MO

2
Remarque 18.5 – Invariants d’un endomorphisme : si f ∈ L (E), alors x ∈ E est invariant par f (ou un point
fixe de f ) si et seulement si f (x) = x, ce qui équivaut à ( f − idE )(x) = 0E , ou encore x ∈ ker( f − idE ). L’ensemble
des points fixes de f est donc le s.e.v ker( f − idE ).

Théorème 18.11 (caractérisation des projections)


p ∈ L (E) est un projecteur ⇐⇒ E = ker(p) ⊕ ker(p − idE ). Si c’est le cas, alors Im(p) = ker(p − idE ) et
on dit que p est la projection sur Im(p) parallèlement à ker(p). Tout vecteur x de E se décompose de
la manière suivante : x = (x − p(x)) + p(x), avec x − p(x) ∈ ker(p) et p(x) ∈ ker(p − idE ).

Preuve : Si p est un projecteur, soit x ∈ ker(p) ∩ ker(p − idE ), alors p(x) = 0E = x, donc la somme est directe. Soit x ∈ E,
alors p(x − p(x)) = p(x) − p 2 (x) = 0E , donc x − p(x) ∈ ker(p), on a alors x = (x − p(x)) + p(x) et p(x) ∈ ker(p − idE ),
donc E = ker(p) ⊕ ker(p − idE ). De la définition, il découle que Im(p) ⊂ ker(p − idE ), l’inclusion étant évidente, on a
Im(p) = ker(p − i d E ).
Réciproque : si E = ker(p) ⊕ ker(p − idE ), soit x ∈ E, alors x = y + z avec y ∈ ker(p) et z ∈ ker(p − idE ), d’où p(x) =
p(y) + p(z) = p(z) = z, et donc p 2 (x) = p(z) = z = p(x), ce qui prouve que p est un projecteur. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 168 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Projections, symétries Chapitre 18 : Espaces vectoriels

ker(p)

NE
x − p(x)

Im(p)

p(x) ker(p − id)

ZExemples :
– Dans le premier exemple, p est la projection sur la droite Vect [(1, 0)] et parallèlement à la droite

AIG
Vect [(0, 1)].
– Dans le deuxième exemple, p est la projection sur le s.e.v des fonctions paires, parallèlement au s.e.v
des fonctions impaires.

Théorème 18.12 (projection associée à une décomposition)


Si F et G sont deux s.e.v de E supplémentaires (E = F ⊕ G), alors il existe une unique projection p telle
que Im(p) = F et ker(p) = G, i.e. qui soit la projection sur F parallèlement à G.

Preuve : Pour x ∈ E, il existe x F ∈ F et x G ∈ G, uniques tels que x = x F + x G , on pose alors p(x) = x F , ce qui définit une
application de E dans E. On vérifie facilement que p est linéaire, et comme x F ∈ F, on a par définition même de p, que
p 2 (x) = x F = p(x), donc p est bien un projecteur. On a p(x) = 0E ⇐⇒ x F = 0E ⇐⇒ x = x G ⇐⇒ x ∈ G, donc ker(p) = G,
d’autre part, p(x) = x ⇐⇒ x = x F ⇐⇒ x ∈ F, donc ker(p − idE ) = F, ce qui termine la preuve. 
ZExemples :
– Soit E = K3 , F = {(x, y, z) ∈ E / z = 0} et G = Vect [(1, 1, 1)]. Montrer que F et G sont supplémentaires, et
NT
déterminer l’expression analytique de la projection sur F parallèlement à G.
– Soit p un projecteur de E, montrer que q = idE −p est un projecteur, préciser ses éléments caractéris-
tiques.

2) Symétries

Définition 18.12
Soit E un K-e.v, une symétrie de E est un endomorphisme s tel que s 2 = idE (involution linéaire).

ZExemples :
MO

– Dans E = K2 , l’application s définie par s(x, y) = (y, x) est une symétrie.


– Dans E = F (R, R) l’application s définie par s( f ) est la fonction qui à s( f ) : x 7→ f (−x), est une symétrie.

Théorème 18.13 (caractérisation des symétries)


Soit s ∈ L (E), s est une symétrie ⇐⇒ E = ker(s − idE ) ⊕ ker(s + idE ). Ce qui revient à dire que l’ap-
plication p = 21 (idE +s) est une projection. Si c’est le cas, on dit que s est la symétrie par rapport à
ker(s − idE ) (ensemble des invariants) et parallèlement à ker(s + idE ), et on dit que p est la projection
associée à s. Tout vecteur x de E se décompose de la manière suivante :
x = 21 (x + s(x)) + 12 (x − s(x)),
1 1
avec 2 (x + s(x)) ∈ ker(s − idE ) et 2 (x − s(x)) ∈ ker(s + idE ).

Preuve : Posons p = 12 (idE +s), s est une symétrie équivaut à s 2 = idE , c’est à dire (2p − idE )2 = idE , ou encore p 2 = p, ce
qui équivaut à dire que E = ker(p) ⊕ ker(p − idE ), et donc E = ker(s + idE ) ⊕ ker(s − idE ). 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 169 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Généralisation Chapitre 18 : Espaces vectoriels

ker(p) = ker(s + id)

NE
x − p(x)

ker(p − id)
p(x) ker(s − id)

p(x) − x

s(x)

AIG
Théorème 18.14 (symétrie associée à une décomposition)
Si F et G sont deux s.e.v de E supplémentaires (E = F ⊕ G), alors il existe une unique symétrie s telle
que ker(s − idE ) = F et ker(s + idE ) = G, i.e. qui soit la symétrie par rapport à F et parallèlement à G.

Preuve : Soit p la projection sur F parallèlement à G, posons s = 2p − idE , on sait alors que s est une symétrie et
ker(s − idE ) = ker(p − idE ) = F et ker(s + idE ) = ker(p) = G, donc s existe. Réciproquement, si s existe, alors la projection
associée est nécessairement la projection sur F parallèlement à G, or celle-ci est unique, c’est p, donc s est unique. 

ZExemples :
– Dans le premier exemple ci-dessus, s est la symétrie par rapport à la droite Vect [(1, 1)] et parallèlement
à la droite Vect [(1, −1)].
– Dans le deuxième exemple, s est la symétrie par rapport au s.e.v des fonctions paires, et parallèlement
au s.e.v des fonctions impaires.
NT
V GÉNÉRALISATION

1) Sous espace engendré

Définition 18.13 (généralisation)


Soit (x i )i ∈I une famille de vecteurs de E. On appelle combinaison linéaire de la famille, tout vecteur de
E pouvant s’écrire comme combinaison linéaire d’un nombre fini de vecteurs de la famille. Notation :
j ∈J α j x j / J partie finie de I et ∀ j ∈ J, α j ∈ K .
©P ª
Vect [(x i )i ∈I ] =

Remarque 18.6 – Si X est une partie de E, on notera Vect [X] l’ensemble des combinaisons linéaires des vecteurs
MO

de X. On peut écrire : ½ ¾
αx x / (αx )x∈X est une famille de scalaires tous nuls sauf un nombre fini .
P
Vect [X] =
x∈X
De telles familles de scalaires sont appelées familles à support fini. Le théorème 18.7 se généralise alors
ainsi :
Si f ∈ L (E, F) alors f ( αx x) = αx f (x), pour toute famille de scalaires (αx )x∈X à support fini.
P P
x∈X x∈X

Théorème 18.15 (sous-espace engendré)


Soit (x i )i ∈I une famille de vecteurs de E, Vect [(x i )i ∈I ] est un s.e.v de E. C’est même le plus petit (pour
l’inclusion) s.e.v de E qui contient tous les vecteurs de cette famille. On l’appelle s.e.v engendré par
(x i )i ∈I .

Preuve : Celle-ci est simple et laissée en exercice. 


ZExemple : K[X] = Vect [(Xn )n∈N ].

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 170 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 18 : Espaces vectoriels

2) Sommes de s.e.v.

Définition 18.14 (somme de s.e.v)


Si F1 , . . . , Fp sont des s.e.v. de E, la somme de ces s.e.v. est :
F1 + · · · + Fp = {x ∈ E / ∃ u 1 ∈ F1 , . . . , u p ∈ Fp , x = u 1 + · · · + u p }.

NE
Théorème 18.16
Une somme de s.e.v de E est un s.e.v de E.

Preuve : F1 , . . . , Fp sont des s.e.v de E , donc ce sont en particulier des K-e.v, par conséquent le produit cartésien
F1 × · · · × Fp est lui-même un K-e.v. On considère alors l’application f : F1 × · · · × Fp → E définie par f (u 1 , . . . , u p ) =
u 1 + · · · + u p . On vérifie facilement que f est linéaire, il est clair d’après la définition que F1 + · · · + Fp = Im( f ), et donc
c’est un s.e.v de E. 
ZExemple : K3 = Vect [(1, 0, 0)] + Vect [(0, 1, 0)] + Vect [(0, 0, 1)].

AIG
Définition 18.15 (somme directe)
Soient F1 , . . . , Fp des s.e.v de E, on dit que la somme F1 + · · · + Fp est directe lorsque tout vecteur de
cette somme s’écrit de manière unique sous la forme u 1 + · · · + u p avec u i ∈ Fi , 1 6 i 6 p. Si c’est le
cas, la somme est notée F1 ⊕ · · · ⊕ Fp .

Théorème 18.17 (caractérisation des sommes directes)


Soient F1 , . . . , Fp des s.e.v de E, les assertions suivantes sont équivalentes :
a) la somme F1 + · · · + Fp est directe.
b) ∀ (x 1 , . . . , x p ) ∈ F1 × · · · × Fp , si x 1 + · · · + x p = 0E alors x 1 = · · · = x p = 0E .
c) ∀i ∈ J1 ; p K, l’intersection entre Fi et la somme des autres s.e.v. est réduite à {0E }.
d) l’application linéaire φ : F1 × · · · × Fp → E définie par φ(x 1 , . . . , x p ) = x 1 + · · · + x p est injective.
NT
Pp Pp Pp
Preuve : Montrons a) =⇒ b) : soient x i ∈ Fi tels que i =1 x i = 0E , alors i =1 x i = i =1 0E , or 0E est dans chaque Fi ,
l’unicité permet de conclure que x i = 0E .
Montrons que b) =⇒ c) : soient x 1 ∈ F1 ∩ (F2 + · · · + Fp ) alors il existe x 2 ∈ F2 , . . . , x p ∈ Fp tels que x 1 = x 2 + · · · + x p ,
alors x 1 − x 2 − · · · − x p = 0E avec −x i ∈ Fi , et donc chacun de ces vecteurs est nul, en particulier x 1 . Le raisonnement est
le même si on permute les indices.
Montrons c) =⇒ d ) : si (x 1 , . . . , x p ) ∈ ker(φ) alors x 1 + · · · + x p = 0E et donc x 1 = −x 2 − · · · − x p , or ce vecteur est dans
F2 + · · · + Fp , donc x 1 = 0E , le même façon on montre que les autres sont nuls et donc que φ est injective.
Montrons que d ) =⇒ a) : Si x 1 + · · · + x p = y 1 + · · · + y p avec x i , y i ∈ Fi , alors (x 1 − y 1 ) + · · · + (x p − y p ) = 0E , donc
(x 1 − y 1 , . . . , x p − y p ) ∈ ker(φ) (car x i − y i ∈ Fi ), φ étant injective il vient que x i − y i = 0E d’où l’unicité de la décomposition,
la somme est donc directe. 

Attention !
MO

Si Fi ∩ F j = {0E }, pour i 6= j dans J1 ; p K, cela ne prouve pas que la somme F1 + · · · + Fp est directe. Par exemple, soit
F1 = Vect [(1, 0, 0)], F2 = Vect [(0, 1, 0)] et F3 = Vect [(1, 1, 0)], alors F1 ∩ F2 = F2 ∩ F3 = F1 ∩ F3 = {0E }, mais la somme
F1 + F2 + F3 n’est pas directe puisque F1 + F2 = F3 .

ZExemple : K[X] = F0 ⊕ F1 ⊕ F2 avec Fi = Vect (X3n+i )n∈N , i ∈ J0 ; 2K.


£ ¤

VI SOLUTION DES EXERCICES

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 171 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 19

Fractions rationnelles

Sommaire
I Construction de l’ensemble des fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . 172

AIG
1) Définition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
2) Opérations sur les fractions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
3) Représentants irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
II Degré, pôles et racines d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1) Notion de degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
2) Pôles et racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
3) Fonctions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
4) Dérivation d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
III Décomposition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
1) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
2) Éléments simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
3) Existence de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
IV Décomposition dans le cas complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
NT
2) Calcul d’une partie polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
3) Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
V Décomposition dans le cas réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
2) Calcul des éléments simples de seconde espèce . . . . . . . . . . . . . . . . . . . . . . . 180
VI Applications de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
1) Calcul de la dérivée n-ième d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . 181
2) Primitives d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
VII Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

I CONSTRUCTION DE L’ENSEMBLE DES FRACTIONS RATIONNELLES


MO

Le corps K désigne un sous-corps de C, i.e. un corps inclus dans C.

1) Définition d’une fraction rationnelle


Dans l’ensemble K[X] × (K[X] \ {0}) = {(P, Q) / P, Q ∈ K[X], Q 6= 0}, on définit la relation R en posant :

(P, Q)R(R, S) ⇐⇒ P × S = Q × R.

On vérifie que la relation R est une relation d’équivalence dans K[X]×(K[X]\{0}). La transitivité de la relation
utilise l’intégrité de K[X].

Définition 19.1
On appelle fraction rationnelle à coefficients dans K toute classe d’équivalence pour la relation R. La

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 172 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Construction de l’ensemble des fractions rationnelles Chapitre 19 : Fractions rationnelles
P
classe de (P, Q) est notée Q [avec P le numérateur et Q le dénominateur], on a donc :

P
= {(R, S) ∈ K[X] × (K[X] \ {0}) / PS = QR}.
Q

NE
P
On dit que (P, Q) est un représentant de la fraction Q . L’ensemble des fractions rationnelles est noté
K(X) et la relation R est appelée égalité des fractions rationnelles.

2) Opérations sur les fractions

Définition 19.2 (addition, multiplication, produit par un scalaire)


P R
Soient Q, S deux fractions rationnelles et soit λ ∈ K, on pose :

P R PS + QR P R PR P λP
+ = , × = , et λ = .
Q S QS Q S QS Q Q

AIG
Pour que la définition ait un sens il faut le résultat ne dépende pas des représentants choisis pour les
P P0 R R0
fractions, c’est à dire si Q =Q 0 et S = S 0 , alors :

PS + QR P 0 S 0 + Q0 R0 PR P 0 R0 P P0
= ; = et λ = λ .
QS Q0 S 0 QS Q0 S 0 Q Q0

Cette vérification est simple et laissée en exercice.


Propriétés :
a) Pour l’addition :
– elle est associative, commutative,
– elle admet un élément neutre, la fraction Q0 (∀ Q 6= 0), appelée fraction nulle. On remarquera qu’une
fraction est nulle ssi son numérateur est nul.
P P P
– toute fraction Q admet un opposé et − Q = −PQ = −Q .
b) Pour la multiplication :
NT
– elle est associative, commutative,
P
– elle admet un élément neutre qui est la fraction (∀ P 6= 0), appelée fraction unité.
P ³ ´−1
P P Q
– toute fraction non nulle (i.e. P 6= 0) admet un inverse, et Q
Q = P.
– elle est distributive sur l’addition.
c) Pour le produit par un scalaire : ∀ λ, µ ∈ K, ∀ F, G ∈ K(X) :

1.F = F ; λ.(F + G) = λ.F + λ.G ; (λ + µ).F = λ.F + λ.G ; λ.(µ).F = (λµ).F

et
λ.(F × G) = (λ.F) × G = F × (λ.G).
MO

Par conséquent, (K(X), +, ×) est un corps commutatif et (K(X), +×, .) est une K-algèbre commutative.

3) Représentants irréductibles

Théorème 19.1 (plongement des polynômes dans K(X))


P
L’application φ : K[X] → K(X) définie par φ(P) = 1 est un morphisme d’algèbres injectif.

Preuve : Celle-ci est simple et laissée en exercice. 


P
Par conséquent on peut identifier le polynôme P avec la fraction 1 , ce qui fait que l’on peut considérer
que K[X] ⊂ K(X). En particulier la fraction nulle (en vertu de l’égalité des fractions) est identifiée au polynôme
nul 0, et la fraction unité est identifiée au polynôme constant 1.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 173 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Degré, pôles et racines d’une fraction Chapitre 19 : Fractions rationnelles

Définition 19.3
P P
Soit F = Q une fraction, on dit que Q est un représentant irréductible lorsque pgcd(P, Q) = 1 et que Q
est unitaire.

NE
3
X 2 +X+1 X 2 +X+1
ZExemple : Soit F = XX2 −1
−1
, un représentant irréductible est X+1 , c’est à dire F = X+1 .
Remarque 19.1 – Toute fraction admet des représentants irréductibles. Comme on impose en plus que le
dénominateur doit être unitaire, alors il y a un seul représentant irréductible.

II DEGRÉ, PÔLES ET RACINES D’UNE FRACTION

1) Notion de degré
P R P
Soit F une fraction non nulle et Q , S deux représentants de F (i.e. F = Q = RS ), on a donc PS = QR, d’où
deg(P) − deg(Q) = deg(R) − deg(S). Autrement dit, la différence entre le degré du numérateur et le degré du
dénominateur, ne dépend pas du représentant de F, mais seulement de F.

AIG
Définition 19.4 (degré d’une fraction)
P
Soit F = Q une fraction, on pose deg(F) = −∞ si F = 0, et deg(F) = deg(P) − deg(Q) sinon. Le degré
d’une fraction est donc un élément de Z ∪ {−∞}.

Remarque 19.2 – Soit P un polynôme, en tant que polynôme son degré est deg(P), mais en tant que fraction,
son degré est deg( P1 ) = deg(P) − deg(1) = deg(P), on trouve bien la même chose.
2
ZExemple : deg( X X+1
+X+1 X
) = 1 et deg( X3 −X 2 +2 ) = −2.

Théorème 19.2 (propriétés du degré)


Soient F, G ∈ K(X), on a : deg(F+G) 6 max(deg(F), deg(G)), et deg(F×G) = deg(F)+deg(G). On retrouve
les mêmes propriétés que pour les polynômes.
NT
P
Preuve : Posons F = Q et G = RS , alors F × G = QS
PR
, donc deg(F × G) = deg(PR) − deg(QS) = deg(P) − deg(Q) + deg(R) −
deg(S) = deg(F) + deg(G). De même, deg(F + G) = deg(PS + QR) − deg(QS), or deg(PS + QR) 6 max(deg(PS), deg(QR)),
donc on a deg(F + G) 6 deg(PS) − deg(QS) ou deg(F + G) 6 deg(QR) − deg(QS), c’est à dire deg(F + G) 6 deg(F) ou
deg(F + G) 6 deg(G), finalement, deg(F + G) 6 max(deg(F), deg(G)). 
Remarque 19.3 :
– Une fraction rationnelle constante non nulle a un degré nul, mais la réciproque est fausse, par exemple :
X
F = X+1 .
– Si deg(F) 6= deg(G) alors deg(F + G) = max(deg(F), deg(G)).
– Une fraction F est nulle ssi son degré vaut −∞.

2) Pôles et racines
MO

Définition 19.5
P
Soit F ∈ K(X) non nulle, et soit Q un représentant irréductible de F. On dit que a ∈ K est racine de F
de multiplicité m ∈ N lorsque a est racine du numérateur P de multiplicité m. On dit que a ∈ K est

pôle de F de multiplicité m ∈ N∗ lorsque a est racine du dénominateur Q de multiplicité m.

Remarque 19.4 :
P
– Puisque Q est irréductible, on voit qu’un scalaire a ne peut pas être à la fois pôle et racine de F, sinon P et
Q seraient divisibles par X − a.
– a est un pôle de F de multiplicité m ∈ N∗ revient à dire que a est racine de multiplicité m de F1 .
X 3 −1
– Par exemple, la fraction F = X 2 −1
possède deux racines complexes simples j et j 2 , un pôle simple −1,
mais pas racine réelle.

3) Fonctions rationnelles

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 174 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Degré, pôles et racines d’une fraction Chapitre 19 : Fractions rationnelles

Définition 19.6
P
Soit F ∈ K(X) et Q un représentant irréductible de F. On pose DF = K \ {pôles de F}, c’est à dire
DF = {x ∈ K / Q(x) 6= 0}. On appelle fonction rationnelle de K dans K associée à la fraction F, la
e de DF vers K définie par F(x)
fonction notée F = P(x) .
e
e

NE
e Q(x)

Remarque 19.5 – Avant d’étudier une fonction rationnelle, il faut la mettre sous forme irréductible.

Théorème 19.3
Soient F, G ∈ K(X), si les fonctions rationnelles F e sont égales sur une partie infinie I de DF ∩ DG ,
e et G
alors les fractions rationnelles sont égales, i.e. F = G.

Preuve : Le corps K est infini, l’ensemble des pôles de F et celui de G sont finis, donc DF ∩ DG est un ensemble infini.
P
Posons F = Q et G = RS irréductibles, alors ∀ x ∈ I, on a P(x)S(x) − R(x)Q(x) = 0, donc le polynôme PS − QR est nul
(infinité de racines) ce qui signifie exactement que F = G. 

AIG
4) Dérivation d’une fraction rationnelle
P R
Soit F ∈ K(X) une fraction rationnelle et Q = S deux représentants de F, on a PS = QR, d’où (P 0 Q−PQ0 )S 2 =
P 0 QS 2 −PQ0 S 2 = P 0 QS 2 −Q0 QRS = QS(P 0 S −Q0 R), mais en dérivant la relation polynomiale PS = QR on obtient
P 0 S + PS 0 = Q0 R + QR0 , d’où (P 0 Q − PQ0 )S 2 = QS(QR0 − PS 0 ) = Q2 SR0 − QPSS 0 = Q2 SR0 − Q2 RS 0 = Q2 (SR0 − RS 0 ),
ce qui traduit l’égalité des fractions :
P 0 Q − PQ0 R0 S − RS 0
= .
Q2 S2

Définition 19.7
P dF
Soit F = Q ∈ K(X), on appelle fraction dérivée de F la fraction notée F0 (ou d X ) définie par :

P 0 Q − PQ0
F0 = ,
NT
Q2

Le résultat ne dépend pas du représentant de F choisi. On définit également les dérivées successives
¢0
de F en posant F(0) = F et pour tout n ∈ N, F(n+1) = F(n) .
¡

Remarque 19.6 –
¡ ¢0 0 0
– Soit P un polynôme, la dérivée de P en tant que fraction rationnelle est P1 = P 1−P1
12
= P 0 , on retrouve
bien la dérivée de P en tant que polynôme.
X
– Contrairement aux polynômes le degré de F0 n’est pas toujours égal à deg(F) − 1, par exemple : F = X+1 ,
0 1 0
on a deg(F) = 0 et F = (X+1)2 donc deg(F ) = −2.
Par contre on a toujours deg(F0 ) 6 deg(F) − 1.
MO

FExercice 19.1 Montrer que si F0 = 0 alors F est une fraction constante.

Théorème 19.4 (propriétés)


On retrouve les propriétés usuelles de la dérivation avec les formules usuelles : (F + G)0 = F0 + G0 ; (F ×
¡ ¢0 0
G)0 = F0 × G + F × G0 ; (λ.F)0 = λ.F0 ; F1 = −F
F2
, et la formule de Leibniz :
à !
n n
(F × G)(n) = F(k) × G(n−k) .
X
k=0 k

Preuve : Celle-ci est laissée en exercice. 

Définition 19.8 (Dérivée logarithmique)


F0
Soit F une fraction non nulle, la dérivée logarithmique de F est la fraction F.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 175 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Décomposition d’une fraction rationnelle Chapitre 19 : Fractions rationnelles

Théorème 19.5
Si F est une fraction non nulle qui se factorise en F = F1 × · · · × Fn dans K(X) avec (n ∈ N∗ ), alors :
F0 F01 F0
F = F1 + · · · + Fnn .

NE
F0 F01 F2 +F1 F02
Preuve : Par récurrence sur n en commençant par le cas n = 2. Si F = F1 F2 alors F0 = F01 F2 + F1 F02 , d’où F = F1 F 2 =
F01 F02
F1 + F2 . Le passage du rang n au rang n + 1 se ramène au cas n = 2. 

III DÉCOMPOSITION D’UNE FRACTION RATIONNELLE

1) Partie entière
Soit F = BA une fraction, on effectue la division euclidienne de A par B : A = BQ + R avec deg(R) < deg(B).
On a alors F = Q + BR avec deg( BR ) < 0 et Q ∈ K[X]. Supposons qu’il existe un autre polynôme S et une fraction
G tels que F = S + G avec deg(G) < 0, alors deg(Q − S) = deg(G − BR ) < 0 donc Q = S car ce sont des polynômes,
et G = BR . On peut donc énoncer :

AIG
Théorème 19.6
Soit F ∈ K(X), il existe un unique polynôme Q tel que deg(F−Q) < 0, celui-ci est appelé partie entière
de F, c’est le quotient dans la division euclidienne du numérateur de F par le dénominateur.

Remarque 19.7 – Si deg(F) < 0 alors la partie entière de F est nulle (à cause de l’unicité).

2) Éléments simples

Définition 19.9
A
Un élément simple de K(X) est une fraction du type Bn où B est un polynôme irréductible unitaire
(i.e. B ∈ IK[X] ), deg(A) < deg(B), et n > 1.
NT
– Éléments simples dans C(X) :
on sait que IC[X] = {X − a / a ∈ C}, donc les éléments simples de C(X) sont les fractions :
α
avec α, a ∈ C et n > 1.
(X − a)n

– Éléments simples de R(X) :


on sait que IR[X] = {X − a / a ∈ R} ∪ {X 2 + pX + q / p, q ∈ R, p 2 − 4q < 0}, donc les éléments simples de
R(X) sont de deux types :
• éléments simples de première espèce :
α
avec α, a ∈ R et n > 1.
(X − a)n
MO

• éléments simples de seconde espèce :

aX + b
avec a, b, p, q ∈ R, p 2 − 4q < 0, et n > 1.
(X 2 + pX + q)n

Définition 19.10
Décomposer une fraction rationnelle F non nulle, c’est l’écrire comme somme de sa partie entière et
d’éléments simples.

ZExemples :
3
– F = XX2 +1 , sa partie entière est X, et on a F = X + X−X
2 +1 : c’est la décomposition de F en éléments simples

dans R(X), mais pas dans C(X).


– Dans C(X) on a : F = X + −1/2 −1/2
X+i + X−i .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 176 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Décomposition d’une fraction rationnelle Chapitre 19 : Fractions rationnelles

3) Existence de la décomposition
Soit F une fraction non nulle et non polynomiale : F = BA (forme irréductible), on calcule sa partie entière :
E, on a alors = E + BR avec deg( BR ) < 0, on est alors amené à décomposer une fraction de degré strictement
négatif en éléments simples.

NE
r
m
Pi i (on peut
Q
On factorise le dénominateur B en produit de polynômes irréductibles unitaires : B =
i =1
supposer B unitaire).

Théorème 19.7
A
Si T, S sont deux polynômes premiers entre eux et si deg( TS ) < 0, alors il existe deux polynômes U et
V tels que :
A U V
= + avec deg(U) < deg(T), deg(V) < deg(S).
TS T S

A AU 0 0
Preuve : Il existe deux polynômes U 0 , V 0 tels que U 0 S + V 0 T = 1 (théorème de Bezout), on a alors TS = T + AV
S , soit E1 la
AU 0 AV 0 AU 0 U
partie entière de T et E2 celle de
S , il existe deux polynômes U et V tels que T = E1 + T avec deg(U) < deg(T), et

AIG
AV 0 V A U V U V
S = E2 + S avec deg(V) < deg(S), d’où : TS = E1 + E2 + T + S , mais deg( T + S ) < 0, donc E1 + E2 est la partie entière de
A
TS , or celle-ci est nulle, donc E1 + E2 = 0, ce qui donne le résultat. 
Conséquence : Par récurrence on en déduit que si B1 , . . . , Bn sont premiers entre eux deux à deux et si
A
deg( B1 ×...×Bn
) < 0, alors il existe des polynômes U1 , . . . , Un tels que :

A n U
X i
= avec deg(Ui ) < deg(Bi ).
B1 × . . . × Bn i =1 Bi

En appliquant ceci à notre fraction F, on peut affirmer qu’il existe des polynômes (Ui )16i 6r tels que :
r U
X i m
F=E+ mi avec deg(Ui ) < deg[Pi i ].
i =1 Pi
NT
Théorème 19.8
Si T est un polynôme irréductible unitaire et si deg( TAn ) < 0 (n > 1), alors il existe des polynômes
V1 , . . . , Vn tels que :
A n V
X k
= avec deg(Vk ) < deg(T).
T n k=1 T k
C’est une décomposition en éléments simples.

A
Preuve : Par récurrence sur n : pour n = 1 il n’y a rien à faire. Si le théorème est vrai au rang n et si deg( Tn+1 ) < 0, alors
A Q V
on effectue la division euclidienne de A par T : A = QT + Vn+1 avec deg(Vn+1 ) < deg(T), ce qui donne T n+1
= Tn + Tn+1
n+1 , il
Q
est facile de voir que deg( Tn ) < 0, on peut donc appliquer l’hypothèse de récurrence, ce qui donne le résultat. 
MO

Ui
On peut appliquer ce théorème à chacune des fractions : il existe des polynômes V1,i , . . . , Vmi ,i tels
m
Pi i
que :
mi V
Ui X j ,i
mi = j
avec deg(V j ,i ) < deg(Pi ).
Pi j =1 P
i
Ce qui donne pour F : " #
r mi V
X X j ,i
F=E+ j
.
i =1 j =1 Pi
C’est une décomposition de F en éléments simples.

Théorème 19.9 (admis)


La décomposition en éléments simples est unique.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 177 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Décomposition dans le cas complexe Chapitre 19 : Fractions rationnelles
0
Théorème 19.10 (décomposition de PP )
m m
Soit P un polynôme non nul et P = λP1 1 × · · · × Pn n sa décomposition en facteurs irréductibles
P0 m 1 P10 m n Pn0
unitaires, alors P = P1 +···+ Pn (décomposition en éléments simples).

NE
Preuve : Découle de la propriété de la dérivée logarithmique. 

IV DÉCOMPOSITION DANS LE CAS COMPLEXE

1) Forme de la décomposition
r
A
∈ C(X), sous forme irréductible, soit E sa partie entière et soit B = (X − a k )mk la factorisa-
Q
Soit F = B
k=1
tion du dénominateur. Les complexes a k sont les pôles de F, et les entiers m k (> 1) sont les multiplicités
respectives.
D’après l’étude générale, la forme de la décomposition de F sera :

AIG
" #
r
X m
Xk b j ,k
F=E+ j
.
k=1 j =1 (X − a k )

b j ,k
Chaque pôle de F va donc générer des éléments simples qui lui correspondent : ce sont les (X−a k ) j
pour
j ∈ J1 ; m k K.

Définition 19.11 (partie polaire)


La somme des éléments simples relatifs au pôle a k est appelée partie polaire de F relative au pôle a k ,
elle est notée PF (a k ).

m
Pk b j ,k
On a donc PF (a k ) = (X−a k ) j
, et la forme de la décomposition de F est :
j =1

F = E + PF (a 1 ) + · · · + PF (a r ).
NT
C’est à dire : partie entière plus les parties polaires relatives aux pôles de F.

La décomposition dans C(X) consiste donc à calculer des parties polaires.

2) Calcul d’une partie polaire


Soit F = BA ∈ C(X) (sous forme irréductible) et soit a ∈ C un pôle de F de multiplicité m > 1.
– Cas d’un pôle simple : on prend m = 1. On peut écrire B = (X − a)Q avec Q(a) 6= 0. Comme m = 1, la
c
partie polaire de F relative à a est PF (a) = X−a , en regroupant les parties polaires relatives aux autres
c
pôles, on peut écrire F = E + X−a +UV avec E la partie entière et deg( U
V ) < 0. En multipliant par X − a
on obtient : Q = (X − a)E + c + (X − a) V , mais a n’étant pas un pôle de U
A U
V , on peut évaluer en a, ce qui
MO

A(a) 0
donne : c = Q(a) . Comme B = (X − a)Q, il est facile de voir que Q(a) = B (a), en conclusion :

Si a est un pôle simple de F = BA , alors la partie polaire de F relative à a est :

c A(a) A(a)
PF (a) = X−a avec c = B0 (a) = Q(a) où Q est tel que B = (X − a)Q.

ZExemple : Soit F = Xn1−1 avec n > 1. On a deg(F) < 0 donc la partie entière est nulle. Les pôles de F sont
les racines n-ièmes de l’unité : a k = exp(2i kπ/n) avec k ∈ J0 ; n − 1K, et ce sont des pôles simples. La
ck 1 ak
partie polaire de F relative à a k est X−a k avec c k = na kn−1
= n . La décomposition de F est :

1 n−1
X ak
n
= .
X − 1 k=0 n(X − a k )

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 178 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Décomposition dans le cas complexe Chapitre 19 : Fractions rationnelles

– Cas d’un pôle double : on prend m = 2, on peut écrire B = (X − a)2 Q avec Q(a) 6= 0, la partie polaire de
α β
F relative à a est PF (a) = X−a + (X−a)2 , en regroupant les parties polaires relatives aux autres pôles, on
obtient :
α β U U
F=E+ + 2
+ avec deg( ) < 0.
X − a (X − a) V V

NE
U A(a)
Si on multiplie le tout par (X − a)2 et que l’on évalue en a (a n’est pas un pôle de V ), on obtient β = Q(a) .
β α
Pour obtenir α, on peut poser G = F − (X−a)2 , on a alors G = E + X−a +UV , donc a est un pôle simple de
G, ce qui nous ramène au cas précédent.
A
Autre méthode : on pose H = (X − a)2 × F = Q , on a en fait H = (X − a)2 E + α(X − a) + β + (X − a)2 U
V , en
évaluant en a on trouve β = H(a), et en évaluant la dérivée en a, on trouve α = H0 (a). En conclusion :

Si a est un pôle double de F = BA , alors la partie polaire de F relative à a est :

α β
PF (a) = X−a + (X−a)2 avec β = H(a) et α = H0 (a), en posant H = (X − a)2 × F.

Remarque 19.8 – Cette autre méthode se généralise au cas d’un pôle a de multiplicité m > 3 en posant

AIG
H = (X − a)m × F.
6
ZExemple : Soit F = (X−1)X2 (X3 +1) .
La fraction est irréductible et son degré vaut 1, il y a donc une partie entière non nulle, on trouve E = X + 2
(le dénominateur est égal à X 5 − 2X 4 + X 3 + X 2 − 2X + 1). La fraction possède 4 pôles :
3
• 1 : c’est un pôle double, on pose H = (X − 1)2 × F = XX3 +1 , la partie polaire relative à 1 est :

9/4 1/2
PF (1) = + .
X − 1 (X − 1)2

Car H(1) = 1/2 et H0 (1) = 9/4.


• −1 : c’est un pôle simple, la partie polaire de F relative à −1 est :

1/12
PF (−1) = .
X+1
NT
* − j : c’est un pôle simple, la partie polaire relative à − j est :

1/3
PF (− j ) = .
X+ j

• − j 2 : est un pôle simple, la partie polaire relative à − j 2 est :

1/3
PF (− j 2 ) = .
X+ j2

Finalement, la décomposition de F en éléments simples dans C(X) est :

9/4 1/2 1/12 1/3 1/3


MO

F = X+2+ + 2
+ + + .
X − 1 (X − 1) X+1 X+ j X+ j2

3) Cas particuliers
– Si F est à coefficients réels alors :
les parties polaires relatives aux pôles conjugués, sont conjuguées.
Preuve : Si a est un pôle complexe non réel de F de multiplicité m, alors on sait que a est un pôle de F de
même multiplicité car F ∈ R(X), en regroupant les parties polaires relatives aux pôles autres que a, on obtient :
F = E + PF (a) + U U
V , où E ∈ R[X] est la partie entière, si on conjugue l’expression, alors on obtient : F = E + PF (a) + V .
m m
P ck P ck
Si on pose PF (a) = (X−a)k
, alors PF (a) = (X−a)k
et donc :
k=1 k=1

m
X ck U
F=E+ + ,
k=1 (X − a)k V

U
mais a n’est pas un pôle de , donc PF (a) est la partie polaire de F relative à a, i.e. PF (a) = PF (a). 
V

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 179 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Décomposition dans le cas réel Chapitre 19 : Fractions rationnelles
1
ZExemple : Soit F = (X2 +X+1) 2 , deg(F) < 0 donc sa partie entière est nulle. F possède deux pôles doubles
H0 ( j ) H( j ) 1
j et j 2 . La partie polaire relative au pôle j est : PF ( j ) = X− j + (X− j )2 en posant H = (X − j )2 × F = (X− j 2 )2
,
p
on obtient H( j ) = −1/3 et H0 ( j ) = − 2i 9 3 . F étant à coefficients réels, la partie polaire relative à 2
j est la
conjuguée de celle relative à j , la décomposition de F est donc :

NE
p p
−1 2i 3 −1 2i 3
F= − + + .
3(X − j )2 9(X − j ) 3(X − j )2 9(X − j )

– Si F est paire ou impaire, alors en utilisant la relation entre F(X) et F(−X) et avec l’unicité de la décom-
position, on obtient des relations entre les coefficients à déterminer dans les parties polaires.
4
X +1
ZExemple : Soit F = X(X 2 −1)2 .

deg(F) < 0 donc la partie entière est nulle. La fraction est irréductible, impaire, et possède un pôle
simple : 0, et deux pôles doubles : 1 et −1. La forme générale de la décomposition de F est :

a b c d e
F= + + 2
+ + .
X X − 1 (X − 1) X + 1 (X + 1)2

AIG
F étant impaire, on a F(X) = −F(−X), ce qui donne :

a b −c d −e
+ F= + + + .
X X + 1 (X + 1)2 X − 1 (X − 1)2
(
d =b
L’unicité de la décomposition nous donne les relations : , ce qui fait deux coefficients en
e = −c
moins à calculer. La partie polaire relative à 0 est PF (0) = X1 (pôle simple). En substituant 1 à X dans
(X − 1)2 × F, on obtient c = 1/2, et en faisant tendre x vers +∞ dans la fonction rationnelle x 7→ xF(x),
on obtient la relation 1 = a + b + d i.e. 2b = 0 d’où b = 0, finalement la décomposition de F est :

1 1 1
F= + 2
− .
X 2(X − 1) 2(X + 1)2
NT
V DÉCOMPOSITION DANS LE CAS RÉEL

1) Forme de la décomposition
A
Soit F = B ∈ R(X) (sous forme irréductible), soit E sa partie entière et soit :

n r
(X − a k )mk × (X 2 + p k X + q k )αk
Y Y
B=
k=1 k=1

la factorisation de B en produit de facteurs irréductibles unitaires (p k2 − 4q k < 0). D’après l’étude générale, la
forme de la décomposition de F est :

αk
" # " #
n m r
MO

X Xk b j ,k X X c j ,k X + d j ,k
F=E+ j
+ 2 j
.
k=1 j =1 (X − a k ) k=1 j =1 (X + p k X + q k )

La première somme est en fait la somme des parties polaires de F relatives aux pôles réels de F. Les
techniques de calculs sont les mêmes dans le cas complexe.
La seconde somme est la somme des éléments simples de seconde espèce.

2) Calcul des éléments simples de seconde espèce


On se limitera au cas où X 2 + pX + q est un diviseur irréductible de B de multiplicité 1, en regroupant les
autres éléments simples, on obtient :
aX + b U
F=E+ 2 + .
X + pX + q V
Soient c et c les deux racines complexes (non réelles) de X 2 + pX + q, alors c et c ne sont pas pôles de U V , et c
α
et c sont pôles simples de F, on peut calculer la partie polaire de F relative à c dans C(X) : PF (c) = X−c , comme

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 180 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications de la décomposition Chapitre 19 : Fractions rationnelles
α
F ∈ R(X) on a PF (c) = X−c , la somme de ces deux parties polaires donne : PF (c) + PF (c) = 2Re(α)X−2Re(αc)
X 2 +pX+q
, c’est
un élément simple de R(X), comme la décomposition dans R(X) est unique, il en résulte que :

aX + b 2Re(α)X − 2Re(αc)
= .
X 2 + pX + q X 2 + pX + q

NE
Autre méthode : Soit H = (X 2 + pX + q) ×F, on a : H = (X 2 + pX + q) ×E + aX +b +(X 2 + pX + q) × U
V . On obtient
½
H(c) = ac + b
alors le système : , en résolvant on trouve a et b.
H(c) = ac + b
4
ZExemple : Soit F = XX3 −1 .
On a deg(F) = 1, il y a donc une partie entière non nulle, celle-ci vaut X, d’autre part on a X 3 − 1 =
(X − 1)(X 2 + X + 1), d’où la forme de la décomposition :

a bX + c
F=X+ + 2 .
X−1 X +X+1
1 j2
La partie polaire relative à 1 est PF (1) = 3(X−1) . Dans C(X), la partie polaire relative à j est PF ( j ) = 3(X− j ) , et la

AIG
j
partie polaire relative à j 2 est la conjuguée, i.e. PF ( j 2 ) = 3(X− j 2 ) , la somme de ces deux parties polaires donne :
−X+1
3(X 2 +X+1)
, la décomposition de F est donc :

1 −X + 1
F=X+ + .
3(X − 1) 3(X 2 + X + 1)

Remarque 19.9 – En évaluant en 0 on obtient c − a = 0 d’où c = a = 1/3. En faisant tendre x vers +∞ dans
2
x(F(x) − x) = x 3x−1 , on obtient a + b = 0 d’où b = −a = −1/3.
Le résultat suivant est souvent utile lors du calcul des différents coefficients réels :

Théorème 19.11
Soit z un complexe non réel, soient a, b, c et d quatre réels tels que az + b = c z + d , alors a = c et
b = d.
NT
d −b
Preuve : Par l’absurde, si a 6= c alors on aurait z = c−a ∈ R, or z est non réel, donc a = c, ce qui entraîne b = d . 

VI APPLICATIONS DE LA DÉCOMPOSITION

1) Calcul de la dérivée n-ième d’une fraction

ZExemple : Soit f (x) = x 21+1 , calculons f (n) (x). Dans C(X) on a 1


X 2 +1
= 1
2i (X−i )
1
− 2i (X+i ) , d’où :

1 (−1)n n! (−1)n n!
· ¸
f (n) (x) = − .
2i (x − i )n+1 (x + i )n+1

Ce qui donne :
MO

n
bP
2 c¡
n+1 ¢
k n−2k
2k+1 (−1) x
(n) n Im((x + i )n+1 ) n k=0
f (x) = (−1) n! = (−1) n! .
(x 2 + 1)n+1 (x 2 + 1)n+1

FExercice 19.2 Calculer la dérivée n-ième de la fonction f (x) = (x−1)(xx2 +x+1) .

2) Primitives d’une fraction rationnelle


Soit F ∈ R(X), on décompose F en éléments simples dans R(X), on est donc ramené à calculer des
primitives de trois types :
– La partie entière : c’est un polynôme.
1
– Les éléments simples de première espèce : (X−a)n avec n > 1, on sait les intégrer, car :

(
Z x dt ln(|x − a|) si n = 1
n
= −1
.
(t − a) n−1 si n > 2
(n−1)(x−a)

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 181 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 19 : Fractions rationnelles
aX+b
– Les éléments simples de seconde espèce : X 2 +pX+q
, pour ceux-là la méthode est la suivante :
2
• on fait apparaître la dérivée du trinôme X + pX + q au numérateur et on compense les X en mul-
tipliant par un facteur adéquat, puis on compense les constantes en ajoutant ce qu’il faut, ce qui
donne :
aX + b a 2X + p ap 1

NE
2
= 2
+ (b − ) 2 .
X + pX + q 2 X + pX + q 2 X + pX + q
0
La première de ces deux fractions est facile à intégrer (du type uu ).
• Pour la deuxième fraction : on met le trinôme X 2 + pX + q sous forme canonique afin de mettre la
u0
fraction sous la forme : α 1+u 2 où u est une fonction de x, cette fonction est s’intègre en α arctan(u).
R x dt
ZExemple : Calculons F(x) = t 3 +1 sur ] − 1; +∞[ :
On décompose la fraction rationnelle X31+1 en éléments simples dans R(X), ce qui donne :

1 1 X−2
= − .
X3 + 1 2
3(X + 1) 3(X − X + 1)

On a :
X−2 1 2X − 1 3 1

AIG
= −
X2 − X + 1 2 X2 − X + 1 2 X2 − X + 1
et : p
1 1 2 2/ 3
= =p ³ ´2 .
X 2 − X + 1 (X − 1/2)2 + 3/4 3 2X−1
p +1
3

On en déduit alors : p
1 1 2 3 2x − 1
F(x) = ln(x + 1) − ln(x − x + 1) + arctan( p ).
3 6 3 3
C’est à dire : p
1 x +1 3 2x − 1
F(x) = ln( p )+ arctan( p ) + cte.
3 x2 − x + 1 3 3

VII SOLUTION DES EXERCICES


NT
P
Solution 19.1 Soit F = Q un représentant irréductible, F0 = 0 entraîne P 0 Q = PQ0 , mais P ∧ Q = 1, donc Q | Q0 , d’où Q0 = 0,
donc Q est constant et unitaire, finalement Q = 1 et P 0 = 0, donc P est constant et F aussi.

X
Solution 19.2 Soit F = (X−1)(X 2 +X+1)
. La décomposition dans C(X) de F donne :

1 j2 j
F= + + .
3(X − 1) 3(X − j ) 3(X − j 2 )

On a donc :
(−1)n n! j2
· µ ¶¸
1
f (n) (x) = + 2Re ,
3 (x − 1)n+1 (x − j )n+1
MO

j2 j 2 (x− j 2 )n+1
or (x− j )n+1
= (x 2 +x+1)n+1
, ce qui donne finalement :

n+1
 
P ¡n+1¢ k n+1−k
k (−1) cos(4(k + 1)π/3)x
(−1)n n!  1 k=0

f (n) (x) = +2 .
 
 (x − 1)n+1 (x 2 + x + 1)n+1

3 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 182 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 20

La dimension finie

Sommaire
I Espaces de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

AIG
1) Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
2) Familles libres, familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
3) Familles libres et familles liées en dimension finie . . . . . . . . . . . . . . . . . . . . . 185
II Propriétés de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
1) Bases, coordonnées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
2) Sous-espaces vectoriels en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . 188
3) Applications linéaires et dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
III Notion de rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
1) Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
2) Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
IV Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
1) Hyperplans en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
NT
I ESPACES DE DIMENSION FINIE

1) Familles génératrices

Définition 20.1
Soit E un K-e.v, et soit A une famille de vecteurs de E, on dit que la famille A est une famille génératrice
de E lorsque E = Vect [A]. Ce qui signifie que tout vecteur de E est combinaison linéaire d’un nombre
fini de vecteurs de A.

ZExemples :
MO

– Soit E = Kn , pour i ∈ J1 ; n K, on pose e i = (δi ,1 , . . . , δi ,n ), alors la famille A = (e 1 , . . . , e n ) est une famille


n
P
génératrice de E, car (x 1 , . . . , x n ) = xi e i .
i =1
– Soit E = Kn [X], la famille A = (X i )06i 6n est une famille génératrice de E.
– Soit E = K[X], la famille A = (X i )i ∈N est une famille génératrice de E.
– Soit E = C 0 (R, R), la famille A = ( f k )06k 6n où f k : x 7→ e kx , n’est pas une famille génératrice de E. Si elle
n n
a k X k , on aurait alors pour tout
P P
l’était, il existerait des réels a k tels que sin = a k f k , en posant P =
k=0 k=0
réel x, sin(x) = P(e x ), la fonction sin s’annulant une infinité de fois et la fonction exp étant injective, on
voit que P possède une infinité de racines, donc P = 0 i.e. tous les réels a k sont nuls et donc la fonction
sin est nulle, ce qui est absurde.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 183 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Espaces de dimension finie Chapitre 20 : La dimension finie

Théorème 20.1 (premières propriétés)


Soit A une famillegénératrice de E :
– Toute sur-famille de A est génératrice, i.e. si B est une famille de vecteurs de E telle que A ⊂ B, alors
B est génératrice.

NE
– Si f ∈ L (E, F), alors B = ( f (x))x∈A est une famille génératrice de Im( f ).
– Soit f ∈ L (E, F), alors f est surjective si et seulement si f (A)est une famille génératrice de F.

Preuve : Le premier point est évident. Si f ∈ L (E, F), soit y ∈ Im( f ), alors il existe x ∈ E tel que f (x) = y, mais A est
b
génératrice de E, donc il existe x 1 , . . . , x n ∈ A et des scalaires α1 , . . . , αn tels que x = αi x i , f étant linéaire, on a alors
P
i =1
n
αi f (x i ), ce qui prouve que B est génératrice de Im( f ). Le troisième point en découle.
P
f (x) = 
i =1

FExercice 20.1 Les familles suivantes sont-elles génératrices dans K3 ?


– A = {(1, 1, 1); (−1, 0, 2); (1, 2, 3)}.
– A = {(1, 1, 1), (1, 2, 3)}.

AIG
Définition 20.2 (espace de dimension finie)
Soit E un K-e.v, on dit que E est de dimension finie lorsque E possède une famille génératrice finie,
c’est à dire lorsqu’il existe des vecteurs x 1 , . . . , x n ∈ E tels que E = Vect [x 1 , . . . , x n ]. Si ce n’est pas le cas,
on dit que E est de dimension infinie.

ZExemples :
– Kn est de dimension finie.
– Kn [X] est de dimension finie.
– K[X] est de dimension infinie. En effet : sinon, il existerait une famille de polynômes P1 , . . . , Pn telle que
K[X] = Vect [P1 , . . . , Pn ], mais alors tout polynôme aurait un degré inférieur ou égal à max(deg(P1 ), . . . , deg(Pn )),
ce qui est absurde. Nous verrons plus loin que F (R, R) est également de dimension infinie.

Théorème 20.2
NT
Soit E un K-e.v de dimension finie :
– Si f ∈ L (E, F), alors Im( f ) est de dimension finie. En particulier lorsque f est surjective, F est de
dimension finie.
– Si F est de dimension finie, alors E × F est de dimension finie également.

Preuve : Le premier point découle directement du théorème précédent. Si (x 1 , . . . , x n ) est une famille génératrice de E
et si (y 1 , . . . , y p ) est une famille génératrice de F, alors pour (x, y) ∈ E × F, on a :

n p
αi x i , βk y k ) = αi (x i , 0F ) + βk (0E , y k ),
X X X X
(x, y) = (
i =1 k=1 16i 6n 16k 6p

ce qui prouve que la famille ((x i , 0F ); (0E , y k ))16i 6n,16k 6n est une famille génératrice finie de E × F. 
MO

2) Familles libres, familles liées

Définition 20.3
Soit (x i )i ∈I une famille de vecteurs d’un K-e.v E, on dit que :
– La famille est libre lorsque la seule combinaison linéaire de la famille qui donne le vecteur nul est
celle pour laquelle tous les coefficients sont nuls (on dit aussi que les vecteurs sont linéairement
indépendants), c’est à dire :
αi x i = 0E =⇒ ∀ i ∈ I, αi = 0.
P
i ∈I
– La famille est dite liée lorsqu’elle n’est pas libre (on dit aussi que les vecteurs sont linéairement
dépendants), ce qui signifie qu’il existe une famille de scalaires à support fini (αi )i ∈I non tous nuls
tels que :
αi x i = 0E .
P
i ∈I

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 184 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Espaces de dimension finie Chapitre 20 : La dimension finie

Théorème 20.3 (caractérisation des familles liées)


La famille (x i )i ∈I est liée si et seulement si un des vecteurs de la famille est combinaison linéaire des
autres.

αi x i , on a alors x k − αi x i = 0E avec le coefficient de x k qui est non nul, donc la

NE
P P
Preuve : Supposons x k =
i ∈I\{k} i ∈I\{k}
famille est liée.
Réciproquement : si la famille est liée, il existe une famille à support fini de scalaires (λi )i ∈I non tous nuls tels que
P −λi
λi x i = 0E , supposons que λi 0 6= 0, on a alors x i 0 =
P
λ xi . i0

i ∈I i ∈I\{i 0 }

Remarque 20.1 – Soient x, y ∈ E, alors la famille (x, y) est liée si et seulement si les deux vecteurs sont coli-
néaires.
ZExemples :
– E = Kn , la famille A = (e 1 , . . . , e n ) avec e i = (δi ,1 , . . . , δi ,n ) est une famille libre.
– E = Kn [X], la famille A = (X i )06i 6n est une famille libre.
– E = K[X], la famille A = (X i )i ∈N est une famille libre.
– E = C 0 ([a; b], C), pour k ∈ J0 ; n K on pose f k : x 7→ e kx , alors la famille A = ( f k )k∈N est libre.

AIG
– E = K2 , soit i = (1, 1), j = (1, 2) et k = (4, 3), la famille A = (i , j , k) est une famille liée.
– Soit E = C 0 (R, R) pour k ∈ J1 ; n K on pose f k : x 7→ sin(kx). Montrer par récurrence sur n que la famille
A = ( f k )k >1 est libre.
n
αk f k = 0, on a donc pour
P
Il est clair que ( f 1 ) est libre, supposons que ( f 1 , . . . , f n−1 ) soit libre et supposons que
k=1
n n
αk sin(kx) = 0, en dérivant deux fois cette relation, on obtient k 2 αk sin(kx) = 0, en lui
P P
tout réel x de [a; b],
k=0 k=1
n−1
retranchant n 2 fois la première, on obtient (k 2 − n 2 )αk f k = 0, de l’hypothèse de récurrence on déduit que
P
k=1
αk = 0 pour k ∈ J1 ; n − 1K, il reste alors αn f n = 0 et donc αn = 0.

Théorème 20.4 (propriétés des familles libres et des familles liées)


Soit E un K-e.v
– Si x ∈ E, alors la famille (x) est libre si et seulement si x 6= 0E .
– Toute famille contenant le vecteur nul est liée.
NT
– Toute partie d’une famille libre est une famille libre.
– Toute famille contenant une famille liée est une famille liée.
– L’image d’une famille liée par une application linéaire est une famille liée.
– Soit f ∈ L (E, F), alors f est injective si et seulement si f transforme toute famille libre de E en une
famille libre de F.
– La famille (x i )i ∈I est libre si et seulement si ∀ x ∈ Vect [(x i )i ∈I ], x s’écrit de manière unique comme
combinaison linéaire des vecteurs (x i )i ∈I .
– Soit (x i )i ∈I une famille libre, alors ∀ x ∈ E, x ∈ Vect [(x i )i ∈I ] ⇐⇒ {x, (x i )i ∈I } est liée.

Preuve : Démontrons les trois derniers points, il suffit de les démontrer pour toute famille finie :
n n
αk f (x k ) = 0F , alors αk x k ∈ ker( f ), donc
P P
Si f est injective et si (x 1 , . . . , x n ) est libre dans E, supposons que
MO

k=1 k=1
n
αk x k = 0E , mais cette famille étant libre, les coefficients αk sont tous nuls.
P
k=1
Si f transforme une famille libre en une famille libre : si x ∈ ker( f ) et si x 6= 0E , alors (x) est libre, donc ( f (x)) est
libre i.e. f (x) 6= 0F ce qui est absurde, donc x = 0E et f est injective.
n n n
αk x k = βk x k , alors (αk − βk )x k = 0E et donc, la famille étant libre, αk = βk
P P P
Si (x 1 , . . . , x n ) est libre et si x =
k=1 k=1 k=1
pour k ∈ J1 ; n K.
n
αk x k = 0E =⇒ ∀ k ∈ J1 ; n K, αk = 0, i.e. la famille est libre.
P
Réciproquement, si l’écriture est unique alors
k=1
n
αk x k ce qui prouve que la famille (x 1 , . . . , x n , x) est liée.
P
Si x ∈ Vect [x 1 , . . . , x n ], alors x =
k=1
n
Réciproque : si (x 1 , . . . , x n , x) est liée, alors il existe des scalaires αk pour k ∈ J1 ; n + 1K tels que αk x k + αn+1 x = 0E ,
P
k=1
n
si αn+1 = 0, alors il reste αk x k = 0E donc tous les scalaires αk sont nuls, ce qui est contradictoire, d’où αn+1 6= 0, ce
P
k=1
n
P αk
qui entraîne x = − αn+1 x k . 
k=1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 185 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie

3) Familles libres et familles liées en dimension finie

Théorème 20.5 (fondamental de la dimension finie)


Si E est de dimension finie et si (x 1 , . . . , x n ) est une famille génératrice de E, alors toute famille de
cardinal supérieur ou égal à n + 1 est une famille liée.

NE
Preuve : Par récurrence sur n : pour n = 1 on a E = Vect [x 1 ] soit x, y ∈ E, x = αx 1 et y = βx 1 . Si α = 0 alors x = 0E et la
famille (x, y) est liée, sinon on a y = β/αx et donc la famille (x, y) est liée.
Supposons le théorème vrai au rang n et soit (x 1 , . . . , x n+1 ) une famille génératrice de E, soit (y 1 , . . . , y n+2 ) une famille
de vecteurs de E, on pose F = Vect [x 1 , . . . , x n ]. Si tous les vecteurs y i sont dans F alors on peut appliquer l’hypothèse
de récurrence et la famille (y 1 , . . . , y n+2 ) est liée, dans le cas contraire, supposons y n+2 ∉ F, pour tout j ∈ J1 ; n + 2K il
existe un scalaire λ j et un vecteur u j de F tels que y j = u j + λ j x n+1 , on a donc λn+2 6= 0, on en déduit x n+1 en fonction
λj λj λj
de u n+2 et y n+2 , d’où pour j ∈ J1 ; n + 1K : y j = u j − λn+2 u n+2 + λn+2 y n+2 , mais la famille (u j − λn+2 u n+2 ) j ∈J1;n+1K est liée
λj
dans F (hypothèse de récurrence), donc la famille (y j − λn+2 y n+2 ) j ∈J1;n+1K est liée dans E, ce qui entraîne que la famille
(y 1 , . . . , y n+2 ) est liée dans E. 
ZExemples :
– E = Kn , pour i ∈ J1 ; n K, on pose e i = (δi ,1 , . . . , δi ,n ), on a vu en exemple que la famille A = (e 1 , . . . , e n ) est

AIG
génératrice, donc dans Kn , toute famille de n + 1 vecteurs (ou plus) est liée.
– E = Kn [X], on sait que la famille A = (X 0 , . . . , X n ) est génératrice, donc dans Kn [X] toute famille de n + 2
vecteurs (ou plus) est liée.
– E = F (R, C) est de dimension infinie, sinon il existe une famille génératrice finie A = ( f 1 , . . . , f n ), mais
alors toute famille de n + 1 vecteurs est liée, or la famille (g 0 , . . . , g n ) où g k : x 7→ e kx , est une famille
libre, on a donc une contradiction, ce qui prouve que E est de dimension infinie.

Théorème 20.6
Si E est de dimension finie et si (x 1 , . . . , x n ) est une famille libre, alors toute famille génératrice de E
contient au moins n vecteurs.

Preuve : Soit (y 1 , . . . , y m ) une famille génératrice de E, si n > m, alors d’après le théorème fondamental, la famille
(x 1 , . . . , x n ) est liée, ce qui est contradictoire, donc m > n. 
NT
II PROPRIÉTÉS DE LA DIMENSION FINIE

1) Bases, coordonnées

Définition 20.4
Soit E un K-e.v et soit B = (e 1 , . . . , e n ) une famille de vecteurs de E, on dit que B est une base de
E lorsque B est à la fois libre et génératrice de E. Si c’est le cas, alors ∀ x ∈ E, ∃!(λ1 , . . . , λn ) ∈ Kn ,
n
λk x k . Par définition (λ1 , . . . , λn ) sont les coordonnées de x dans la base B, et on
P
tel que x =
k=1
pose CoordB (x) = (λ1 , . . . , λn ) ∈ Kn (on fera attention à l’ordre sur les vecteurs de la base B, λi est la
coordonnée de x sur le vecteur e i ).
MO

ZExemples :
– E = Kn , la famille B = (e 1 , . . . , e n ) où e i = (δi ,1 , . . . , δi ,n ) pour i ∈ J1 ; n K, est une famille libre et génératrice
de Kn , c’est donc une base, on l’appelle base canonique de Kn . Si u = (λ1 , . . . , λn ) ∈ Kn , alors on sait que
n
λk e k , donc CoordB (u) = (λ1 , . . . , λn ), c’est à dire : dans la base canonique de Kn les coordonnées
P
u=
k=1
d’un vecteur u sont les composantes de u.
– E = Kn [X], on sait que la famille B = (X 0 , . . . , X n ) est libre et génératrice de Kn [X], c’est donc une base de
n
Kn [X], on l’appelle base canonique de Kn [X]. Si P = λk X k ∈ Kn [X], alors CoordB (P) = (λ0 , . . . , λn ),
P
k=0
c’est à dire : dans la base canonique de Kn [X], les coordonnées d’un polynôme P sont les coefficients
de P.
– Dans Kn [X], soit a ∈ K, d’après la formule de Taylor en a, la famille B = ((X − a)k )k∈J0;n K est une famille
n
P (k) (a) k
libre et génératrice de Kn [X], c’est donc une base. Pour P ∈ Kn [X], on sait que P =
P
k! (X − a) ,
k=0
(n)
donc CoordB (P) = (P(a), P 0 (a), . . . , P (a)
n! ).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 186 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie

FExercice 20.2 E = K2 , on pose i = (1, 1) et j = (1, 2), montrer que B = (i , j ) est une base de E, et pour u = (x, y) ∈ E, calculer
CoordB (u).

Théorème 20.7 (existence de bases)


Tout K-e.v non réduit au vecteur nul et de dimension finie, possède des bases. Plus précisément,

NE
toute famille génératrice contient une base.

Preuve : Soit (x 1 , . . . , x n ) une famille génératrice de E, si tous ces vecteurs sont nuls, alors E = {0E } ce qui est exclu, donc
au moins un des vecteurs de la famille est non nul, on peut donc considérer les sous-familles de (x 1 , . . . , x n ) qui sont
libres et en prendre une de cardinal maximal : (x i 1 , . . . , x i r ). Posons y j = x i j pour j ∈ J1 ; r K, lorsque k ∉ {i 1 , . . . , i r } on a
£ ¤ £ ¤
(y 1 , . . . , y r , x k ) est liée (maximalité de r ), donc x k ∈ Vect y 1 , . . . , y r , mais alors Vect [x 1 , . . . , x n ] ⊂ Vect y 1 , . . . , y r , ce qui
entraîne que (y 1 , . . . , y r ) est une famille génératrice de E, comme elle est libre, c’est une base de E. 

Théorème 20.8 (propriété fondamentale des bases en dimension finie)


Si E est un K-e.v de dimension finie, alors toutes les bases de E ont le même cardinal. Ce cardinal est
appelé dimension de E et noté dim(E) ou dimK (E). Par convention {0E } est de dimension 0.

AIG
Preuve : Soit B = (e 1 , . . . , e n ) une base de E, cette famille est libre, donc toute famille génératrice possède au minimum
n vecteurs, mais cette famille est également génératrice, donc toute famille libre contient au maximum n vecteurs,
finalement, toute base de E, étant à la fois libre et génératrice, contient exactement n vecteurs. 
ZExemples :
– La base canonique de Kn contient n vecteurs, donc dimK (Kn ) = n.
– La base canonique de Kn [X] contient n + 1 vecteurs, donc dimK (Kn [X]) = n + 1.
– C = R2 donc dimR (C) = 2, mais dimC (C) = 1.
– Une droite vectorielle est un espace de dimension 1 et un plan vectoriel est un espace de dimension 2.

Théorème 20.9 (application)


Si E est de dimension n > 1 et si B est une famille de vecteurs de E alors les assertions suivantes sont
équivalentes :
a) B est une base de E.
NT
b) B est libre de cardinal n (on dit aussi libre maximale).
c) B est génératrice de cardinal n (on dit aussi génératrice minimale).

Preuve : On a évidemment a) =⇒ b) et a) =⇒ c).


Montrons b) =⇒ c) : si B est libre de cardinal n : B = (y 1 , . . . , y n ), alors pour tout x ∈ E, la ¤ 1 , . . . , y n , x) est
£ famille (y
liée (car de cardinal n + 1 et E possède une base de cardinal n), ce qui entraîne que x ∈ Vect y 1 , . . . , y n , ce qui prouve
que B est génératrice.
Montrons c) =⇒ a) : si B est génératrice de cardinal n, on peut extraire de B une famille libre de cardinal maximal,
cette famille sera alors une base de E, elle est donc de cardinal n, mais B est de cardinal n, donc cette famille extraite ne
peut être que B elle-même, c’est à dire B est une base de E. 

FExercice 20.3 Montrer que dans Kn [X], la famille B = (Xk (1 − X)n−k )k∈J0;n K est une base.
MO

On remarquera au passage la puissance du théorème précédent, car le fait que cette famille B soit
génératrice n’est pas du tout évident à démontrer « à la main ».

Théorème 20.10
Soit B = (e 1 , . . . , e n ) une base de E, l’application :

CoordB : E → Kn
x 7 → CoordB (x)

est un isomorphisme entre E et Kn .

Preuve : En exercice. 
Remarque 20.2 – Ce théorème permet de calculer facilement les coordonnées d’une combinaison linéaire de
vecteurs connaissant les coordonnées de chacun d’eux.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 187 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie

Théorème 20.11
Soient E et F deux K-e.v, soit B = (e 1 , . . . , e n ) une base de E, toute application linéaire de E vers F
est entièrement déterminée par la donnée des images des vecteurs de la base B, plus précisément,
si on se donne y 1 , . . . , y n ∈ F, alors il existe une unique application linéaire f : E → F telle que ∀ i ∈

NE
J1 ; n K, f (e i ) = y i , de plus :
– f est injective si et seulement si (y 1 , . . . , y n ) est libre dans F.
– f est surjective si et seulement si (y 1 , . . . , y n ) est génératrice de F.
– f est bijective si et seulement si (y 1 , . . . , y n ) est une base de F.

n
Preuve : Soit x ∈ E et (λ1 , . . . , λn ) = CoordB (x), on définit f : E → F en posant f (x) = λk y k . Il est facile de vérifier que
P
k=1
f est linéaire et que c’est la seule qui vérifie f (e k ) = y k pour k ∈ J1 ; n K.
Les deux équivalences suivantes sont simples à démontrer et la troisième est la conjonction des deux précédentes.
On retient la troisième en disant que f est un isomorphisme de E vers F si et seulement si f transforme une base de E
en une base de F. 
Remarque 20.3 – Il en découle que deux applications linéaires de E vers F qui coïncident sur une base de E

AIG
sont égales.

Théorème 20.12 (de la base incomplète)


Soit B = (e 1 , . . . , e n ) une base de E et soit (y 1 , . . . , y r ) une famille libre de E avec r < n alors il existe des
vecteurs e i r +1 , . . . , e i n de B tels que la famille (y 1 , . . . , y r , e i r +1 , . . . , e i n ) soit une base de E.

Preuve : Comme r < n la famille (y 1 , . . . , y r ) n’est pas génératrice de E, donc il existe au moins un vecteur e k tel que
(y 1 , . . . , y r , e k ) soit libre. Posons A = (y 1 , . . . , y r , e 1 , . . . , e n ) alors A est une famille génératrice de E. La famille A contient des
familles libres et parmi celles-ci il y en a qui contiennent les vecteurs y 1 , . . . , y r , on peut donc considérer une sous-famille
libre de A qui contient ces vecteurs et qui soit de cardinal maximal : C = (y 1 , . . . , y r , e i r +1 , . . . , e i s ), si k ∉ {i r +1 , . . . , i s } alors
la famille (y 1 , . . . , y r , e i r +1 , . . . , e i s , e k ) est liée (maximalité de C), donc e k ∈ Vect [C] ce qui entraîne que C est une famille
génératrice de E, or C est libre donc C est une base de E, ce qui entraîne également que s = n car toutes les bases de E
ont n vecteurs. 
ZExemple : Soit E = K3 et B = (i , j , k) la base canonique de K3 , soit u = (1, 1, 1). La famille (u) est libre, on peut
NT
donc compléter cette famille en une base de E avec deux vecteurs de la base canonique. Les vecteurs i et u
sont non colinéaires, donc (u, i ) est libre. On a j ∉ Vect [u, i ] donc (u, i , j ) est libre, c’est donc une base de K3 .
On remarquera que (u, i , k) et (u, j , k) conviennent également.

2) Sous-espaces vectoriels en dimension finie

Théorème 20.13
Si E est de dimension finie, alors tout s.e.v F de E est de dimension finie et dim(F) 6 dim(E). De plus,
si dim(F) = dim(E) alors F = E.

Preuve : Si dim(E) = 0 il n’y a rien à démontrer. On suppose donc dim(E) = n > 1, si F = {0E } alors il n’y a rien à
démontrer, on suppose donc F 6= {0E }, mais alors F contient des familles libres et elles ont toute un cardinal inférieur
MO

ou égal à n, on peut donc considérer une famille C libre de F de cardinal maximal, on a alors ∀ x ∈ F, C ∪ (x) est liée,
donc x ∈ Vect [C ] ce qui prouve que C est une base de F, et le premier point est démontré. Si dim(F) = dim(E), alors
card(C ) = n, donc C est également une base de E, d’où E = F. 

Théorème 20.14
Si E est de dimension finie, alors tout s.e.v F de E admet au moins un supplémentaire G dans E.

Preuve : On écarte les trois cas triviaux : E = {0E }, F = E, F = {0E }. Dans le cas général, soit (y 1 , . . . , y p ) une
£ base de ¤F alors
on peut compléter cette famille en une base de E : (y 1 , . . . , y p , e p+1 , . . . , e n ), on pose alors G = Vect e p+1 , . . . , e n et on
vérifie que G est un supplémentaire de F dans E. 

Théorème 20.15
Soient F et G deux s.e.v d’un K-e.v E de dimension finie, les assertions suivantes sont équivalentes :
i) F est G sont supplémentaires.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 188 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie
ii) La somme F + G est directe et dim(F) + dim(G) = dim(E).
iii) E = F + G et dim(F) + dim(G) = dim(E).

Preuve : Il est clair que i ) =⇒ i i ).


Supposons i i ) : soit B = (y 1 , . . . , y p ) une base de F, alors dim(G) = n − p (où n = dim(E)), soit B0 = (y p+1 , . . . , y n )

NE
une base de G, il est facile de vérifier que F ∩ G = {0E } =⇒ B ∪ B0 est libre, or card(B ∪ B0 ) = n, c’est donc une famille
génératrice de E, ce qui entraîne E = F + G, donc i i ) =⇒ i i i ).
Supposons i i i ) : avec les notations précédentes, l’hypothèse E = F + G implique que B ∪ B0 est génératrice de E,
mais elle est de cardinal n, c’est donc une famille libre ce qui entraîne ue la somme F + G est directe et donc E = F ⊕ G,
donc i i i ) =⇒ i ). 

Théorème 20.16
Si E est de dimension finie et si F et G sont deux s.e.v de E, alors (formule de Grassmann 1 ) :
dim(F + G) = dim(F) + dim(G) − dim(F ∩ G).

Preuve : Soit H un supplémentaire de F ∩ G dans F : F = H ⊕ (F ∩ G), on a donc d’après la propriété précédente,


dim(H) = dim(F)−dim(F∩G). On vérifie ensuite que F+G = H⊕G, on en déduit alors que dim(F+G) = dim(H)+dim(G),

AIG
ce qui donne la formule. 

Théorème 20.17
Si E et F sont deux K-e.v de dimension finie, alors E × F est de dimension finie et :
dim(E × F) = dim(E) + dim(F).

Preuve : Soit (e 1 , . . . , e n ) une base de E et (y 1 , . . . , y p ) une base de F, alors on a déjà montré que la famille :
B = ((e 1 , 0F ), . . . , (e n , 0F ), (0E , y 1 ), . . . , (0E , y p )) est un famille génératrice de E × F, on peut vérifier alors que c’est aussi
une famille libre, ce qui donne le résultat. 
ZExemple : Si dim(E) = 3, décrire les s.e.v de E et étudier les positions relatives (intersection de deux s.e.v de
E).

3) Applications linéaires et dimension finie


NT
Théorème 20.18 (dimension de L (E, F))
Si dim(E) = n et dim(F) = p, alors L (E, F) est de dimension finie et dim(L (E, F)) = np. En particulier,
dim(L (E)) = n 2 .

Preuve : Ce théorème sera établi dans le chapître sur les matrices. 


ZExemples :
– L (Kn , Kp ) est de dimension np.
– Si dim(E) = n, alors dim(E∗ ) = n (dual de E).

Théorème 20.19 (comparaison des dimensions)


Si E et F sont de dimension finie et si f ∈ L (E, F) :
MO

– f injective =⇒ dim(E) 6 dim(F).


– f surjective =⇒ dim(E) > dim(F).
– f bijective (isomorphisme) =⇒ dim(E) = dim(F).

Preuve : Soit B = (e 1 , . . . , e n ) une base de E et B0 = (y 1 , . . . , y p ) une base de F.


Si f est injective, alors la famille ( f (e 1 ), . . . , f (e n )) est libre dans F donc n 6 p = dim(F).
Si f est surjective, alors la famille ( f (e 1 ), . . . , f (e n )) est génératrice de F donc n > p = dim(F).
Si f est un isomorphisme, alors la famille ( f (e 1 ), . . . , f (e n )) est une base de F donc n = p = dim(F). 
Remarque 20.4 –
– Tout K-e.v de dimension n est isomorphe à Kn .
– Si E est de dimension finie, alors E est isomorphe à E∗ , son dual.

1. Hermann Günter GRASSMANN (1809 – 1877) : mathématicien allemand qui a développé les notions fondamentales de l’algèbre
linéaire.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 189 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés de la dimension finie Chapitre 20 : La dimension finie

Théorème 20.20 (caractérisations des isomorphismes)


Soient E et F deux K-e.v de dimension finie tels que dim(E) = dim(F), et soit f ∈ L (E, F), les assertions
suivantes sont équivalentes :
a) f est injective.

NE
b) f est surjective.
c) f est bijective.
d) ∃ g ∈ L (F, E), f ◦ g = idF .
e) ∃ h ∈ L (F, E), h ◦ f = idE .

Preuve : Soit B = (e 1 , . . . , e n ) une base de E.


a) =⇒ b) : si f est injective alors ( f (e 1 ), . . . , f (e n )) est libre de cardinal n dans F, or dim(F) = dim(E) = n, c’est une
famille génératrice de F, et donc f est surjective.
b) =⇒ c) : f est surjective, donc la famille ( f (e 1 ), . . . , f (e n )) est génératrice de F de cardinal dim(F), c’est donc une
base de F, ce qui signifie que f est un isomorphisme.
c) =⇒ d ) : f est bijective, il suffit donc de prendre g = f −1 .

AIG
d ) =⇒ e) : on a f ◦ g = idF donc f est surjective, ce qui entraîne que f est bijective, on a donc g = f −1 et il suffit
alors de prendre h = g .
e) =⇒ a) : on a h ◦ f = idE , donc f est injective. 
Remarque 20.5 –
– Lorsque dim(E) = dim(F) l’égalité f ◦ g = idF entraîne automatiquement g ◦ f = idE , ce qui est tout à fait
remarquable puisqu’en général la loi ◦ n’est pas commutative.
– Le théorème précédent est faux en dimension infinie comme le montre les exemples suivants : f : K[X] →
K[X] définie par f (P) = P 0 (surjective non injective) et g : K[X] → K[X] définie par g (P) = XP (injective
non surjective).
ZExemples :
– Polynômes d’endomorphismes : si dim(E) = n alors dim(L (E)) = n 2 , donc si u ∈ L (E), alors la famille
2
(i d , u, . . . , u n ) est liée, donc il existe un polynôme P = λk X k non nul de degré 6 n 2 tel que P(u) = 0.
P
P λk k
Si P(0) 6= 0, alors λ0 6= 0 d’où idE = − λ0 u , ou encore :
k >1
NT
" #
X λk k−1
idE = u ◦ − u .
k >1 λ0

λk k−1
Ce qui prouve que u ∈ GL(E) et u −1 = −
P
λ0 u .
k >1
– Polynôme d’interpolation de Lagrange : soient a 0 , . . . , a n n + 1 scalaires distincts, on note f : Kn [X] →
Kn+1 définie par f (P) = (P(a 0 ), . . . , P(a n )). Il est facile de vérifier que f est linéaire et injective, comme
dim(Kn [X]) = n+1, f est un isomorphisme, par conséquent pour (α0 , . . . , αn ) ∈ Kn+1 il existe un unique
polynôme P ∈ Kn [X] tel que ∀ i ∈ J0 ; n K, P(a i ) = αi . Soit B = (e 0 , . . . , e n ) la base canonique de Kn+1 , on
note Li l’unique polynôme de degré 6 n tel que f (Li ) = e i . On vérifie facilement que :
n
MO

Y X − ak
Li (X) = .
k=0,k6=i ai − ak

C’est le i -ième polynôme d’interpolation de Lagrange aux points (a 0 , . . . , a n ), on en déduit que :


n
f −1 (α0 , . . . , αn ) = αk Lk (X).
X
k=0

FExercice 20.4 Soit E de dimension finie, soit u ∈ L (E), et soit F un s.e.v de E stable par u, on appelle v la restriction de u
à F, c’est à dire v : F → F définie par v(x) = u(x).
1/ Montrer que si u ∈ GL(E), alors v ∈ GL(F).
2/ Montrer que si ker(u) + F est directe, alors v ∈ GL(F).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 190 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Notion de rang Chapitre 20 : La dimension finie
III NOTION DE RANG

1) Rang d’une application linéaire

Définition 20.5

NE
Soit E un espace vectoriel de dimension finie et f ∈ L (E, F), on sait que Im( f ) est de dimension finie,
par définition, on appelle rang de f la dimension de Im( f ).
Notation : rg( f ) = dim(Im( f )).

Remarque 20.6 –
– Si B = (e 1 , . . . , e n ) est une base de E alors on sait que ( f (e 1 ), . . . , f (e n )) est une famille génératrice de Im( f )
donc dim(Im( f )) 6 n, c’est à dire :
rg( f ) 6 dim(E).
– Si de plus F est de dimension finie, alors dim(Im( f )) 6 dim(F), donc :

rg( f ) 6 min(dim(E), dim(F)).

AIG
– f est surjective si et seulement si Im( f ) = F, donc :

f est surjective ⇐⇒ rg( f ) = dim(F).

Théorème 20.21 (théorème du rang)


Si E et de dimension finie et si f ∈ L (E, F) alors dim(E) = dim(ker( f )) + rg( f ).

Preuve : Soit G un supplémentaire de ker( f ) dans E : E = ker( f ) ⊕ G. Il est facile de vérifier que l’application linéaire
v : G → Im( f ) définie par v(x) = f (x) est un isomorphisme, ce qui entraîne que dim(G) = dim(Im( f )) = rg( f ), or
dim(E) = dim(ker( f )) + dim(G), d’où le résultat. 
Conséquences : Soit f : E → F linéaire,si E de dimension finie, alors f est injective ⇐⇒ rg( f ) = dim(E).
ZExemples :
– Soit u : Kn+1 [X] → Kn [X] définie par u(P) = P(X + 1) − P(X). Il est clair que u est linéaire, on vérifie que
NT
ker(u) = K, le théorème du rang nous dit alors que rg(u) = dim(Kn+1 [X]) − dim(ker(u)) = n + 2 − 1 =
n + 1 = dim(Kn [X]), ce qui prouve que u est surjective.
– Soient F et G deux s.e.v de E, on considère l’application ϕ : F × G → E définie par ϕ(x, y) = x + y, on
vérifie que ϕ est linéaire et que ker(ϕ) = {(x, −x) | x ∈ F ∩ G}. On voit que ker(ϕ) est isomorphe à F ∩ G et
que Im(ϕ) = F + G, le théorème du rang nous dit alors que dim(F × G) = dim(F ∩ G) + dim(F + G), d’où
dim(F + G) = dim(F) + dim(G) − dim(F ∩ G), on retrouve ainsi la formule de Grassmann.

 u(i ) = (1, 2, −1, 0)

FExercice 20.5 Soit B = (i , j , k) une base de K3 , on considère u : K3 → K4 définie par u( j ) = (−1, 0, 1, −2) . Calculer le

u(k) = (1, 4, −1, −2)

rang de u.
MO

Théorème 20.22 (propriétés du rang)


Soient E, F, G trois K-e.v, soit f ∈ L (E, F) et g ∈ L (F, G), on a rg(g ◦ f ) 6 min(rg(g ), rg( f )).
De plus, si f est surjective, alors rg(g ◦ f ) = rg(g ), et si g est injective, alors rg(g ◦ f ) = rg( f ).

Preuve : Soit h : Im( f ) → G définie par h(x) = g (x), alors h est linéaire et Im(h) = Im(g ◦ f ) ⊂ Im(g ), on a donc
rg(g ◦ f ) = rg(h) 6 dim(Im( f )) d’après le théorème du rang, de plus l’inclusion ci-dessus prouve que rg(h) 6 rg(g ), d’où
le résultat.
Si f est surjective, alors Im( f ) = F et donc h = g , d’où rg(g ◦ f ) = rg(g ).
Si g est injective, alors h est injective, donc rg(h) = dim(Im( f )) = rg( f ). 

FExercice 20.6 Soient E, F deux K-e.v de dimension finie et soit u, v ∈ L (E, F), montrer que :
| rg(u) − rg(v)| 6 rg(u + v) 6 rg(u) + rg(v).

2) Rang d’une famille de vecteurs

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 191 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Notion de rang Chapitre 20 : La dimension finie

Définition 20.6
Soit (x 1 , . . . , x n ) une famille de vecteurs d’un K-.v E. On appelle rang de la famille (x 1 , . . . , x n ) la
dimension du s.e.v engendré par cette famille.
Notation : rg(x 1 , . . . , x n ) = dim(Vect [x 1 , . . . , x n ]).

NE
Remarque 20.7 –
– La famille (x 1 , . . . , x n ) est génératrice de F = Vect [x 1 , . . . , x n ], donc son rang est inférieur ou égal à n. De
plus on sait que l’on peut extraire de cette famille une base de F en prenant une sous-famille libre de
cardinal maximal, ce cardinal maximal est donc le rang de la famille.
– La famille (x 1 , . . . , x n ) est libre si et seulement si c’est une base de F = Vect [x 1 , . . . , x n ] ce qui équivaut à
dim(F) = n, ce qui équivaut encore à : le rang de la famille est égal à n, donc :

(x 1 , . . . , x n ) libre ⇐⇒ rg(x 1 , . . . , x n ) = n.

– Soit B = (e 1 , . . . , e n ) une base de E et soit f ∈ L (E, F) alors :

AIG
£ ¤
rg( f ) = dim(Im( f )) = dim(Vect f (e 1 ), . . . , f (e n ) ) = rg( f (e 1 ), . . . , f (e n )).

ZExemples :
– Dans K3 calculons le rang de la famille (i , j , k) avec i = (1, 1, 1), j = (−1, 2, 5) et k = (3, 0, −3). La famille
(i ) est libre, j est non colinéaire à i donc (i , j ) est libre, mais k = 2i − j donc la famille (i , j , k) est liée,
£ ¤ £ ¤
par conséquent (i , j ) est libre maximale d’où rg(i , j , k) = 2 et Vect i , j , k = Vect i , j .

3) Méthode du pivot de Gauss


Celle-ci est utilisée dans la pratique pour le calcul du rang d’une famille de vecteurs.
Soit E un K-e.v de dimension n et soit B = (e 1 , . . . , e n ) une base de E, on considère une famille de vecteurs
de E : (x 1 , . . . , x p ) dont on cherche le rang. On a les propriétés suivantes :
– Si x p = 0E , alors rg(x 1 , . . . , x p ) = rg(x 1 , . . . , x p−1 ). Autrement dit, si l’un des vecteurs de la famille est nul,
on peut le retirer de la famille, cela ne change pas le rang (en fait cela ne change pas le s.e.v engendré).
NT
– Si α ∈ K∗ , alors rg(x 1 , . . . , x p ) = rg(αx 1 , x 2 , . . . , x p ), autrement dit, multiplier l’un des vecteurs par un
scalaire non nul ne change pas le rang.
p
– Si λ2 , . . . , λp ∈ K, alors rg(x 1 , . . . , x p ) = rg(x 1 + λk x k , x 2 , . . . , x p ). Autrement dit, ajouter à l’un des
P
k=2
vecteurs une combinaison linéaire des autres ne change pas le rang.
– Si on a le système suivant (dans le cas où p 6 n) :

 x 1 = λ1,1 e 1 +λ1,2 e 2 +
 ··· · · · +λ1,n e n
λ2,2 e 2 +

 x2 =

··· · · · +λ2,n e n
. .. ,

 .. .

λp,p e p + · · · +λp,n e n

 x
p =
MO

alors si les scalaires λ1,1 , . . . , λp,p (pivots de Gauss) sont tous non nuls, on a rg(x 1 , . . . , x p ) = p, c’est à
dire la famille (x 1 , . . . , x p ) est libre.
Preuve : Laissée en exercice. 
La méthode est la suivante, on exprime les vecteurs x 1 , . . . , x p dans une base (e 1 , . . . , e n ), puis on effectue
sur ce système des transformations élémentaires de manière à le rendre triangulaire (comme le système
ci-dessus). Les transformations élémentaires de la méthode de Gauss sont :
– Échanger deux lignes : Li ↔ L j (elle permet de mettre le pivot dans la bonne ligne (ligne k pour le k e
pivot).
– Échanger deux colonnes : Ci ↔ C j (elle permet de mettre le pivot dans la bonne colonne (colonne k
pour le k e pivot).
– Multiplier une ligne par un scalaire non nul : Li ← αLi .
– Ajouter à une ligne un multiple d’une autre ligne : Li ← Li + λL j (elle permet les éliminations à partir
de la ligne du pivot dans les lignes suivantes).
D’après les propriétés précédentes, après chaque opération élémentaire, on obtient une nouvelle
famille qui a le même rang que la précédente.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 192 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Compléments Chapitre 20 : La dimension finie

ZExemple : Soit x 1 = (2, 3, −3, 4, 2), x 2 = (3, 6, −2, 5, 9), x 3 = (7, 18, −2, 7, 7) et x 4 = (2, 4, −2, 3, 1). On prend B =
(e 1 , e 2 , e 3 , e 4 , e 5 ) la base canonique de K5 , on a alors le système de coordonnées :


 e1 e2 e3 e4 e5

 x
 1 : 2 3 −3 4 2

NE

Système initial : x2 : 3 6 −2 5 9




 x 3 : 7 18 −2 7 7
x4 : 2 4 −2 3 1



 e1 e2 e3 e4 e5



 x 1 : 2 3 −3 4 2
Étape 1 : 2x 2 − 3x 1 = v 2 : 3 5 −2 12 L2 ← 2L2 − 3L1




 2x 3 − 7x 1 = v 3 : 15 17 −14 L3 ← 2L3 − 7L1
x4 − x1 = v 4 : 1 1 −1 −1 L4 ← L4 − L1



 e1 e2 e3 e4 e5



 x 1 : 2 3 −3 4 2
Étape 2 (L2 ↔ L4 ) : v4 : 1 1 −1 −1

AIG

 v
 3

 − 15v 4 : 2 1 15 L3 ← L3 − 15L2
v 2 − 3v 4 : 2 1 15 L4 ← L4 − 3L2



 e1 e2 e3 e4 e5
x1 : 2 3 −3 4 2




Étape 3 : v4 : 1 1 −1 −1

v 3 − 15v 4 : 2 1 15




v 2 − v 3 + 12v 4 : 0 0 L4 ← L4 − L3

On a donc rg(x 1 , . . . , x 4 ) = rg(v 1 , v 4 , v 3 − 15v 4 ) = 3, de plus on a v 2 − v 3 + 12v 4 = 0, ce qui donne x 2 = 4x 1 + x 3 −


6x 4 , et par conséquent : rg(x 1 , x 2 , x 3 , x 4 ) = rg(x 1 , x 3 , x 4 ) = 3.

IV COMPLÉMENTS
NT
1) Hyperplans en dimension finie

Théorème 20.23
Soit E un espace de dimension n et H un s.e.v. de E, soit B = (e 1 , . . . , e n ) une base de E. Les assertions
suivantes sont équivalentes :
a) H est un hyperplan de E.
b) Il existe des scalaires (a 1 , . . . , a n ) non tous nuls tels que :
x1
 
 .. 
H = {x  .  ∈ E / a 1 x 1 + · · · + a n x n = 0} (on a une équation cartésienne de H).
xn
c) dim(H) = n − 1.
MO

Preuve : Montrons i =⇒ i i : H est le noyau d’un forme linéaire f sur E, non nulle. Posons f (e i ) = a i , alors au moins un
n
P
des a i est non nul. Soit x de coordonnées (x 1 , . . . , x n ) dans la base B, alors f (x) = a 1 f (e 1 ) + · · · + a n f (e n ) = a i x i . Le
i =1
résultat en découle.
Montrons que i i =⇒ i i i : supposons a 1 6= 0, quitte à tout diviser par a 1 on peut suppose a 1 = 1, l’équation de
H équivaut alors à x 1 = −a 2 x 2 − · · · − a n x n , on en déduit que x ∈ H ⇐⇒ x = x 2 [−a 2 e 1 + e 2 ] + · · · x n [−a n e 1 + e n ], par
conséquent H = Vect [−a 2 e 1 + e 2 ; . . . ; −a n e 1 + e n ], on a une famille génératrice de H, on vérifie qu’elle est libre, c’est
donc une base de H et donc dim(H) = n − 1.
Montrons que i i i =⇒ i : soit (h 1 , . . . , h n−1 ) une base de H, c’est une famille libre, on peut la compléter en une base
de E : (h 1 , . . . , h n−1 , h n ), soit f la forme linéaire sur E définie par f (h i ) = 0 si 1 6 i 6 n − 1 et f (h n ) = 1. Alors f est non
nulle, et on vérifie que ker( f ) = H, donc H est un hyperplan. 

Théorème 20.24 (égalité de deux hyperplans)


Soient H1 = ker( f 1 ) et H2 = ker( f 2 ) deux hyperplans de E, alors H1 = H2 ⇐⇒ ( f 1 , f 2 ) est liée.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 193 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 20 : La dimension finie

Preuve : Si ( f 1 , f 2 ) est liée, il existe un scalaire a tel que f 1 = a f 2 (car f 2 est non nulle), comme f 1 est non nulle, on a
a 6= 0, par conséquent ∀x ∈ E, f 1 (x) = 0 ⇐⇒ f 2 (x) = 0, on en déduit que H1 = H2 .
Si H1 = H2 , soit (h 1 , . . . , h n−1 ) une base de H1 , que l’on complète en une base de E : (h 1 , . . . , h n−1 , h n ), h n étant ni
dans H1 ni dans H2 , on a f 1 (h n ) et f 2 (h n ) non nuls, il existe donc un scalaire a tel que f 1 (h n ) = a f 2 (h n ), on vérifie alors
que pour i dans J1 ; n K, on a f 1 (h i ) = a f 2 (h i ) et donc f 1 = a f 2 , la famille ( f 1 , f 2 ) est liée. 

NE
FExercice 20.7
1/ Montrer que les deux équations a 1 x 1 + · · · + a n x n = 0 et b 1 x 1 + · · · + b n x n = 0 dans une base B sont équivalentes si et
seulement si (a 1 , . . . , a n ) et (b 1 , . . . , b n ) sont colinéaires dans Kn .
2/ Soient H1 et H2 deux hyperplans distincts, montrer que dim(H1 ∩ H2 ) = n − 2 si n = dim(E).

Théorème 20.25
• Si H1 , . . . , Hp sont des hyperplans de E, alors dim(H1 ∩ · · · ∩ Hp ) > n − p.
• Tout s.e.v. de E de dimension n − p est l’intersection de p hyperplans de E.

Preuve :
• On écrit Hi = ker( f i ) où les f i sont des formes linéaires non nulles sur E. L’application g : E → Kp définie par

AIG
g (x) = ( f 1 (x), . . . , f p (x)) est linéaire, son noyau est l’intersection H1 ∩ · · · ∩ Hp et son rang est inférieure ou égale à p. Le
théorème du rang donne le résultat.
• Soit (e 1 , . . . , e n−p ) une base de ce s.e.v., on complète en une base de E : B = (e 1 , . . . , e n ), soit f i la forme linéaire définie
par f i (e j ) = δi j pour i ∈ Jn − p + 1 ; n K. On vérifie
£ que ker(¤ f i ) est l’ensemble des vecteurs sont la coordonnée dans la
base B sur e i est nulle, on en déduit que Vect e 1 , . . . , e n−p = ker( f n−p+1 ) ∩ · · · ∩ ker( f n ). 

V SOLUTION DES EXERCICES

Solution 20.1 La base canonique de Kn [X] possède n + 1 vecteurs et card(B) = n + 1, il suffit donc de démontrer que
n n−1
αk X k (1 − X)n−k = 0, en évaluant en 1, il reste αn = 0, donc αk X k (1 − X)n−k = 0, c’est à dire
P P
B est libre : si on a
k=0 k=0
n−1
k n−1−k
αk X (1 − X)
P
= 0, on peut terminer par récurrence sur n pour montrer que B est libre, la propriété étant évidente
k=0
pour n = 0. B est donc une base de Kn [X].
NT
(
b = −c £ ¤
Solution 20.2 x = ai + b j + ck ∈ ker(u) ⇐⇒ , on en déduit que ker(u) = Vect 2i + j − k , d’où rg(u) =
a = −2c
dim(K3 ) − 1 = 2, donc Im(u) est un plan vectoriel, comme u(i ) et u( j ) sont non colinéaires, on a Im(u) = Vect u(i ), u( j ) .
£ ¤

Solution 20.3
1/ C’est une application directe du théorème ci-dessus.
2/ Il existe au moins un vecteur de H2 qui n’est pas dans H1 , donc H1 + H2 contient une base de E, par conséquent
H1 + H2 = E, en appliquant la formule de Grassmann on obtient le résultat.
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 194 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 21

Séries numériques

Sommaire
I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

AIG
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
3) Séries géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
II Séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
1) Critère de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
2) Théorèmes de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
3) Comparaison avec une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
III Séries à termes quelconques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1) Séries absolument convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
2) Séries alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
3) Séries obtenues par une formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4) Développement décimal d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
NT
I GÉNÉRALITÉS

Dans tout le chapitre K désigne R ou C. On cherche à généraliser la notion de somme d’éléments de K à


un nombre infini de termes.

1) Définitions

Définition 21.1
Soit (u n )n∈N une suite d’éléments de K. On appelle série de terme général u n la suite (S n )n∈N définie
n
P
par S n = u k . Le nombre S n est appelé somme partielle de rang n (d’ordre n) de la série. La série
k=0
MO

P
de terme général u n est notée un .
n∈N

ZExemples :
q n : série géométrique de raison q.
P

n >0
zn
avec z ∈ K : série exponentielle.
P
– n!
n∈N
1
où α ∈ R : séries de Riemann.
P
– nα
n >1

Définition 21.2 (convergence d’une série)


• On dit que la série de terme général u n est convergente lorsque la suite des sommes partielles
(S n )n∈N est convergente. Si c’est le cas, la limite de la suite des sommes partielles est appelée somme
+∞
P +∞
P n
P
de la série et notée u n . On a donc u n = lim S n = lim u k . La différence entre la somme
n=0 n=0 n→+∞ n→+∞ k=0

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 195 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Généralités Chapitre 21 : Séries numériques
+∞
P n
P +∞
P
de la série et la somme partielle S n est appelée reste de rang n, noté Rn = un − uk = uk .
n=0 k=0 k=n+1
• Une série qui n’est pas convergente, est dite divergente.
• Déterminer la nature d’une série, c’est déterminer si elle est convergente ou divergente.

NE
Attention !
P
On prendra garde à ne pas confondre la notation u n qui désigne la série (c’est à dire la suite des sommes
n∈N
+∞
P
partielles), avec la notation u n qui désigne la somme de la série, si celle-ci converge (c’est la limite des sommes
n=0
partielles lorsque celle-ci existe dans K).

ZExemples :
n
P n(n+1) P
– La série de terme général u n = n : S n = k= 2 donc lim S n = +∞ et la série n∈N n est divergente.
k=0
n 1−( 13 )n+1
– La série de terme général u n = (− 13 )n : S n = (− 13 )k = , or | − 13 | < 1 donc lim S n = 34 . La série
P
1+ 31
k=0

AIG
+∞
1 n
(− 13 )n = 34 .
P P
n∈N (− 3 ) est convergente et sa somme est
n=0

FExercice 21.1 Étudier la nature de la série de terme général un = (−1)n .

2) Premières propriétés

Théorème 21.1 (lien suite-série)


n
Soit (s n )n∈K une suite, il existe une suite (u n )n∈N telle que ∀n ∈ N, s n =
P
u k . Autrement dit, il existe
k=0
une suite (u n )n∈N telle que (s n )n∈N est la série de terme général u n .

n
P
Preuve : Posons u 0 = s 0 et pour n > 0, u n = s n − s n−1 , on a alors u k = s 0 + (s 1 − s 0 ) + · · · + (s n − s n−1 ) = s n . 
k=0

Remarque 21.1 – L’ensemble des séries de K n’est donc autre que F (N, K). Pour les opérations usuelles sur les
NT
suites, on sait que c’est un K-e.v. Soient v n deux séries, λ ∈ K. Il est facile de voir que la somme
P P
u n et
n∈N n∈N
v n est la série de terme général u n + v n , et que la série λ
P P P
des deux séries un + u n est la série de terme
n∈N n∈N n∈N
général λu n .

FExercice 21.2 Montrer ¶ l’application de F (N, K) dans lui-même qui a chaque suite (u n )n∈N associe la suite des
que
n
µ
P
sommes partielles uk est un automorphisme.
k=0 n∈N

Théorème 21.2
L’ensemble des séries convergentes de K est un K-espace vectoriel. De plus l’application qui à chaque
P P
série convergente associe sa somme, est (une forme) linéaire. Plus précisément, si u n et vn
MO

n∈N n∈N
sont deux séries convergentes, alors ∀α, β ∈ K, la série αu n + βv n est convergente et :
P
n∈N
+∞ +∞ +∞
αu n + βv n = α un + β
P P P
vn .
n=0 n=0 n=0

P
Preuve : Soit (Un ) la suite des sommes partielles de la série u n et (Vn ) la suite des sommes partielles de la série
n∈N
v n . Alors (αUn + βVn ) est la suite des sommes partielles de la série αu n + βv n . Le reste découle des propriétés
P P
n∈N n∈N
des suites convergentes. 

Attention !
• La somme de deux séries divergentes peut très bien donner une série convergente (prendre deux séries divergentes
opposées par exemple).
• La somme d’une série divergente et d’une série convergente est forcément une série divergente (raisonner par
l’absurde).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 196 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Séries à termes positifs Chapitre 21 : Séries numériques

Théorème 21.3 (convergence d’une série complexe)

NE
P
Soit u n une série à terme complexe, celle-ci est convergente si et seulement si les deux séries réelles
n∈N
P P +∞
P +∞
P +∞
P
Re(u n ) et Im(v n ) sont convergentes, et auquel cas on a : un = Re(u n ) + i Im(u n ).
n∈N n∈N n=0 n=0 n=0

P
Preuve : Soit (An ) la suite des sommes partielles de la série Re(u n ) et (Bn ) la suite des sommes partielles de la série
P n∈N P
Im(v n ). Alors (Un + i Vn ) est la suite des sommes partielles de la série u n . Le reste découle des propriétés des
n∈N n∈N
suites complexes convergentes. 

Théorème 21.4 (condition nécessaire de convergence)


P
Si la série u n converge alors on a nécessairement lim u n = 0, mais la réciproque est fausse.
n∈N

Preuve : Soit (S n ) la suite des sommes partielles, alors la suite (S n ) converge vers S ∞ la somme de la série, d’où

AIG
lim Un − Un−1 = S ∞ − S ∞ = 0, c’est à dire lim u n = 0.
n p
Pour la réciproque prenons u n = p1n , alors S n = p1 > n p1 = n, on en déduit que S n → +∞. La série est
P
n k
k=1
divergente bien que le terme général u n tende vers 0. 

Définition 21.3
P
On dit que la série u n diverge grossièrement lorsque le terme général ne tend pas vers 0.
n∈N

ZExemples :
(−1)n est grossièrement divergente.
P
– La série
n∈N
2n
P 1 P 1
– La série n (série harmonique) est divergente (mais pas grossièrement), en effet S 2n −S n = k >
n∈N k=n+1
n
2n = 12 . Si la série était convergente alors la suite (S n ) convergerait vers la somme S ∞ , mais alors
S 2n − S n → S ∞ − S ∞ = 0, on aurait donc 0 > 12 ce qui est absurde. La série harmonique est donc
divergente.
n
1
NT
P
Rappel : dans le TD sur les suites, nous avons établi que k ∼ ln(n).
k=1

3) Séries géométriques

Théorème 21.5 (nature des séries géométriques)


z n avec z ∈ C, est convergente si et seulement si |z| < 1, auquel cas sa somme
P
La série géométrique
n∈N
+∞
1
zn =
P
est 1−z .
n=0

Preuve : Si |z| > 1 alors |z n | > 1 et donc la suite (z n ) ne peut pas tendre vers 0, la série est donc grossièrement divergente
dans ce cas.
n n+1
z k = 1−z n+1 1
P
Si |z| < 1, alors S n = 1−z , or z → 0 car |z| < 1, il en découle que S n → 1−z . 
k=0
ZExemples :
MO

+∞
(− 13 )n est convergente et 1
= 43 .
P P
– La série = 1+ 13
n∈N n=0
(−1)n est grossièrement divergente.
P
– La série
n∈N

Attention !
Pour les séries géométriques convergentes on prendra garde à l’indice du premier terme avant d’appliquer la
formule !

II SÉRIES À TERMES POSITIFS

Dans ce paragraphe toutes les séries sont à termes réels positifs. Pour ces séries, il faut remarquer que
les sommes partielles forment une suite croissante. La définition peut s’étendre aux séries dont le terme
général est réel positif à partir d’un certain rang seulement.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 197 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Séries à termes positifs Chapitre 21 : Séries numériques

1) Critère de convergence

Théorème 21.6
Une série à termes positifs est convergente si et seulement si la suite des sommes partielles est majorée
dans R.

NE
Preuve : La série converge si et seulement si la suite (S n ) converge, or cette suite est croissante, on sait donc qu’elle
converge si et seulement si elle est majorée. La résultat en découle. 
Remarque 21.2 –
• Lorsque la suite (S n ) des sommes partielles n’est pas majorée, on a S n → +∞ puisque cette suite est croissante.
• Le critère s’applique aux séries à termes positifs à partir d’un certain rang.
P 1
ZExemple : La série n2
est convergente. En effet, pour n > 2 on a k12 6 k(k−1)
1 1
= k−1 − k1 , on en déduit que
n∈N
n
1 1
= 2 − n1 , et par conséquent S n 6 2.
P
Sn 6 1 + k−1 − k
k=2

AIG
Attention !
(−1)n est divergente alors
P
Le critère est en défaut lorsque la série n’est pas à termes positifs. Par exemple la série
n∈N
que ses sommes partielles sont bornées.

2) Théorèmes de comparaison

Théorème 21.7
P P
Soient u n et v n deux séries telles qu’à partir d’un certain rang N on ait 0 6 u n 6 v n , alors on a :
n∈N n∈N
P P +∞
P +∞
P
• Si la v n converge alors la série u n converge et on a un 6 vn .
n∈N P n∈N P n=N n=N
• Si la série u n diverge alors la série v n diverge.
n∈N n∈N

n n
NT
P P
Preuve : D’après les hypothèses, on a uk 6 vk .
k=N k=N
P n
P n
P
• Si la série v n converge, alors ( vk ) converge et donc ( v k ) converge, cette suite est donc majorée par un
n∈N k=0 k=N
P
certain réel M, on en déduit que la somme partielle de la série u n est majorée, comme elle est à termes positifs à
n∈N
partir d’un certain rang, elle converge et l’inégalité sur les sommes en découle.
P n
P n
P
• Si la série u n diverge, alors ( u k ) est croissante divergente, donc de limite +∞, on en déduit que ( v k ) tend
n∈N k=N P k=0
vers +∞, cette suite n’est donc pas majorée, donc la série v n est divergente puisqu’elle est à terme positif à partir
n∈N
d’un certain rang. 
ZExemples :
– La série de terme général n13 est convergente car n13 6 n12 et celle-ci est une série est convergente.
– Si α < 1, alors la série de terme général n1α est divergente car n1 6 n1α et on sait que la série harmonique
MO

est divergente.

Théorème 21.8 (utilisation des relations de comparaison)


Soient (u n ) et (v n ) deux suites à termes positifs (à partir d’un certain rang).
P P
• Si u n = O(v n ) et si v n converge, alors la série u n converge.
n∈N
P Pn∈N
• Si u n = O(v n ) et si u n diverge, alors la série v n diverge.
n∈N P P n∈N
• Si u n ∼ v n alors les deux séries u n et v n sont de même nature.
n∈N n∈N

Preuve : Si u n = O(v n ), alors il existe un réel M > 0 tel qu’à partir d’un certain rang on ait u n 6 Mv n , les deux premiers
points en découlent compte tenu du théorème précédent.
Si u n ∼ v n alors on a à la fois u n = O(v n ) et v n = O(u n ). Le résultat en découle. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 198 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Séries à termes quelconques Chapitre 21 : Séries numériques

Remarque 21.3 – Les deux premiers points du théorème s’appliquent aussi lorsque u n = o(v n ).

ZExemples :
– Soit u n = sin( n1 ) alors u n ∼ n1 , on en déduit que la série de terme général u n est à termes positifs pour n
assez grand et qu’elle est divergente, car la série harmonique diverge.

NE
– Soit u n = 1 − cos( n1 ), alors u n ∼ 2n1 2 , on en déduit que la série de terme général u n est à termes positifs
pour n assez grand et qu’elle est convergente, car la série de terme général n12 converge.

3) Comparaison avec une intégrale


Cette comparaison peut se faire pour les séries dont le terme général est de la forme u n = f (n) où f est
une fonction continue monotone et à valeurs positives sur un intervalle I = [A; +∞[.

Théorème 21.9
Soit f : [0; +∞[→ R une fonction continue, monotone et à valeurs positives.
Rn n R n+1
• Si f est croissante alors ∀n ∈ N, f (0) + 0 f (t ) d t 6
P
f (k) 6 0 f (t ) d t .
k=0

AIG
R n+1 n Rn
• Si f est décroissante alors ∀n ∈ N,
P
0 f (t ) d t 6 f (k) 6 f (0) + 0 f (t ) d t .
k=0

Preuve : Supposons f croissante, alors sur l’intervalle [k; k + 1] on a f (k) 6 f (t ) 6 f (k + 1), on en déduit en intégrant
R k+1
sur cet intervalle que f (k) 6 k f (t ) d t 6 f (k + 1), on somme alors ces inégalités pour k allant de 0 à n, ce qui donne
n
P R n+1 n+1
P
f (k) 6 0 f (t ) d t 6 f (k), ce qui donne le premier encadrement. L’autre cas se traite de la même façon. 
k=0 k=1
1 1
ZExemple : On considère la série de terme général u n = n ln(n) pour n > 2. Soit f (t ) = t ln(t ) sur [2; +∞[, cette
R n+1 n Rn
P 1
fonction est continue, positive et décroissante, on en déduit que 2 f (t ) d t 6 k ln(k) ) 6 f (2) + 2 f (t ) d t ,
Rn k=2
or 2 f (t ) d t = [ln(ln(t ))]n2 = ln(ln(n)) − ln(ln(2) → +∞, la série est donc divergente.

Théorème 21.10 (convergence des séries de Riemann)


NT
1
Soit α ∈ R, la série de terme général nα est convergente si et seulement si α > 1.

Preuve : Si α 6 0 alors le terme général ne tend pas vers 0, la série est donc grossièrement divergente.
Supposons α > 0 et soit f (t ) = t1α , c’est une fonction continue, positive et décroissante sur [1; +∞[, on en déduit que
(
R n+1 n
1
Rn R n dt ln(n) si α = 1 Rn
. Si α 6 1 alors 1 f (t ) d t → +∞ et
P
que 1 f (t ) d t 6 kα 6 f (1) + 1 f (t ) d t . On sait que 1 tα = n 1−α −1
k=1 1−α R sinon
n
donc les sommes partielles tendent vers +∞. Par contre, si α > 1 alors ( 1 f (t )d t ) est convergente, donc majorée, et
donc la série (qui est à termes positifs) converge. 
ZExemples : p ³ p ´
– Soit u n = e − , on sait que n 2 = o e n , on en déduit que n 2 u n = o(1) et donc u n = o n12 , or la série
n
¡ ¢
P −pn
de Riemann de terme général n12 converge, donc la série e est convergente.
MO

n∈N
n α−1/2
– Soit u n =p 1
n ln(n)
, n α un 1
= ln(n) → +∞ si on prend α > 2 (théorème des croissances comparées), donc
pour n assez grand, on a n1α 6 u n , en prenant α ∈] 12 ; 1[ on peut en déduire que série de terme général
u n est divergente.
2
– Soit u n = lnn 3/2
(n)
, n α u n = n α−3/2 ln(n)2 → 0 si on prend α < 32 (théorème des croissances comparées),
donc pour n assez grand, on a u n 6 n1α , en prenant α ∈]1; 32 [ on peut en déduire que série de terme
général u n est convergente.

III SÉRIES À TERMES QUELCONQUES

Les séries considérées sont à termes complexes.

1) Séries absolument convergentes

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 199 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Séries à termes quelconques Chapitre 21 : Séries numériques

Définition 21.4
P P
La série u n est dite absolument convergente lorsque la série |u n | est convergente.
n∈N n∈N

P
Remarque 21.4 – La série |u n | est évidemment à termes positifs.

NE
n∈N
in
ZExemple : La série de terme général u n = en 3 est absolument convergente car |u n | = n13 : série de Riemann
convergente.

Théorème 21.11
¯ ¯
P ¯ +∞
P ¯ +∞P
Si la série u n est absolument convergente, alors est elle convergente et on a ¯
¯ u n ¯¯ 6 |u n |. La
n∈N n=0 n=0
réciproque est fausse.

Preuve : Posons u n = a n + i b n avec a n et b n réels. Posons a n+ = max(0, a n ) et a n− = max(0, −a n ) (idem pour b n ), alors
on a 0 6 a n+ , 0 6 a n− , a n+ + a n− = |a n | et a n+ − a n− = a n . On en déduit que 0 6 a n+ 6 |a n | 6 |u n | et 0 6 a n− 6 |a n | 6 |u n |.
On en déduit que les séries à termes positifs a n+ et a n− sont convergentes, et par conséquent la série de terme général

AIG
a n+ − a n− = a n est convergente. De même on montre que la série de terme général b n converge et donc la série de terme
général a n + i b n = u n est convergente. ¯ ¯
¯P n ¯ Pn
L’inégalité triangulaire donne ¯ ¯ u k ¯¯ 6 |u k |, par passage à la limite, on obtient l’inégalité annoncée car on sait
k=0 k=0
que les deux sommes ont une limite. 

Attention !
n
La réciproque du théorème ci-dessus est fausse, par exemple on montrera que la série de terme général u n = (−1) n
est convergente, mais on sait que la série de terme général |u n | = n1 est divergente. Une telle série est dite semi-
convergente.

2) Séries alternées

Définition 21.5
NT
Une série alternée est une série dont le terme général est de la forme (−1)n a n où (a n ) est une suite
réelle positive.

Théorème 21.12 (critère spécial à certaines séries alternées)


(−1)n a n telle que la suite (a n ) est décroissante de limite nulle, est convergente.
P
Une série alternée
n∈N
De plus on a la majoration du reste d’ordre n : |Rn | 6 a n+1 .
n
(−1)k a k les sommes partielles, posons u n = S 2n et v n = S 2n+1 , alors u n+1 − u n = S 2n+2 − S 2n =
P
Preuve : Soit S n =
k=0
a 2n+2 − a 2n+1 6 0 car la suite (a k ) est décroissante, on en déduit que la suite u est décroissante. De même, v n+1 − v n =
S 2n+3 − S 2n+1 = a 2n+2 − a 2n+3 > 0, la suite v est donc croissante. Or u n − v n = a 2n+1 → 0, les deux suites sont donc
adjacentes, elles convergent vers une même limite `, on a donc S 2n → ` et S 2n+1 → `, on en déduit que S n → `, la série
MO

est donc bien convergente de somme `.


De plus on a l’encadrement v n 6 ` 6 u n , ce qui veut dire que ` est compris entre S n et S n+1 pour tout n, par
conséquent : |Rn | = |` − S n | 6 |S n+1 − S n | = a n+1 . 
Remarque 21.5 – Lorsque le critère s’applique, la majoration du reste donne un renseignement sur la vitesse
de convergence. Cette majoration est également utile lorsqu’on veut faire un calcul approché de la somme `
avec une précision donnée.
n n
(−1)k
ZExemple : La série de terme général (−1) 1
P
n est convergente, soit S sa somme, on a |S − k | 6 n+1 , à
k=1
priori la convergence est lente. Nous verrons en exercice que S = − ln(2). Cette série n’est pas absolument
convergente, mais seulement semi-convergente.

FExercice 21.3 (utilisation d’un développement asymptotique)


n
1/ Nature de la série de terme général u n = sin( (−1)
p ).
n
n
2/ Même chose avec u n = ln(1 + (−1)
p ).
n

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 200 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Séries à termes quelconques Chapitre 21 : Séries numériques

Attention !
n n
Sur le deuxième exemple on a ln(1 + (−1)
p ) ∼ (−1)
n
p , la série de gauche est divergente alors que la série de droite
n
est convergente. Le théorème de comparaison est donc en défaut lorsque les séries ne sont pas à termes de signe
constant.

NE
3) Séries obtenues par une formule de Taylor

Théorème 21.13 (formule de Taylor avec reste intégrale)


Soit f : I → C une fonction de classe C n+1 sur l’intervalle I, alors on a la formule suivante :
n f (k) (a) R x (x−t )n (n+1)
P k
∀ a, x ∈ I, f (x) = k! (x − a) + a n! f (t ) d t .
k=0

Preuve : Celle-ci est laissée en exercice, il s’agit d’une simple récurrence sur n. On en déduit le théorème suivant. 

Théorème 21.14 (inégalité de Taylor-Lagrange 1 )

AIG
Si f : I → C est de classe C n+1 sur I et si | f (n+1) | est majorée par un réel Mn+1 , alors :
n+1
∀ x, a ∈ I, ¯ f (x) − Tn, f ,a (x)¯ 6 Mn+1 |x−a|
¯ ¯
(n+1)! .

Applications :
– La série exponentielle : soit z ∈ C, pour t ∈ [0; 1] on pose f (t ) = e t z , cette fonction est de classe C ∞ sur [0; 1],
pour n ∈ N, on a f (n+1) (t ) = z n+1 e t z , en posant z = a + i b, on a | f (n+1) (t )| 6 |z|n+1 e t a 6 |z|n+1 M où M désigne le
maximum de la fonction e t a sur [0; 1], appliquons l’inégalité de Taylor-Lagrange entre 0 et 1 à l’ordre n :
¯ ¯

n
¯ z X z ¯
¯ |z|n+1
¯e − ¯6M .
k=0 k! (n + 1)!
¯ ¯

On voit que le majorant tend vers 0 lorsque n → +∞, car |z|n = o(n!), par conséquent :

n zk X zn
+∞
∀ z ∈ C, e z = lim ou encore ∀z ∈ C, e z =
X
.
NT
k=0 k! n=0 n!
n→+∞

– Développement de sin en série : avec la fonction sin, toutes ses dérivées sont majorées par 1, on a donc pour
x ∈ R et n ∈ N, en appliquant l’inégalité de Taylor-Lagrange entre 0 et x à l’ordre 2n + 1 :
¯ ¯
2k+1 ¯
¯ Xn
k x |x|2n+2
¯sin(x) − (−1) ¯6 .
¯ ¯
¯ k=0 (2k + 1)! ¯ (2n + 2)!

Là encore, on voit que le majorant tend vers 0 lorsque n → +∞ on en déduit donc que :

n x 2k+1 +∞ x 2n+1
∀ x ∈ R, sin(x) = lim (−1)k ou encore ∀x ∈ R, sin(x) = (−1)n
X X
.
n→+∞
k=0 (2k + 1)! n=0 (2n + 1)!
MO

– Développement de cos en série : de la même façon on montre que

n x 2k +∞ x 2n
∀ x ∈ R, cos(x) = lim (−1)k ou encore ∀x ∈ R, cos(x) = (−1)n
X X
.
n→+∞
k=0 (2k)! n=0 (2n)!

Remarque 21.6 –
– On peut aussi déduire le développement en série de sin et cos en prenant les parties imaginaire et réelle
du développement en série de e i x .
– Ceci se généralise au cas où f est C ∞ et que ses dérivées en module sont toutes majorées par une même
constante, car on sait que |x − a|n = o(n!).

1. LAGRANGE Joseph Louis (1736 – 1813) : mathématicien qui fut un précurseur dans de nombreux domaines scientifiques.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 201 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 21 : Séries numériques

4) Développement décimal d’un réel


Rappels
Soit x ∈ R :
n
xc
• Soit a n = b10
10n , la suite (a n ) est la suite de approximations décimales de x par défaut à 10
−n
près, car

NE
−n
a n 6 x < a n + 10 .
• Pour n > 1, on pose d n = 10n [a n − a n−1 ], alors d n est un entier de l’intervalle J0 ; 9K (appelé ne décimale de
x).
n n
P dk P
On remarque alors qu’en posant d 0 = a 0 = bxc, on a 10k
= a0 + a k − a k−1 = a n → x, ce qui signifie
k=0 k=0
dn
que la série de terme général 10n est convergente et de somme x :

+∞
X dn
x= n
, c’est le développement décimal de x
n=0 10

+∞ +∞
ZExemple : 13 = 3 7 1 6
P P
10n , 6 = 1 + 10 + 10n ···

AIG
n=1 n=2

Théorème 21.15 (Compléments)


• La suite (d n ) définie ci-dessus ne peut jamais être constante égale à 9 à partir d’un certain rang, c’est
ce que l’on appelle le développement décimal propre de x.
• Tout réel x admet un unique développement décimal propre.
• La suite (d n )n >1 des décimales est périodique à partir d’un certain rang si et seulement si x est
rationnel.

Remarque 21.7 –
P dn
• Pour toute suite d’entiers (d n ) telle que ∀n > 1, d n ∈ J0 ; 9K, la série 10n est convergente car positive à partir
n∈N
du rang 1, et majorée par une série géométrique convergente.
• Si on n’impose pas la condition « (d n ) ne doit pas être constante égale à 9 à partir d’un certain rang », alors il
+∞
P 9
NT
n’y a plus unicité du développement décimal, car par exemple 10n = 1.
n=1

Théorème 21.16 (Une application)


Il n’existe pas de bijection entre N et R (on dit que R est non dénombrable).

Preuve : Soit φ : N → R une application, alors pour tout n ∈ N, φ(n) a un unique développement décimal propre
+∞
P dn,k +∞
P bk
φ(n) = 10k
. On définit une suite (b k )k >0 en posant b k = 0 si d k,k 6= 0 et b k = 1 si d k,k = 0, soit x = 10k
, s’il existait
k=0 k=0
m ∈ N tel que φ(m) = x alors on devrait avoir (par unicité) b m = d m,m , ce qui absurde car ∀k ∈ N, b k 6= d k,k , x n’a donc
pas d’antécédent par φ, et donc φ ne peut pas être surjective. 
Remarque 21.8 – La méthode utilisée dans la preuve est connue sous le nom de « procédé diagonal de Cantor ».
MO

IV SOLUTION DES EXERCICES

Solution 21.1 On vérifie par récurrence que S 2n = 1 et S 2n+1 = 0, la suite (S n ) est donc divergente et par conséquent la
série de terme général u n aussi.

Solution 21.2
n n n
³ ´
1/ On a sin( (−1)
p )=
n
(−1)
p
n
− (−1)
6n 3/2
+o 1
n 3/2
, on reconnaît trois séries convergentes : la première par le critère spécial des
séries alternées, la deuxième est absolument convergente car en valeur absolue c’est une série de Riemann, et la
P
troisième par comparaison avec une série de Riemann également. On en déduit que la série u n converge.
n∈N
n n n
³ ´
2/ On a pour n > 1, ln(1 + (−1)
p ) = (−1)
n
p
n
1
− 2n − (−1)
3n 3/2
1
+ o n 3/2 , on reconnaît trois séries convergentes : la première par le
critère spécial des séries alternées, la troisième est absolument convergente car en valeur absolue c’est une série de
Riemann, la quatrième par comparaison avec une série de Riemann également, mais la deuxième est une série de
P
Riemann divergente. On en déduit que la série u n diverge.
n∈N

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 202 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 22

Matrices

Sommaire
I Matrices, liens avec les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 203

AIG
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
2) Structure d’espace vectoriel sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 205
3) Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
II Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
3) Propriétés du produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
III Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
IV Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
1) Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
2) Formules du changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
3) Changement de bases et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . 213
NT
4) Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
V Opérations élémentaires sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
1) Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
2) Propriétés du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
3) Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
4) Calcul pratique du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
5) Calcul pratique de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 218
VI Matrices par blocs, matrices extraites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
1) Matrices par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
2) Matrices extraites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
VII Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
MO

K désigne un sous-corps de C.

I MATRICES, LIENS AVEC LES APPLICATIONS LINÉAIRES

1) Définitions

Définition 22.1
Soient n, p ∈ N∗ , on appelle matrice à n lignes et p colonnes à coefficients dans K, toute application
M : J1 ; n K × J1 ; p K → K. Pour (i , j ) ∈ J1 ; n K × J1 ; p K, on pose M(i , j ) = Mi , j (ou m i , j ), c’est le coefficient
de la matrice M d’indices i et j , le premier indice est appelé indice de ligne, et le second indice de
colonne.
L’ensemble des matrices à n lignes et p colonnes à coefficients dans K est noté Mn,p (K), on a donc
Mn,p (K) = F (J1 ; n K × J1 ; p K, K).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 203 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Matrices, liens avec les applications linéaires Chapitre 22 : Matrices
m 1,1 · · · m 1,p
 
 .. .. 
Notations : Si M ∈ Mn,p (K), on peut écrire : M = (m i , j ) 16i 6n ou bien M =  . . .
16 j 6 p
m n,1 · · · m n,p
Remarque 22.1 – L’égalité entre deux matrices est en fait l’égalité entre deux fonctions, par conséquent deux

NE
matrices sont égales lorsqu’elles ont la même taille et les mêmes coefficients.
Cas particuliers :
– Lorsque n = p on dit que la matrice est carrée, l’ensemble des matrices carrées à n lignes est noté
Mn (K) au lieu de Mn,n (K).
– Lorsque n = 1 on dit que M est une matrice ligne : 1 2 −3 ∈ M1,3 (K).
¡ ¢

2
 

– Lorsque p = 1 on dit que M est une matrice colonne : 0 ∈ M3,1 (K).



5

Définition 22.2
Soit M ∈ Mn,p (K), pour k ∈ J1 ; p K :
On appelle k-ième vecteur colonne de M le vecteur c k (M) = (m 1,k , . . . , m n,k ), c’est un élément de Kn .

AIG
m 1,k
 
 . 
On appelle k-ième matrice colonne de M la matrice C k (M) =  ..  ∈ Mn,1 (K).
m n,k
On appelle k-ième vecteur ligne de M le vecteur Lk (M) = (m k,1 , . . . , m k,p ), c’est un élément de Kp .
On appelle k-ième matrice ligne de M la matrice L k (M) = m k,1 · · · m k,p ∈ M1,p (K).
¡ ¢

Définition 22.3 (transposition)


Soit M ∈ Mn,p (K), on appelle transposée de M la matrice de Mp,n (K) notée t M et définie par :
[t M]i , j = M j ,i pour i ∈ J1 ; p K et j ∈ J1 ; n K
t
Autrement dit, la ligne i de M est la colonne i de M.

1 4
 
NT
µ ¶
1 2 3
ZExemple : Soit M = ∈ M2,3 (K), on a t M = 2 5 ∈ M3,2 (K).
4 5 6
3 6

Théorème 22.1 (propriétés de la transposition)


On a les propriétés suivantes :
• Mn (K) est stable pour la transposition.

• t M = M, on en déduit en particulier que la transposition est une involution dans Mn (K).
¢

• Lk (t M) = Ck (M) et Ck (t M) = Lk (M).

Preuve : Celle-ci est simple et laissée en exercice. 


MO

Définition 22.4 (trace d’une matrice carrée)


n
Soit M ∈ Mn (K), on appelle trace de M le scalaire noté tr(M) et défini par : tr(M) =
P
Mi ,i , c’est donc
i =1
la somme des coefficients diagonaux.

Matrices particulières :
– Matrice nulle : la matrice nulle à n lignes et p colonnes est la matrice de Mn,p (K) dont tous les
coefficients sont nuls, celle-ci est notée On,p . Lorsque p = n, la matrice On,n est notée simplement On ,
c’est la matrice nulle de Mn (K).
– Matrice unité : la matrice unité de Mn (K) est la matrice carrée de taille n, notée In et définie par
In = (δi , j )16i , j 6n , c’est à dire, In est la matrice dont tous les coefficients diagonaux sont égaux à 1, les
autres (coefficients extra-diagonaux) sont tous nuls.
1 0 0
 

ZExemple : I3 = 0 1 0 est la matrice unité de M3 (K).


0 0 1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 204 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Matrices, liens avec les applications linéaires Chapitre 22 : Matrices

– Matrice diagonale : une matrice diagonale est une matrice carrée  dont tous les coefficients extra-
a1 0 ··· 0
 0 a2 0 · · · 0 
 
diagonaux sont nuls. C’est donc une matrice de la forme M =   .. .. , une telle matrice
.. 
 . . . 

NE
0 ··· 0 an
est notée parfois M = diag(a 1 , . . . , a n ).
– Matrice élémentaire : une matrice élémentaire de Mn,p (K) est une matrice dont tous les coefficients
sont nuls sauf un qui vaut 1. Il y a donc np matrices élémentaires dans Mn,p (K), pour (i , j ) ∈ J1 ; n K ×
J1 ; p K, on note Ei , j la matrice élémentaire qui possède un 1 ligne i colonne j , et des 0 ailleurs, plus
précisément : (Ei , j )k,l = δi ,k δ j ,l .
µ ¶
1,2 0 1 0
ZExemple : Dans M2,3 (K), on a E = .
0 0 0
– Matrice triangulaire supérieure : c’est une matrice carrée dont tous les éléments situés sous la diago-
nale principale sont nuls. L’ensemble des matrices triangulaires supérieures de Mn (K) est noté Tns (K),
on a donc :
M ∈ Tns (K) ⇐⇒ ∀ i , j ∈ J1 ; n K, i > j =⇒ Mi , j = 0.

AIG
– Matrice triangulaire inférieure : c’est une matrice carrée dont tous les éléments situés au-dessus de
la diagonale principale sont nuls. L’ensemble des matrices triangulaires inférieures de Mn (K) est noté
Tni (K), on a donc :
M ∈ Tni (K) ⇐⇒ ∀ i , j ∈ J1 ; n K, i < j =⇒ Mi , j = 0.
– Matrice symétrique : c’est une matrice qui est égale à sa transposée (elle est donc nécessairement
carrée) : M = t M. L’ensemble des matrices symétriques de taille n est noté S n (K), on a donc :
M ∈ S n (K) ⇐⇒ ∀ i , j ∈ J1 ; n K, Mi , j = M j ,i .
– Matrice antisymétrique : c’est une matrice qui est égale à l’opposé de sa transposée (elle est donc
nécessairement carrée) : M = −t M. L’ensemble des matrices antisymétriques de taille n est noté An (K),
on a donc :
M ∈ An (K) ⇐⇒ ∀ i , j ∈ J1 ; n K, Mi , j = −M j ,i ,
on en déduit en particulier que Mi ,i = 0 (les coefficients diagonaux sont nuls).
NT
2) Structure d’espace vectoriel sur les matrices

Définition 22.5 (somme de deux matrices)


Soient A, B ∈ Mn,p (K), on appelle somme de A et B la matrice de Mn,p (K) notée A + B et définie par :
∀ (i , j ) ∈ J1 ; n K × J1 ; p K, (A + B)i , j = Ai , j + Bi , j . On additionne entre eux les éléments ayant les mêmes
indices.
µ ¶ µ ¶ µ ¶
1 2 3 −1 0 1 0 2 4
ZExemple : + = .
4 5 6 −2 3 4 2 8 10

Théorème 22.2
(Mn,p (K), +) est un groupe abélien. L’élément neutre est la matrice nulle : On,p , et si A ∈ Mn,p (K),
MO

l’opposé de A est la matrice −A définie par ∀ (i , j ) ∈ J1 ; n K × J1 ; p K, (−A)i , j = −Ai , j .

Preuve : Celle-ci est simple et laissée en exercice. 

Définition 22.6 (produit par un scalaire)


Soit M ∈ Mn,p (K) et soit λ ∈ K, on appelle produit de la matrice M par le scalaire λ la matrice de
Mn,p (K) notée λ.M et définie par :∀ (i , j ) ∈ J1 ; n K × J1 ; p K, (λ.M)i , j = λ × Mi , j . C’est à dire, chaque
coefficient de M est multiplié par λ.

1 2 2 4
   

ZExemple : 2 · 3 4 =  6 8 .
5 6 10 12
Propriétés : On peut vérifier facilement, soient A, B ∈ Mn,p (K), soient λ, µ ∈ K :
– 1.A = A.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 205 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Matrices, liens avec les applications linéaires Chapitre 22 : Matrices

– λ.(A + B) = λ.A + λ.B.


– (λ + µ).A = λ.A + µ.A.
– (λµ).A = λ.(µ.A).
On peut donc énoncer le résultat suivant : (Mn,p (K), +, .) est un K-espace vectoriel.

NE
Théorème 22.3 (dimension de Mn,p (K))
Mn,p (K) est un K-e.v de dimension np, et les matrices élémentaires (Ei , j ) 16i 6n constituent une base
16 j 6 p
de Mn,p (K). Cette base est appelée base canonique de Mn,p (K), car les coordonnées d’une matrice
M ∈ Mn,p (K) dans cette base sont les coefficients de M, c’est à dire :
Mi , j .Ei , j .
P
M=
16i 6n
16 j 6 p

Preuve : Il reste à montrer que la famille des matrices élémentaires est libre et génératrice de Mn,p (K). Soit M ∈
Mn,p (K), posons B = Mi , j .Ei , j , on a alors ∀ (k, l ) ∈ J1 ; n K × J1 ; p K, Bk,l = Mi , j .(Ei , j )k,l , ce qui donne Bk,l =
P P
16i 6n 16i 6n
16 j 6 p 16 j 6 p

AIG
Mi , j δi ,k δ j ,l , et donc Bk,l = Mk,l , d’où B = M. Ce qui prouve que toute matrice M s’écrit de manière unique
P
1 6i 6n
16 j 6 p
comme combinaison linéaire des matrices élémentaires, celles-ci constituent donc une base de Mn,p (K), or elles sont
au nombre de np, donc dim(Mn,p (K)) = np. Celle-ci est simple et laissée en exercice. 

FExercice 22.1 Montrer que Tns (K), Tni (K), S n (K) et An (K) sont des s.e.v de Mn (K). Pour chacun d’eux donner une base
et la dimension.

Théorème 22.4 (propriétés de la transposition et de la trace)


On a les propriétés suivantes :
• La transposition est linéaire, plus précisément, c’est un isomorphisme de Mn,p (K) sur Mp,n (K).
• La trace est une forme linéaire non nulle sur Mn (K).

Preuve : Pour le premier point, la linéarité est simple à vérifier. On peut voir ensuite que la transposition transforme la
NT
base canonique de Mn,p (K) en la base canonique de Mp,n (K).
Pour le second point, il s’agit d’une simple vérification de la linéarité, d’autre part, tr(In ) = n 6= 0. 

FExercice 22.2 Montrer que la transposition dans Mn (K) est une symétrie, déterminer ses éléments caractéristiques.

3) Matrice d’une application linéaire


Soit E un K-e.v de dimension p, soit B = (e 1 , . . . , e p ) une base de E. Soit F un K-e.v de dimension n et soit
B0 = (u 1 , . . . , u n ) une base de F. Soit f ∈ L (E, F), on sait que f est entièrement déterminée par la donnée de
f (e 1 ), . . . , f (e p ), mais chacun de ces vecteurs est lui-même déterminé par ses coordonnées dans la base B0
de F. Notons coord( f (e j )) = (a 1, j , . . . , a n, j ) pour j ∈ J1 ; p K, c’est à dire :
B 0

n
MO

X
∀ j ∈ J1 ; p K, f (e j ) = ai , j ui .
i =1

On obtient ainsi une matrice A = (a i , j ) 16i 6n cette matrice est définie par : c j (A) = coord( f (e j )).
16 j 6 p B0

Définition 22.7
Soit f ∈ L (E, F), soit B = (e 1 , . . . , e p ) une base de E et soit B0 = (u 1 , . . . , u n ) une base de F, on appelle
matrice de f relative aux bases B et B0 la matrice de Mn,p (K) notée mat ( f ) et définie par : pour
B,B0
j ∈ J1 ; p K, le j -ième vecteur colonne de cette matrice est coord( f (e j )), autrement dit, le coefficient de
B0
la ligne i colonne j est la coordonnée sur u i du vecteur f (e j ).

Construction de cette matrice :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 206 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Matrices, liens avec les applications linéaires Chapitre 22 : Matrices

f (e 1 ) . . . f (e p )
↓ ↓
a 1,1 a 1,p → u1
 
···

NE
 .. .. ..  ..
mat ( f ) =  . . .  .
B,B0
a n,1 ··· a n,p → un

ZExemples :
– Soit B = (e 1 , e 2 , e 3 ) la base canonique de K3 et soit B0 = (u, v) la base canonique de K2 , soit f ∈
L (K3 , K2 ) définie par ∀ (x, y, z) ∈ K3 , f (x, y, z) = (2x − y + z, x + 2y − 3z). Déterminons A = mat ( f ), on
 B,B0

 f (e 1 ) = f (1, 0, 0) = (2, 1) = 2u + v


a f (e 2 ) = f (0, 1, 0) = (−1, 2) = −u + v , donc la matrice de f est :


 f (e ) = f (0, 0, 1) = (1, −3) = u − 3v
3
µ ¶
2 −1 1

AIG
A= .
1 2 −3

– Avec les notations précédentes, déterminons l’application linéaire g : K3 → K2 donnée par :


µ ¶
6 −2 1
mat (g ) = .
B, B0 4 5 −1
On a g (x, y, z) = xg (e 1 ) + y g (e 2 ) + zg (e 3 ) = x(6, 4) + y(−2, 5) + z(1, −1) = (6x − 2y + z, 4x + 5y − z).
Remarque 22.2 – Cas particuliers des endomorphismes : lorsque l’espace d’arrivée est le même que celui de
départ (F = E), on choisit en général la même base à l’arrivée qu’au départ (B0 = B), on note alors mat( f ) =
B,B
mat( f ), c’est une matrice carrée.
B

FExercice 22.3
1/ Soit E = K3 [X] et soit B la base canonique de E :
NT
a) On note D la dérivation dans E, calculer mat(D).
B
b) Soit ∆ définie par ∆(P) = P(X + 1) − P(X), calculer mat(∆).
B
X(X−1) X(X−1)(X−2)
c) Soit P0 = 1, P1 = X, P2 = 2 et P3 = 6 , montrer que B0 = (P0 , P1 , P2 , P3 ) est une base de E et calculer
mat(∆).
B0
2/ Calculer la matrice de la transposition dans la base canonique de M2 (K).

Théorème 22.5 (caractérisation de l’identité et de l’application nulle)


Soit E un e.v de dimension n et soit B une base de E :
• Soit f ∈ L (E), alors f = idE ⇐⇒ mat( f ) = In .
B
• Soit F un e.v de dimension p et soit B0 une base de F, soit f ∈ L (E, F), alors :
f = 0 ⇐⇒ mat ( f ) = Op,n .
MO

B,B0

Preuve : Celle-ci est simple et laissée en exercice. 

Théorème 22.6
Soient E, F deux K-e.v, soit B une base de E et soit B0 une base de F, soient f , g ∈ L (E, F) et soit λ ∈ K.
On a :
mat ( f + g ) = mat ( f ) + mat (g ) et mat (λ. f ) = λ. mat ( f ).
B,B0 B,B0 B, B0 B,B0 B,B0
Autrement dit, l’application : mat : L (E, F) → Mn,p (K) (avec n = dim(F) et p = dim(E)), est une
B, B0
application linéaire. Plus précisément, cette application est un isomorphisme.

Preuve : La vérification de la linéarité est simple (elle découle de la linéarité de l’application coordonnées). Si mat ( f ) =
B,B0
On,p , alors on sait que f est nulle, donc l’application mat est injective, la surjectivité étant évidente, on a donc bien un
B,B0
isomorphisme. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 207 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Produit matriciel Chapitre 22 : Matrices

Théorème 22.7
Soit E un K-espace vectoriel de dimension p, soit F un K-espace vectoriel de dimension n, et soit
u ∈ L (E, F) une application linéaire de rang r , alors il existe une base B de E et une base B0 de F
telles que mat (u) = Jn,p,r où Jn,p,r désigne la matrice de Mn,p (K) définie par :
B,B0

NE
 
1 0 ··· 0
0 . . .
 .. 
 .
.
 ..

Jn,p,r = 
 1 

0 · · · 0 · · · 0

 .. ..
 
.

. 
0 ··· 0
Il y a r fois le scalaire 1 sur la diagonale.

Preuve : D’après le théorème du rang, dim(ker(u)) = p − r , soit H un supplémentaire de ker(u) dans E et soit (e 1 , . . . , e r )
une base de H, soit (e r +1 , . . . , e p ) une base de ker(u), alors B = (e 1 , . . . , e p ) est une base de E. On sait que (u(e 1 ), . . . , u(e r ))
est une base de Im(u), on peut compléter en une base de F : B0 = (u(e 1 ), . . . , u(e r ), v r +1 , . . . , v n ) et la matrice de u dans

AIG
les bases B et B0 a exactement la forme voulue. 

II PRODUIT MATRICIEL

Matrice d’une composée : Soient B = (e 1 , . . . , e q ) une base de E, B0 = (u 1 , . . . , u p ) une base de F, et B00 =


(v 1 , . . . , v n ) une base de G, soit f ∈ L (E, F), g ∈ L (F, G), on pose B = mat ( f ) ∈ Mp,q (K), A = mat (g ) ∈ Mn,p (K)
B, B0 B0 ,B00
p
et C = mat (g ◦ f ) ∈ Mn,q (K). Il s’agit de calculer g ◦ f (e j ) dans la base B00 , on a : f (e j ) =
P
Bk, j u k , donc :
B,B00 k=1
p p P
n n p
µ ¶
P P P P
g ◦ f (e j ) = Bk, j g (u k ) = Bk, j Ai ,k v i , c’est à dire : g ◦ f (e j ) = Ai ,k Bk, j v i . On doit donc avoir :
k=1 k=1 i =1 i =1 k=1
p
C ∈ Mn,q (K) avec Ci , j =
P
Ai ,k Bk, j . On voit que l’opération à effectuer sur les matrices A et B pour obtenir C
k=1
n’est pas aussi simple que pour la somme. Nous allons définir cette opération comme étant le produit entre
NT
les deux matrices A et B.

1) Définition

Définition 22.8
Soient A ∈ Mn,p (K), soit B ∈ Mp,q (K), on appelle produit de A par B la matrice de Mn,q (K) notée A×B
et définie par :
p
P
∀ (i , j ) ∈ J1 ; n K × J1 ; q K, [A × B]i , j = Ai ,k Bk, j .
k=1
On retient ceci en disant que le coefficient [A × B]i , j est le résultat du « produit de la ligne i de A avec
la colonne j de B ».
MO

Disposition des calculs :

b 11 ··· b1 j ··· b 1q

B= .. .. ..
. . .
×
b p1 ··· bp j ··· b pq

a 11 ··· a 1p • ··· ··· •


=
.. .. .. ..
. . . .
p
ai 1 ··· ai p ··· ···
P
A= • ai k bk j • = AB
k=1
.. .. .. ..
. . . .
a n1 ··· a np • ··· ··· •

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 208 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Produit matriciel Chapitre 22 : Matrices

Remarque 22.3 :
– Le produit A × B n’est possible que si le nombre de colonnes de A est égal au nombre de lignes de B. Le
résultat a alors autant de lignes que A et autant de colonnes que B.
– Dans Mn (K) le produit matriciel est interne.
– En général A × B 6= B × A, il se peut même que A × B soit défini, mais pas B × A.

NE
ZExemple :
0 1 1 1 −1 3
     
¡ ¢ ¡ ¢ ¡ ¢
1 −1 3 × −1 2 = 7 2 2 × 1 −1 3 = 2 −2 6
2 1 3 3 −3 9

1
 
µ ¶ µ ¶ µ ¶
¡ ¢ ¡ ¢ 1 2 0 1 1 −2 1 3
1 −1 2 × 2 = 5
 × =
−2 1 −1 0 1 −1 −2 −1
3

AIG
0 1 0 1 −2 1
     
µ ¶ µ ¶
1 2  1 2
× −1 2 n’est pas défini −1 2 × = −5 0
−2 1 −2 1
0 1 0 1 −2 1

2) Retour aux applications linéaires

Théorème 22.8
Soit B une base de E, soit B0 une base de F et soit B00 une base de G, soit f ∈ L (E, F) et soit g ∈ L (F, G)
avec A = mat (g ) et B = mat ( f ), alors :
B0 ,B00 B,B0
mat (g ◦ f ) = A × B = mat (g ) × mat ( f ).
B,B00 B0 ,B00 B,B0

Remarque 22.4 – Cas particulier des endomorphismes : Soit E un K-e.v, soit B une base de E et soient
u, v ∈ L (E) avec A = mat(u) et B = mat(v), on a alors mat(u ◦ v) = mat(u) × mat(v) = A × B, en particulier :
NT
B B B · ¸nB B

∀ n ∈ N, mat(u n ) = mat(u) = An .
B B

Théorème 22.9 (relation fondamentale)


Soit B = (e 1 , . . . , e p ) une base de E, soit B0 = (u 1 , . . . , u n ) une base de F et soit f ∈ L (E, F). Pour x ∈ E,
on pose X la matrice colonne des coordonnées de x dans la base B, ce que l’on note : X = CoordB (x) ∈
Mp,1 (K)) et Y la matrice colonne des coordonnées de y = f (x) dans la base B0 : Y = CoordB0 ( f (x)) ∈
Mn,1 (K). En posant A = mat ( f ), on a alors la relation suivante :
B,B0
Y = A × X i.e. CoordB0 ( f (x)) = mat ( f ) × CoordB (x).
B,B0

x1 y1
   
MO

 ..   .. 
Preuve : Posons X =  .  et Y =  . , comme A ∈ Mn,p (K) on voit que le produit A × X est bien défini et que c’est une
xp yn
p
P Pn
matrice colonne à n lignes. On a f (x) = x k f (e k ), mais on a f (e k ) = a i ,k u i , ce qui donne :
k=1 µ i =1
n p n n

P P P P
f (x) = a i ,k x k,1 u i = [A × X]i ,1 u i = y i ui .
i =1 k=1 i =1 i =1
Ce qui prouve que Y = A × X. 

FExercice 22.4
1/ Soient B la base canonique deµ K3 et B0 la base
¶ canonique de K2 , soit f ∈ L (K3 , K2 ) définie par sa matrice dans les
1 −2 3
bases B et B0 : mat ( f ) = A = , calculer f (x, y, z).
B,B0 2 1 −5
2/ Soit B = (i , j , k) la base canonique de K3 , on pose B0 = (i , i + j , i + j + k), on vérifie que B0 est une base de K3 . Soit
 
1 −1 0
f ∈ L (K3 ) défini par mat( f ) = A = 0 2 −1, calculer f (x, y, z).
B0
0 0 1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 209 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Produit matriciel Chapitre 22 : Matrices

3/ Soient A, B ∈ Mn,p (K) telles que ∀ X ∈ Mp,1 (K), AX = BX, montrer que A = B.

Définition 22.9 (application linéaire canoniquement associée)


Soit A ∈ Mn,p (K), on appelle application linéaire canoniquement associée à A l’application linéaire

NE
f A ∈ L (Kp , Kn ) dont la matrice dans les bases canoniques de Kp et Kn , est A.

3) Propriétés du produit matriciel


– « Associativité » : Si A ∈ Mn,p (K), B ∈ Mp,q (K) et C ∈ Mq,r (K), alors :

A × (B × C) = (A × B) × C ∈ Mn,r (K).

Preuve : Soit f ∈ L (Kp , Kn ) l’application linéaire canoniquement associée à A, g ∈ L (Kq , Kp ) canoniquement


associée à B et h ∈ L (Kr , Kq ) canoniquement associée à C. On a f ◦ (g ◦ h) ∈ L (Kr , Kn ) et sa matrice dans les
bases canoniques est A × (B × C). De même ( f ◦ g ) ◦ h ∈ L (Kr , Kn ) et sa matrice dans les bases canoniques est
(A × B) × C, or la composition des applications est associative, ce qui donne l’égalité. 
– « Élément neutre » : Soit A ∈ Mn,p (K), on a : A × Ip = A et In × A = A.

AIG
Preuve : Soit f ∈ L (Kp , Kn ) l’application linéaire canoniquement associée à A, idKn est l’application linéaire
canoniquement associée à In , la matrice dans les bases canoniques de idKn ◦ f est donc In × A, or idKn ◦ f = f ,
donc A = In × A. 
– « Distributivité » : Soient A, B ∈ Mn,p (K), soit C ∈ Mp,q (K) et D ∈ Mr,n , on a :

(A + B) × C = A × C + B × C et D × (A + B) = D × A + D × B

Preuve : Soit f ∈ L (Kp , Kn ) l’application canoniquement associée à A, soit g ∈ L (Kp , Kn ) l’application canoni-
quement associée à B, et soit h ∈ L (Kq , Kp ) l’application canoniquement associée à C. L’application linéaire
canoniquement associé à la matrice (A+B)×C est ( f +g )◦h ∈ L (Kq , Kn ), et l’application linéaire canoniquement
associée à A × C + B × C est f ◦ h + g ◦ h ∈ L (Kq , Kn ), or ( f + g ) ◦ h = f ◦ h + g ◦ h, ce qui donne la première égalité.
La seconde se montre de la même façon. 
– Transposée d’un produit : Si A ∈ Mn,p (K) et B ∈ Mp,q (K) alors : t (A × B) = t B × t A.
p p
Preuve : [t (A × B)]i , j = [A × B] j ,i = [t B]i ,k [t A]k, j = [t B × t A]i , j .
P P
a j ,k b k,i = 
NT
k=1 k=1

FExercice 22.5 Calculer le produit entre deux matrices carrées élémentaires de même taille.

Théorème 22.10 (structure de Mn (K))


On a le résultat suivant : (Mn (K), +, ×, .) est une K-algèbre (non commutative si n > 2).

Preuve : On sait déjà que (Mn (K), +, .) est un K-espace vectoriel, le reste découle des propriétés du produit matriciel, il
reste simplement à vérifier la compatibilité entre le produit interne et le produit externe, i.e. : ∀ λ ∈ K, ∀ A, B ∈ Mn (K) :
λ.(A × B) = (λ.A) × B = A × (λ.B), µ ¶ µ ¶
0 0 1 1
ce qui est laissé en exercice. Donnons un contre-exemple pour la non commutativité : soit A = ,B = ,
1 0 0 1
µ ¶ µ ¶
0 0 1 0
MO

on a AB = , mais BA = . 
1 1 1 0
Remarque 22.5 :
¶ µ ¶ µ
0 0 0 0
– L’algèbre Mn (K) n’est pas intègre lorsque n > 2. Par exemple : × = O2 . De ce fait, il y a dans
1 0 1 1
µ ¶
0 0
Mn (K) des éléments nilpotents, par exemple : A = .
1 0
– On peut utiliser dans Mn (K) les règles du calcul algébrique, en prenant garde toutefois au fait que le
produit n’est pas commutatif. Par exemple, si A, B ∈ Mn (K) commutent (i.e. AB = BA), alors on peut
utiliser le binôme de Newton pour calculer (A + B)n . Mais si AB 6= BA on peut néanmoins développer, par
exemple : (A + B)2 = A2 + AB + BA + B2 .

 
1 1 0
FExercice 22.6 Soit A = 0 1 1. En écrivant A = I3 + J, calculer An pour n ∈ N.
0 0 1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 210 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Matrices carrées inversibles Chapitre 22 : Matrices

III MATRICES CARRÉES INVERSIBLES

1) Définition
L’ensemble (Mn (K), +, ×) a une structure d’anneau, on peut donc s’intéresser aux éléments inversibles

NE
de cet anneau. C’est à dire aux matrices M ∈ Mn (K) pour lesquelles il existe une matrice N ∈ Mn (K) telle que
M × N = N × N = In . Si M ∈ Mn (K) est inversible, son inverse sera noté M−1 .

Définition 22.10
Le groupe multiplicatif des inversibles de l’anneau (Mn (K), +, ×) est noté GLn (K).

Remarque 22.6 – Puisque (GLn (K), ×) est un groupe, on a :


• le produit de deux matrices inversibles est inversible.
• Si M, N ∈ GLn (K), alors (M × N)−1 = N−1 × M−1 .
Cas particuliers :
– Matrices diagonales inversibles : Soit D = diag(a 1 , . . . , a n ) ∈ Mn (K), alors D est inversible ssi les coef-

AIG
ficients diagonaux sont tous non nuls, auquel cas on a : D−1 = diag( a11 , . . . , a1n ).
Preuve : Si les coefficients diagonaux sont tous non nuls, il est facile de vérifier que la matrice proposée est bien
l’inverse de D.
Réciproquement, supposons D ∈ GLn (K), alors l’équation DX = On,1 d’inconnue X ∈ Mn,1 (K) admet comme
unique solution X = D−1 ×On,1 = On,1 . Supposons a 1 = 0 et prenons X ∈ Mn,1 (K) définie par X i ,1 = δi ,1 , il est facile
de voir que le produit DX donne la première colonne de D, c’est à dire On,1 , pourtant X 6= On,1 : contradiction,
donc a 1 6= 0. Le raisonnement est similaire pour les autres coefficients. 
r
– Polynômes de matrices : Soit P ∈ K[X] et A ∈ Mn (K), si P = a k X k , alors la matrice P(A) est P(A) =
P
k=0
r
a k Ak (la substitution de X par A est un morphisme d’algèbres), on a alors le résultat suivant : Si
P
k=0
P(A) = On et si P(0) 6= 0, alors A est inversible.
Preuve : P(0) 6= 0 signifie que a 0 6= 0, on a alors :
r r
· ¸ · ¸
P −a k k−1 P −a k k−1
In = A × a0 A = a0 A × A.
µ ¶ k=1 k=1
a b
NT
Par exemple, si A = avec ad − bc 6= 0, on vérifie que A2 − (a + d )A + (ad − bc)I2 = O2 , donc A est inversible
c d
µ ¶
d −b
et A−1 = ad 1−bc [(a + d )I2 − A] = ad 1−bc . 
−c a

2) Retour aux applications linéaires

Théorème 22.11
Soient E et F deux K-e.v de même dimension n, soit B une base de E et B0 une base de F, soit
u ∈ L (E, F), alors u est un isomorphisme de E vers F si et seulement si mat (u) ∈ GLn (K), si c’est le cas,
B,B0
· ¸−1
alors mat (u −1 ) = mat (u) .
B0 ,B B, B0
MO

Preuve : Si u est un isomorphisme, posons A = mat (u) et B = mat (u −1 ), on a A, B ∈ Mn (K). On sait que u ◦ u −1 = idF ,
B,B0 B0 , B
−1
d’où In = mat(idF ) = mat (u) × mat (u ) = A × B, de même B × A = mat(idE ) = In .
B0 B,B0 B0 ,B B
Si la matrice de u est inversible, soit v ∈ L (F, E) telle que mat (v) = A−1 n alors en considérant la matrice de v ◦ u
B0 ,B
dans la base B, on vérifie que v ◦ u = idE , donc u est un isomorphisme (théorème de la dimension finie). 
Cas des endomorphismes : Si E est un K-espace vectoriel de dimension n et B une base de E, alors on
sait déjà que l’application mat : L (E) → Mn (K) est un isomorphisme d’espaces vectoriels, mais comme
B
(L (E), +, ◦, .) et (Mn (K), +, ×; .) sont des K-algèbres et que mat(u ◦ v) = mat(u) × mat(v) et mat(idE ) = In ,
B B B B
on peut affirmer que l’application mat est un isomorphisme d’algèbres. En particulier celui-ci induit un
B
isomorphisme de groupes : mat : GL(E) → GLn (K).
B

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 211 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Changement de bases Chapitre 22 : Matrices

Théorème 22.12 (caractérisations des matrices carrées inversibles)


Soit A ∈ Mn (K), alors les assertions suivantes sont équivalentes :
a) A est inversible.
b) Il existe une matrice B ∈ Mn (K) telle que BA = In .

NE
c) L’équation AX = On,1 d’inconnue X ∈ Mn,1 (K) admet une unique solution X = On,1 .
d) ∀ Y ∈ Mn,1 (K), l’équation AX = Y d’inconnue X ∈ Mn,1 (K) admet une unique solution.
e) ∀ Y ∈ Mn,1 (K), l’équation AX = Y d’inconnue X ∈ Mn,1 (K) admet au moins une solution.

Preuve : L’implication i ) =⇒ i i ) est évidente en prenant B = A−1 .


Montrons i i ) =⇒ i i i ) : On a BA = In , d’où AX = On,1 =⇒ BAX = On,1 = X.
Montrons i i i ) =⇒ i v) : Soit f ∈ L (Kn ) l’endomorphisme de Kn canoniquement associé à A, soit x ∈ ker( f ),
posons X = CoordB (x) où B désigne la base canonique de Kn , on a alors CoordB ( f (x)) = AX = On,1 , donc X = On,1


i.e. x = 0 , l’application f est donc injective, mais alors elle est bijective : ∀ y ∈ Kn , ∃! x ∈ Kn , f (x) = y, ce qui entraîne
∀ Y ∈ Mn,1 (K), ∃! X ∈ Mn,1 (K), AX = Y (remarquons que A est inversible puisque f est bijective, et que X = A−1 Y).
L’implication i v) =⇒ v) est évidente.

AIG
Montrons v) =⇒ i ) : Avec les notations précédentes, l’application f est surjective par hypothèse, donc f est
bijective et par conséquent sa matrice A est inversible. 
Remarque 22.7 – Il découle en particulier de ce théorème que si BA = In alors AB = In (car A ∈ GLn (K) et donc
B = A−1 ), ce qui est remarquable.

FExercice 22.7
−1 t
1/ Si A ∈ GLn (K), montrer que t A est inversible et que (t A) = (A−1 ).
1 λ −1
 

2/ Soit A = 0 2 1 , déterminer en fonction de λ si A est inversible ou non, si c’est le cas, calculer A−1 .
1 0 1
3/ soit T ∈ Mn (K) une matrice triangulaire supérieure, montrer que T ∈ GLn (K) ssi ses éléments diagonaux sont tous
non nuls, si c’est le cas, montrer que T −1 est également triangulaire supérieure.

IV CHANGEMENT DE BASES
NT
1) Matrice de passage

Définition 22.11
Soit E un K-espace vectoriel, soit B = (e 1 , . . . , e n ) une base de E, soit S = (x 1 , . . . , x p ) une famille de
vecteurs de E, on appelle matrice de la famille S dans la base B, la matrice A ∈ Mn,p (K) définie
par : ∀ (i , j ) ∈ J1 ; n K × J1 ; p K, a i , j est la coordonnée sur e i de x j . Autrement dit, pour j ∈ J1 ; p K, le
j -ième vecteur colonne de A est C j (A) = coord(x j ). Cette matrice est notée P B,S et appelée matrice
B
de passage de B à S, elle exprime les vecteurs de S dans la base B :

x1 ··· xp → vecteurs de S
↓ ··· ↓
MO

a 1,1 a 1,p → coordonnée sur e 1 premier vecteur de B


 
···
 .. ..  ..
P B,S =  . .  .
a n,1 ··· a n,p → coordonnée sur e n dernier vecteur de B

ZExemples :
– Soit B la base canonique de K3 , soit x 1 = (1, −1, 0) et x 2 = (2, −1, 3), alors la matrice de la famille
1 2
 

S = (x 1 , x 2 ) dans la base B, est P B,S = −1 −1.


0 3
– Soit B = (i , j , k) la base canonique de K3 , soit B0 = (i , i + j , i + j + k), on vérifie que B0 est une base de
K3 . Déterminons la matrice de la famille S précédent dans la base B0 : on a x 1 = i − j = 2i − (i + j ) et
2 3
 

x 2 = 2i − j + 3k = 3(i + j + k) − 4(i + j ) + 3i , on a donc P B0 ,S = −1 −4.


0 3

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 212 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Changement de bases Chapitre 22 : Matrices

Interprétations de la matrice de passage :


a) Dans le cas où p 6= n : soit B = (e 1 , . . . , e n ) une base de E et soit S = (x 1 , . . . , x p ) une famille de p vecteurs
de E. Soit B0 = (u 1 , . . . , u p ) la base canonique de Kp , on définit l’application linéaire f : Kp → E en
posant pour i ∈ J1 ; p K, f (u i ) = x i , alors : P B,S = mat ( f ).
B0 , B

NE
b) Dans le cas où p = n : on a S = (x 1 , . . . , x n ), soit u ∈ L (E) défini par ∀ i ∈ J1 ; n K, u(e i ) = x i , on a alors :
P B,S = mat(u).
B

Théorème 22.13 (caractérisation des bases)


Soit B une base de E, et soit B0 = (x 1 , . . . , x n ) une famille de n vecteurs de E, alors B0 est une base de
E ssi la matrice de passage de B à B0 est inversible ,i.e. P B,B0 ∈ GLn (K).

Preuve : Cela découle directement de la deuxième interprétation. 


0
Interprétation de la matrice de passage entre deux bases : Soient B et B deux bases de E, en considérant
l’application idE : (E, B0 ) → (E, B) avec B0 comme base au départ et B comme base à l’arrivée, on a la

AIG
relation : P B,B0 = mat (idE ).
B0 , B

Théorème 22.14 (application)


¤−1
Soient B, B0 , B00 trois bases de E, on a : P B0 ,B = P B,B0 et P B,B00 = P B,B0 × P B0 ,B00 .
£

· ¸−1
Preuve : On a P B0 ,B = mat (idE ) = mat (id−1
E ) = P B,B0 car id−1
E = idE , ce qui prouve le premier point.
B,B0 B0 ,B
Pour le second, on considère la composition : idE ◦ idE : (E, B00 ) → (E, B0 ) → (E, B), ce qui donne mat (idE ) =
B00 ,B
mat (idE ) × mat (idE ), c’est à dire P B,B00 = P B,B0 × P B0 ,B00 . 
B0 ,B B00 ,B0

2) Formules du changement de bases


Soient B et B0 deux bases de E, pour tout vecteur x ∈ E on peut calculer ses coordonnées dans la base B :
NT
X = CoordB (x), ou bien ses coordonnées dans la base B0 : X 0 = CoordB0 (x), on cherche le lien entre X et X 0 .
Considérons l’identité : idE : (E, B0 ) → (E, B), on sait que mat (idE ) = P B,B0 , mais on a idE (x) = x, d’où
B0 ,B
CoordB (idE (x)) = P B,B0 × CoordB0 (x), ce qui donne la relation : X = P B,B0 × X 0 , et donc X 0 = P B0 ,B × X =
¤−1
P B, B0
£
× X, on peut donc énoncer :

Théorème 22.15 (formules du changement de bases)


Soient B et B0 deux bases de E, soit x ∈ E, on pose X = CoordB (x) et X 0 = CoordB0 (x), on a les formules
suivantes : X = P B,B0 × X 0 et X 0 = P B0 ,B × X.

FExercice 22.8 Soit B la base canonique de K3 [X], on pose B0 = (1, X, X(X − 1), X(X − 1)(X − 2)), montrer que B0 est une
base de K3 [X] et pour P ∈ K3 [X] calculer coord(P).
MO

B0

3) Changement de bases et applications linéaires


Soient E et F deux K-espaces vectoriels, soit B1 une base de E et soit B2 une base de F. Si u ∈ L (E, F) on
peut calculer A = mat (u). Si on prend une autre base dans E : B01 et une autre base dans F, B02 , alors on peut
B1 ,B2
calculer A0 = mat
0 0
(u), on cherche le lien entre ces deux matrices.
B1 ,B2
Soit x ∈ E et y = u(x), on pose X = CoordB1 (x), Y = CoordB2 (u(x)), X 0 = CoordB01 (x) et Y 0 = CoordB02 (u(x)).
On a la relation Y = A × X = A × P B1 ,B01 × X 0 , d’autre part Y 0 = P B02 ,B2 × Y, d’où finalement Y 0 = P B02 ,B2 × A ×
P B1 ,B01 × X 0 , c’est à dire Y 0 = P B
−1
,B0
× A × P B1 ,B01 × X 0 , mais de plus Y 0 = A0 × X 0 , l’égalité ayant lieu pour toute
2 2
colonne X 0 , on a : A0 = P B
−1
,B0
× A × P B1 ,B01 , on peut donc énoncer :
2 2

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 213 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Changement de bases Chapitre 22 : Matrices

Théorème 22.16 (effet d’un changement de bases sur la matrice d’une application linéaire)

NE
Soient B1 , B01 deux bases de E et P = P B1 ,B01 la matrice de passage, soient B2 , B02 deux bases de F et
soit Q = P B2 ,B02 la matrice de passage, soit u ∈ L (E, F), on pose A = mat (u), A0 = mat
0 0
(u), on a alors
B1 ,B2 B1 , B2
0 −1
la relation : A = Q × A × P.

Théorème 22.17 (cas des endomorphismes)


Soient B, B0 deux bases de E et soit P = P B,B0 la matrice de passage, soit u ∈ L (E), si on pose
A = mat(u) et A0 = mat(u), alors on a la relation : A0 = P −1 × A × P.
B B0

Preuve : Cela découle du théorème précédent, puisque l’on a Q = P. 


¶ µ
2 −1
FExercice 22.9 Soit B = (i , j ) la base canonique de K2 et soit u ∈ L (K2 ) défini par mat(u) = . On pose e 1 = (1, 1)
B −1 2

AIG
et e 2 = (1, −1), montrer que B0 = (e 1 , e 2 ) est une base de K2 , et calculer la matrice de u dans la base B0 . En déduire
l’expression de u n (x, y).

Définition 22.12
Soient A, B ∈ Mn (K), on dit que les matrices A et B sont semblables si et seulement si il existe une
matrice carrée inversible P ∈ GLn (K) telle que A = P −1 × B × P.

Remarque 22.8 :
– Les matrices d’un endomorphisme dans deux bases sont semblables.
– Deux matrices sont semblables lorsque ce sont deux matrices d’un même endomorphisme exprimées
dans deux bases (P étant la matrice de passage).
– La relation « ..est semblable à .. » est une relation d’équivalence dans Mn (K).

4) Trace d’un endomorphisme

Théorème 22.18
NT
Soient A, B ∈ Mn (K), on a la propriété : tr(A × B) = tr(B × A).
n n n n n n
µ ¶ µ ¶
P P P P P P
Preuve : On a tr(A × B) = [A × B]i ,i = Ai ,k Bk,i , ce qui donne tr(A × B) = Bk,i Ai ,k = [B × A]k,k =
i =1 i =1 k=1 k=1 i =1 k=1
tr(B × A). 

Théorème 22.19 (conséquence)


Si A ∈ Mn (K) et si P ∈ GLn (K), alors tr(A) = tr(P −1 × A × P).

Soit E un espace vectoriel de dimension n, soient B et B0 deux bases de E, et soit u ∈ L (E), on note
A = mat(u) et A0 = mat(u), on sait alors que A0 = P −1 × A × P avec P = P B,B0 la matrice de passage, d’après le
B B0
théorème précédent, on peut affirmer que tr(A) = tr(A0 ).

Définition 22.13
Soit u ∈ L (E) et soit B une base de E, on appelle trace de l’endomorphisme u le scalaire noté tr(u) et
MO

défini par tr(u) = tr(mat(u)), ce scalaire est indépendant de la base B choisie.


B

Théorème 22.20
L’application trace, tr : L (E) → K, est une forme linéaire non nulle sur L (E), qui vérifie :
∀ u, v ∈ L (E), tr(u ◦ v) = tr(v ◦ u).

Preuve : Soit B une base de E, soit A = mat(u) et B = mat(v), on a par définition, tr(u +v) = tr(mat(u +v)) = tr(mat(u))+
B B B B
tr(mat(v)) = tr(u) + tr(v). De la même façon, on montre que tr(λu) = λ tr(u) avec λ ∈ K. On a donc une forme linéaire
B
sur L (E), celle-ci est non nulle, car tr(idE ) = tr(In ) = n = dim(E) > 1. D’autre part : tr(u ◦ v) = tr(mat(u) × mat(v)) =
B B
tr(mat(v) × mat(u)) = tr(mat(v ◦ u)) = tr(v ◦ u). 
B B B

FExercice 22.10 Soit E un espace vectoriel de dimension n, et soit p ∈ L (E) un projecteur, montrer que tr(p) = rg(p).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 214 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Opérations élémentaires sur les matrices Chapitre 22 : Matrices

V OPÉRATIONS ÉLÉMENTAIRES SUR LES MATRICES

1) Rang d’une matrice

Définition 22.14

NE
Soit A ∈ Mn,p (K) une matrice, on appelle rang de la matrice A, le rang dans Kn de la famille constituée
par ses p vecteurs colonnes, notation : rg(A) = rg(C1 (A), . . . , Cp (A)).

Théorème 22.21
Soit u ∈ L (E, F), soit B une base de E, soit B0 une base de F, et soit A = mat (u), alors rg(u) = rg(A).
B,B0

Preuve : Soit B = (e 1 , . . . , e p ), B0 = (e 10 , . . . , e n0 ) et soit B00 = (e 100 , . . . , e n00 ) la base canonique de Kn . Soit v ∈ L (F, Kn )
défini par ∀ i ∈ J1 ; n K, v(e i0 ) = e i00 , alors v est bijective (transforme une base en une base), donc rg(u) = rg(v ◦ u) =
n
Ak, j e 00j = C j (A), donc rg(u) = rg(A) d’après la définition précédente.
P
rg(v(u(e 1 )), . . . , v(u(e p ))) ; or v(u(e j )) = 
k=1

AIG
Théorème 22.22 (conséquence)
Soit E un espace vectoriel de dimension n, soit S = (x 1 , . . . , x p ) une famille de p vecteurs de E et soit
B une base de E, alors le rang de la famille S est égal au rang de la matrice de cette famille dans la
base B.

Preuve : Posons B = (e 1 , . . . , e n ), soit B0 = (e 10 , . . . , e p0 ) la base canonique de Kp , soit u ∈ L (Kp , E) l’application linéaire


définie par : ∀ i ∈ J1 ; p K, u(e i0 ) = x i , alors A = mat (u) est la matrice de la famille S dans la base B, or rg(A) = rg(u) =
B0 ,B
rg(x 1 , . . . , x p ), ce qui donne le résultat. 
Calculer le rang d’une application linéaire, ou d’une famille de vecteurs, revient à calculer le rang d’une
matrice.

2) Propriétés du rang d’une matrice


Les propriétés suivantes découlent de celles du rang des applications linéaires.
NT
a) Soit f ∈ L (E, F), soit B une base de E avec dim(E) = p, soit B0 une base de F avec dim(F) = n, et soit
A = mat ( f ) ∈ Mn,p (K), on a :
B,B0
i) rg(A) 6 min(n, p).
ii) rg(A) = n ⇐⇒ f est surjective.
iii) rg(A) = p ⇐⇒ f est injective.
b) Si A ∈ Mn (K), alors A ∈ GLn (K) ⇐⇒ rg(A) = n.
c) Si A ∈ Mn,p (K), B ∈ Mp,q (K), alors rg(A × B) 6 min(rg(A), rg(B)).
d) Si A ∈ GLn (K), B ∈ Mn,p (K), alors rg(A × B) = rg(B).
e) Si A ∈ Mn,p (K), B ∈ GLp (K), alors rg(A × B) = rg(A).
MO

Théorème 22.23
Soit A ∈ Mn,p (K), alors : rg(A) = r ⇐⇒ ∃ U ∈ GLn (K), ∃ V ∈ GLp (K), UAV = Jn,p,r .

Preuve : Si U et V existent alors rg(A) = rg(UAV) = rg(Jn,p,r ) = r.


Réciproquement, si rg(A) = r , soit B la base canonique de Kp , soit B1 la base canonique de Kn , et soit u ∈
L (Kp , Kn ) défini par mat (u) = A (u est l’application linéaire canoniquement associée à A), on a rg(u) = rg(A) = r , on
B,B1
sait alors qu’il existe une base B0 de Kp et une base B01 de Kn telles que mat (u) = Jn,p,r , soit P = P B,B0 et Q = P B1 ,B0 ,
B0 ,B01 1

−1 −1
d’après les formules de changement de bases, on a Jn,p,r = Q × A × P, ce qui termine la preuve, en prenant U = Q et
V = P. 

FExercice 22.11 Montrer qu’une matrice A ∈ Mn,p (K) et sa transposée ont le même rang.

3) Opérations élémentaires

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 215 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Opérations élémentaires sur les matrices Chapitre 22 : Matrices

Définition 22.15
Soit A ∈ Mn,p (K), on appelle opérations élémentaires sur A les opérations suivantes :
– Permuter deux lignes de A (ou deux colonnes), notation : Li ↔ L j (respectivement Ci ↔ C j ).
– Multiplier une ligne (ou une colonne) par un scalaire non nul, notation : Li ← αLi (respectivement

NE
Ci ← αCi ).
– Ajouter à une ligne (ou une colonne) un multiple d’une autre ligne (respectivement une autre
colonne), notation : Li ← Li + αL j , avec i 6= j (respectivement Ci ← Ci + αC j )).

Théorème 22.24
Effectuer une opération élémentaire sur une matrice A ∈ Mn,p (K) revient à multiplier A à gauche
par une matrice inversible pour les opérations sur les lignes (à droite pour une opération sur les
colonnes).

Preuve : On désigne par Li (A) la ligne i de A sous forme d’une matrice ligne.
Pour l’opération Li ↔ L j (avec i 6= j ) : soit Pi j ∈ Mn (K) la matrice obtenue en effectuant cette opération sur la

AIG
matrice In , alors Pi j × A est la matrice que l’on obtient en effectuant l’opération Li ↔ L j dans A, en effet : si k ∉ {i , j },
alors Lk (Pi j × A) = Lk (Pi j ) × A = Lk (In ) × A = Lk (A), si k = i , alors Li (Pi j × A) = Li (Pi j ) × A = L j (In ) × A = L j (A), de
même L j (Pi j × A) = Li (A). De plus, par définition même, Pi j × Pi j = In , donc Pi j est inversible et Pi−1 j
= Pi j .
Pour l’opération Li ← αLi , avec α ∈ K : soit Di (α) ∈ Mn (K) la matrice obtenue en effectuant cette opération sur

In , alors Di (α) × A est la matrice que l’on obtient en effectuant cette même opération sur A, en effet : si k 6= i , alors
Lk (Di (α) × A) = Lk (Di (α)) × A = Lk (In ) × A = Lk (A), et Li (Di (α) × A) = Li (Di (α)) × A = α.Li (In ) × A = α.Li (A). De plus, il
est clair que Di (α) × Di (1/α) = In , donc cette matrice est inversible et Di (α)−1 = Di (1/α).
Pour l’opération Li ← Li + αL j , avec i 6= j et α ∈ K : soit Ti j (α) ∈ Mn (K) la matrice obtenue en effectuant cette
opération sur In , alors Ti j (α) × A est la matrice que l’on obtient en effectuant cette même opération sur A, en effet : si
k 6= i , Lk (Ti j (α) × A) = Lk (Ti j (α)) × A = Lk (In ) × A = Lk (A), et Li (Ti j (α) × A) = Li (Ti j (α)) × A = (Li (In ) + αL j (In )) × A =
Li (In )× A+α.L j (In )× A = Li (A)+α.L j (A). De plus, il est clair que Ti j (α)×Ti j (−α) = In , donc cette matrice est inversible
et Ti j (α)−1 = Ti j (−α). 

Théorème 22.25
Les opérations élémentaires conservent le rang de la matrice.
NT
Preuve : Découle directement des propriétés du rang et du théorème précédent. 

4) Calcul pratique du rang d’une matrice

Définition 22.16
Soient A, B ∈ Mn,p (K), on dit que A et B sont équivalentes lorqu’il existe Q ∈ GLn (K) et P ∈ GLp (K)
telles que B = QAP.

Remarque 22.9 –
– On définit ainsi une relation d’équivalence dans Mn,p (K).
MO

– Deux matrices équivalentes ont le même rang.


– Une opération élémentaire donne une matrice équivalente.
– Deux matrices carrées semblables sont équivalentes.
– A ∈ Mn,p (K) a un rang égal à r si et seulement si A est équivalente à Jn,p,r .

Théorème 22.26
Deux matrices sont équivalentes si et seulement si elles ont le même rang.

Preuve : Celle-ci est simple et laissée en exercice. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 216 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Opérations élémentaires sur les matrices Chapitre 22 : Matrices

Théorème 22.27
 
p1 ∗ ··· ∗ ··· ∗
 .. .. .. .. 
 0
 . . . ··· . 
 . ..
 ..

NE
. pr ∗ ··· ∗ 
Si A ∈ Mn,p (K) est équivalente à B =  . , avec p 1 × · · · × p r 6= 0, alors
 
 .
 . 0 0 ··· 0 

 .. .. .. .. 
 
 . . . ··· . 
0 ··· 0 0 ··· 0
rg(A) = r .

Preuve : Le rang de B est le rang de ses vecteurs lignes, d’où rg(B) = rg(l 1 (B), . . . , l r (B)) = r , or A est équivalente à B donc
rg(A) = rg(B) = r . 

La méthode
Celle-ci consiste à transformer la matrice A en la matrice B ci-dessus à l’aide des opérations élémentaires

AIG
sur les lignes ou les colonnes (méthode de Gauss), à chaque étape, la matrice obtenue a le même rang que A,
plus précisément, à chaque étape la nouvelle matrice s’écrit sous la forme Uk × A × Vk avec Uk , Vk inversibles.
À l’étape no k, le principe est le suivant :
a) On choisit un pivot (i.e. un coefficient non nul) dans les lignes Lk à Ln et dans les colonnes Ck à Cp .
b) On amène le pivot à sa place, c’est à dire sur la ligne Lk dans la colonne Ck en échangeant éventuelle-
ment deux lignes et/ou deux colonnes.
c) On fait des éliminations en dessous du pivot pour faire apparaître des 0, avec les opérations du type :
Li ← Li + αLk .
3 1 1
 

ZExemple : Soit A =  1 0 2 
−1 2 −12
Étape 1 : premier pivot : 1 (ligne L1 colonne C2 )
NT
 
1 3 1
C1 ↔ C2 et L3 ← L3 − 2L1 donnent  0 1 2 .
 
0 −7 −14

Étape 2 : deuxième pivot : 1 (ligne L2 colonne C2 )


 
1 3 1
L3 ← L3 + 7L2 donne  0 1 2 .
 
0 0 0

Étape 3 : pas de troisième pivot.


Donc rg(A) = 2.
MO

FExercice 22.12 Avec la matrice A précédente, déduire de la méthode deux matrices inversibles U et V telles que UAV =
J3,3,2 .
ZExemple : (Variante) Il peut être parfois avantageux de n’effectuer que des transformations sur les colonnes,
les éliminations se font alors à droite du pivot avec les opérations du type Ci ← Ci + αCk (à l’étape k). Voici
quel peut être l’intérêt :
Soit B = (i , j , k) une base de E et soit u ∈ L (E) défini par mat(u) = A (la matrice précédente), calculons le
B
rang de A (donc le rang de u) en faisant uniquement des opérations sur les colonnes :
Étape 1 : premier pivot 1 (ligne L1 colonne C2 )
 
1 3 1
C1 ↔ C2 donne  0 1 2 
 
2 −1 −12

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 217 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Opérations élémentaires sur les matrices Chapitre 22 : Matrices

La matrice obtenue est la matrice dans la base B de de la famille (u( j ), u(i ), u(k)).
 
1 0 0
C2 ← C2 − 3C1 et C3 ← C3 − C1 donnent  0 1 2 .
 
2 −7 −14

NE
La matrice obtenue est la matrice dans la base B de de la famille (u( j ), u(i − 3 j ), u(k − j )).
Étape 2 : deuxième pivot 1 (ligne L2 colonne C2 )
 
1 0 0
C3 ← C3 − 2C2 donne  0 1 0
 
2 −7 0

La matrice obtenue est la matrice dans la base B de de la famille (u( j ), u(i − 3 j ), u(−2i + 5 j + k)).
£ ¤ £ ¤
On en déduit que le rang de u est égal à 2 et Im(u) = Vect u( j ), u(i − 3 j ) = Vect u( j ), u(i ) . Le théorème
du rang permet d’en déduire que dim(ker(u) = 3 − 2 = 1, or −2i + 5 j + k est dans ker(u) et non nul, donc
£ ¤
ker(u) = Vect −2i + 5 j + k

AIG
5) Calcul pratique de l’inverse d’une matrice
Soit A ∈ Mn (K), supposons qu’en r opérations sur les lignes de A on obtienne la matrice In , on a alors
une relation du type Gr ×· · ·×G1 × A = In , où Gi est la matrice correspondant à l’opération numéro i . On peut
alors en déduire que la matrice A est inversible et que son inverse est A−1 = Gr × · · · × G1 , pour obtenir cette
matrice, il suffit d’effectuer les mêmes opérations (dans le même ordre) sur la matrice In en même temps
que sur A. La méthode consiste donc à écrire la matrice A suivie de la matrice In :
A In
a 1,1 ··· a 1,n 1 O
.. .. ..
. . .
a n,1 ··· a n,n O 1
Les opérations sont effectuées sur toute la longueur de chaque ligne. L’objectif est d’obtenir la matrice In
à la place de A, alors on pourra conclure que A est inversible, et là où il y avait In on aura A−1 , on utilise la
NT
méthode de Gauss-Jordan 1 :
À l’étape k :
– On choisit un pivot (i.e. un coefficient non nul) dans les lignes Lk . . . Ln et dans la colonne Ck .
– On amène le pivot à sa place : ligne Lk (en échangeant éventuellement deux lignes).
– On fait les éliminations (pour faire apparaître des zéros) en dessous et au-dessus du pivot avec les
opérations : Li ← Li + αLk .
Il y a donc au plus n étapes.
Il y a deux cas possibles au cours du processus :
– Si à chaque étape on peut trouver un pivot, alors après l’étape n, il ne reste plus qu’à diviser chaque
ligne par le pivot correspondant pour obtenir la matrice In : c’est le cas où la matrice A est inversible.
– Si au cours de l’étape k on ne peut pas trouver de pivot dans la colonne Ck et dans les lignes Lk . . . Ln ,
alors on est dans la situation suivante, à l’issue de l’étape k − 1 :
MO

p1 0 0 ∗ ∗ ∗ ∗ ··· ··· ∗
.. .. .. .. .. ..
0 . 0 . . . . .
.. .. ..
. p k−1 ∗ ∗ ∗ . .
.. .. ..
. 0 0 ∗ ∗ . .
.. .. .. .. .. .. ..
. . . . . . .
0 ··· 0 0 ∗ ∗ ∗ ··· ··· ∗
p 1 , . . . , p k−1 désignent les pivots des k − 1 étapes précédentes, ces pivots étant non nuls, il est facile
de voir qu’avec des opérations sur les colonnes, on peut faire apparaître des zéros dans la colonne k
sur les lignes L1 . . . Lk−1 , sans changer les coefficients des lignes Lk . . . Ln de cette même colonne. La
matrice ainsi obtenue possède une colonne nulle, donc son rang est inférieur ou égal à n − 1, or cette
matrice a le même rang que A, donc nous sommes dans le cas où A est non inversible.
1. JORDAN Camille (1838 – 1922) : mathématicien français dont l’œuvre considérable touche tous les domaines des mathéma-
tiques.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 218 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Matrices par blocs, matrices extraites Chapitre 22 : Matrices
2 4 2 2 4 2 1 0 0
 

ZExemple : Soit A = 0 1 1 , appliquons la méthode de Gauss-Jordan : 0 1 1 0 1 0 .


2 2 −1 2 2 -1 0 0 1
Étape 1 : pivot p 1 = 1, ligne L1 colonne C1 , éliminations : L3 ← L3 − L1 , ce qui donne :

NE
2 4 2 1 0 0
0 1 1 0 1 0
0 −2 −3 −1 0 1

Étape 2 : pivot p 2 = 1, ligne L2 , colonne C2 , éliminations : L1 ← L1 − 4L2 et L3 ← L3 + 2L2 , ce qui donne :

2 0 −2 1 −4 0
0 1 1 0 1 0
0 0 −1 −1 2 1

Étape 3 : pivot p 3 = −1, ligne L3 , colonne C3 , éliminations : L1 ← L1 − 2L3 et L2 ← L2 + L3 , ce qui donne :

2 0 0 3 −8 −2

AIG
0 1 0 −1 3 1
0 0 −1 −1 2 1

3/2 −4 −1
 

En conclusion, la matrice A est inversible et son inverse est : A−1 =  −1 3 1 .


1 −2 −1

VI MATRICES PAR BLOCS, MATRICES EXTRAITES

1) Matrices par blocs


Soit U ∈ Mn,p (K), alors on peut découper la matrice U en quatre (par exemple) blocs de la manière
suivante :  
a 11 ··· a 1r a 1,r +1 ··· a 1p
NT
 .. .. .. .. .. .. 

 . . . . . . 

 a · · · a a · · · a 
q1 qr q,r +1 qp
U=
 
 a q+1,1 · · · a q+1,r a q+1,r +1 · · · a q+1,p 

.. .. .. .. .. ..
 
 
 . . . . . . 
a n1 ··· a nr a n,r +1 ··· a np
µ ¶
A B
ce que l’on peut écrire plus simplement sous la forme U = ∈ Mn,p (K), avec les blocs A ∈
C D
Mq,r (K), B ∈ Mq,p−r (K), C ∈ Mn−q,r (K), D ∈ Mn−q,p−r (K), et les correspondances suivantes :
– Ai j = Ui j pour i ∈ J1 ; q K et j ∈ J1 ; r K ;
– Bi j = Ui ,r + j pour i ∈ J1 ; q K et j ∈ J1 ; p − r K (attention au décalage sur les colonnes !) ;
MO

– Ci j = Uq+i , j pour i ∈ J1 ; n − q K et j ∈ J1 ; r K (attention au décalage sur les lignes !) ;


– Di j = Uq+i ,r + j pour i ∈ J1 ; n − q K et j ∈ J1 ; p − r K (attention au décalage sur les lignes et les colonnes !).
Bien entendu on peut faire moins ou bien plus de quatre blocs. Voici plusieurs cas particuliers :
ZExemples ¡: ¢
– U = C1 (U) · · · Cp (U) , c’est à dire une ligne de blocs et p colonnes, dans ce cas les blocs sont les
matrices
 colonnes
 de U ;
L1 (U)
 .. 
, c’est à dire n lignes de blocs et une colonne, dans ce cas les blocs sont les matrices
– U= 
. 
L p (U)
lignes de U ;
 
A1 (0) · · · (0)
 .. .. 
 (0) A2 . . 
– Matrices diagonales par blocs, ce sont des matrices carrées de la forme A =  . ,
 
 . .. ..
 . . . (0) 

(0) ··· (0) An

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 219 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Matrices par blocs, matrices extraites Chapitre 22 : Matrices
1 2 0
 

où les matrices Ai sont carrées (par forcément de même taille). Par exemple A = −1 3 0 est
0 0 1
diagonale par blocs.
 
A1 ∗ ··· ∗

NE
 .. .. 
 (0) A2 . . 
– Matrices triangulaires par blocs, ce sont des matrices carrées de la forme A =  . ,
 
 . .. ..
 . . . ∗ 

(0) · · · (0) An
1 2 5
 

où les matrices Ai sont carrées (par forcément de même taille). Par exemple A = −1 3 2 est
0 0 1
triangulaire par blocs.

Théorème 22.28 (produit par blocs)


µ 0
A B0
µ ¶ ¶
A B
∈ Mn,p (K), V = ∈ Mp,m (K), avec A ∈ Mq,r (K), B ∈ Mq,p−r (K),

AIG
Soient U =
C D C 0 D0
C ∈ Mn−q,r (K), D ∈ Mn−q,p−r (K), A0 ∈ Mr,s (K), B0 ∈ Mr,m−s (K), C0 ∈ Mp−r,s (K), D0 ∈ Mp−r,m−s (K),
alors : ¶ µ 0
A B0 AA0 + BC0 AB0 + BD0
µ ¶ µ ¶
A B
U×V = × = .
C D C 0 D0 CA0 + DC0 CB0 + DD0

Preuve : On vérifie que U est bien de taille (n, p) et V de taille (p, m), donc le produit W = U × V est défini et de taille
p
P
(n, m). Calculons les coefficients w i j = u i k v k j , dans les différents « quarts » :
k=1
– Premier « quart » (i ∈ J1 ; q K et j ∈ J1 ; s K) :

r p p−r
a i k a k0 j + 0 0
b i k c k0 j = [AA0 ]i j + [BC0 ]i j = [AA0 + BC0 ]i j
X X X
wi j = b i ,k−r c k−r, j = [AA ]i j +
k=1 k=r +1 k=1

– Deuxième « quart » (i ∈ J1 ; q K et j ∈ J1 ; m − s K) :
NT
r p p−r
0 0 0
b i k d k0 j = [AB0 + BD0 ]i j
X X X
w i , j +s = a i k b k, j+ b i ,k−r d k−r, j = [AB ]i j +
k=1 k=r +1 k=1

– Troisième « quart » (i ∈ J1 ; n − q K et j ∈ J1 ; s K) :

r p p−r
c i k a k0 j + 0 0
d i k c k0 j = [CA0 + DC0 ]i j
X X X
w i +q, j = d i ,k−r c k−r, j = [CA ]i j +
k=1 k=r +1 k=1

– Quatrième « quart » (i ∈ J1 ; n − q K et j ∈ J1 ; m − s K) :

r p p−r
c i ,k b k0 j + 0 0
d i ,k d k0 j = [CB0 + DD0 ]i j
X X X
w i +q, j +s = d i ,k−r d k−r, j = [CB ]i j +
k=1 k=r +1 k=1
MO

ce qui prouve la formule. 


Remarque 22.10 :
– Cette formule n’est valable qu’à certaines conditions. Le nombre de colonnes de blocs de la matrice de
gauche doit correspondre au nombre de lignes de blocs de la matrice de droite, mais il y a aussi des
conditions sur les tailles des différents blocs (la largueur de la colonne de blocs numéro j de la matrice de
gauche, doit être égale à la hauteur de ligne de blocs numéro j de celle de droite, on dit qu’ils doivent être
compatibles). C’est la première chose à vérifier avant de faire un produit par blocs.
– La formule a été donnée avec 4 blocs, mais elle est évidemment plus générale. Le résultat a autant de
lignes de blocs que la matrice de gauche, et autant de colonnes de blocs que la matrice de droite (sous
réserve de compatibilité).
Applications :
– Si A est une matrice diagonale par blocs, alors ∀p ∈ N, Ap s’obtient en élevant tous les blocs diagonaux à la
puissance p.
– Si A est une matrice diagonale par blocs, alors A est inversible si et seulement si tous les blocs diagonaux sont
inversibles, auquel cas la matrice inverse s’obtient en inversant chaque bloc de la diagonale.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 220 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 22 : Matrices

– Si A est une matrice triangulaire par blocs, alors A est inversible si et seulement si tous les blocs diagonaux sont
inversibles.

FExercice 22.13 Démontrer ces trois applications.


1 2 0
 

NE
µ ¶
1 2
ZExemple : Soit A = −1 3 0  , cette matrice est diagonale par blocs. Le bloc est inversible est son
−1 3
0 0 2
µ ¶
3 −2
inverse est 15 , le deuxième bloc (2) est inversible lui aussi d’inverse ( 12 ), donc A est inversible et son
1 1
3 −2 0
 

inverse est A−1 = 51 1 1 0 .


0 0 52

2) Matrices extraites

Définition 22.17

AIG
Soit A ∈ Mn,p (K), soit r entier strictement positif et inférieur ou égal à n et p, soient i 1 < i 2 < · · · < i r
des entiers de l’intervalle J1 ; n K, et j 1 < j 2 < · · · < j r des entiers de l’intervalle J1 ; p K, la matrice
M ∈ Mr (K) définie par m k,l = a i k , j l est dite matrice carrée extraite de A.

1 2 3 4
 
µ ¶
1 2 4
ZExemple : Soit A = 5 6 7 8 , alors la matrice M =
  est une matrice extraite de A en
9 10 12
9 10 11 12
prenant les lignes 1 et 3, et les colonnes 1, 2 et 4.

Propriété 1
Si A ∈ Mn,p (K) et si M ∈ Mr (K) est une matrice carrée inversible extraite de A et de taille r , alors rg(A) > r .
Preuve : Notons 1 6 j 1 < . . . < j r 6 p les numéros des colonnes qui ont été extraites de A. Si les colonnes C j 1 (A), . . . , C j r (A)
étaient liées, alors les colonnes de la matrice extraite M serait liées (avec les mêmes coefficients), et donc la matrice M
ne serait pas de rang r ce qui est absurde car elle est inversible, on en déduit que les colonnes C j 1 (A), . . . , C j r (A) forment
NT
une famille libre, et donc rg(A) > r . 

Propriété 2
Si A ∈ Mn,p (K) est de rang r alors toute matrice carrée inversible extraite de A a une taille inférieure ou
égale à r . Et il existe une matrice carrée extraite de A qui est inversible et de taille r .
Preuve : D’après la première propriété, si une matrice carrée inversible extraite de A a une taille égale à t , alors on a
t 6 rg(A) = r .
Le rang de la matrice A est le rang de ses colonnes, celui vaut r , donc il existe des entiers j 1 < · · · < j r de l’intervalle
J1 ; p K tels que la famille (C j 1 (A), . . . , C j r (A)) est libre dans Mn,1 (K).
Considérons la matrice B obtenue en ne prenant que les colonnes C j 1 (A), . . . , C j r (A), le rang de cette matrice est r ,
or son rang est aussi le rang de ses vecteurs lignes, il existe donc des entiers i 1 < · · · < i r de l’intervalle J1 ; n K tels que
les lignes Li 1 (B), . . . , Li r (B) forment une famille libre, par conséquent la matrice carrée extraite M ∈ Mr (K) définie par
m k,l = a i k , j l est inversible (car de rang r ). 
MO

Ceci permet d’énoncer le théorème suivant :

Théorème 22.29
Le rang d’une matrice est la taille maximale de ses matrices carrées extraites inversibles.

VII SOLUTION DES EXERCICES

Solution 22.1
1/ Tns (K) = Vect (Ei j )16i 6 j 6n , la famille (Ei j )16i 6 j 6n est libre, c’est une base de Tns (K), on a donc dim(Tns (K)) =
£ ¤
n(n+1)
2 .
2/ Tn (K) = Vect (Ei j )16 j 6i 6n , la famille (Ei j )16 j 6i 6n est libre, c’est une base de Tni (K), on a donc dim(Tni (K)) =
i
£ ¤
n(n+1)
2 .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 221 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 22 : Matrices

3/ S n (K) = Vect (Ei j + E j i )16i 6 j 6n , la famille (Ei j + E j i )16i 6 j 6n est libre, c’est une base de S n (K), on a donc
£ ¤

dim(S n (K)) = n(n+1)


2 .
4/ An (K) = Vect (E − E j i )16i < j 6n , la famille (Ei j − E j i )16i < j 6n est libre, c’est une base de An (K), on a donc
£ ij ¤

dim(An (K)) = n(n+1)


2 .

NE
t¡ ¢
Solution 22.2 Soit A ∈ Mn (K), on sait que t A = A, donc la transposition dans Mn (K) est une symétrie (involutive et
linéaire). C’est la symétrie par rapport à ker(T − id) = S n (K) et parallèlement à ker(T + id) = An (K).

Solution 22.3
0 0 1 0


0 0 0 2
1/ a) D(1) = 0, D(X) = 1, D(X 2 ) = 2X et D(X 3 ) = 3X 2 , d’où mat(D) = 

.
B 0 3 0 0
0 0 0 0
0 1 1 1
 
0 0 2 3
b) ∆(1) = 0, ∆(X) = 1, ∆(X 2 ) = 2X + 1 et ∆(X 3 ) = 3X 2 + 3X + 1, d’où mat(∆) = 
0 0 0 3.

B
0 0 0 0

AIG
c) B0 = (P0 , P1 , P2 , P3 ) est une base de E (degrés étagés), et ∆(P0 ) = 0, ∆(P1 ) = P0 , ∆(P2 ) = P1 et ∆(P3 ) = P2 , d’où
0 1 0 0
 
0 0 1 0 
mat(∆) =  0 0 0 1.

B0
0 0 0 0
1 0 0 0
 

t 11 t t t 0 0 1 0
2/ Dans M2 (K) on a E = E11 , E12 = E21 , E21 = E12 , E22 = E22 , la matrice demandée est donc 

.
0 1 0 0
0 0 0 1

Solution 22.4
 
x µ ¶
x − 2y + 3z
1/ CoordB (x, y, z) = X = y , d’où CoordB0 ( f (x, y, z)) = A×X =
  , donc f (x, y, z) = (x −2y +3z, 2x + y −5z)
2x + y − 5z
z
(B0 est la base canonique de K2 ).
NT
 
x−y
2/ On a (x, y, z) = xi + y j + zk = z(i + j + k) + (y − z)(i + j ) + (x − y)i , donc CoordB0 (x, y, z) = X =  y − z , d’où
z
 
x − 2y + z
CoordB0 ( f (x, y, z)) = A × X =  2y − 3z , c’est à dire f (x, y, z) = (x − 2y + z)i + (2y − 3z)(i + j ) + z(i + j + k), et
z
donc f (x, y, z) = (x − z, 2y − 2z, z).
3/ Soit B la base canonique de Kp et B0 la base canonique de Kn , soit f ∈ L (Kp , Kn ) l’application linéaire définie par
mat ( f ) = A − B. Pour x ∈ Kp , posons X = CoordB (x), on a alors CoordB0 ( f (x)) = (A − B)X = On,1 , ce qui montre que
B,B0
f est l’application nulle, donc sa matrice est nulle, ce qui donne A = B.

Solution 22.5 Soient Ei , j , Ek,l deux matrices élémentaires de Mn (K), soient (r, s) ∈ J1 ; n K2 :
n n
MO

[Ei , j × Ek,l ]r,s = [Ei , j ]r,p [Ek,l ]p,s = δi ,r δp, j δp,k δl ,s = δ j ,k δi ,r δl ,s = δ j ,k [Ei ,l ]r,s ,
P P
p=1 p=1
on a donc Ei , j × Ek,l = δ j ,k Ei ,l .

   
0 1 0 0 0 1
Solution 22.6 On a A = I3 + J avec J = 0 0 1, de plus J2 = K = 0 0 0, et J3 = O3 . Comme I3 × J = J × I3 , on peut
0 0 0 0 0 0
utiliser le binôme de Newton :  n(n−1) 
n ¡ ¢ 1 n 2
n
An = Jk = I3 + nJ + n(n−1)
P .
k 2 K = 0 1 n
k=0
0 0 1

Solution 22.7
t t
1/ Posons B = (A−1 ), alors B × t A = (A × A−1 ) = t In = In , donc t A est inversible et son inverse est B.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 222 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 22 : Matrices
   
x a
2/ Soit X =  y  et soit Y = b , résolvons l’équation AX = Y :
z c

λy

 x + − z = a

NE
AX = Y ⇐⇒ 2y + z = b
x z c

+ =
λy

 x + − z = a
⇐⇒ 2y + z = b
λy 2z c − a (L3 ← L3 − L1 )

− + =
λy

 x − z + = a
⇐⇒ z + 2y = b .
(4 + λ)y c − a − 2b (L3 ← L3 − 2L2 )

− =

D’où la discussion :
– Si λ = −4 : alors le système n’a pas de solution lorsque c − a − 2b 6= 0, la matrice A n’est donc pas inversible.
– Si λ 6= −4 : le système admet une unique solution  qui est :
 y = a+2b−c4+λ

AIG







z = −2a+λb+2c4+λ
.






x = 2a−λb+(λ+2)c

4+λ
Or on sait que cette unique solution est X = A−1 Y, on en déduit alors que :
2 −λ λ + 2
 
1 
A−1 = 4+λ 1 2 −1 .
−2 λ 2
x1 y1
   
 ..   .. 
3/ Supposons les coefficients diagonaux tous non nuls, soit X =  .  et Y =  . , lorsqu’on résout le système TX = Y
xn yn
(d’inconnue X) par substitutions remontantes,  on obtient une solution de la forme :
x
 n
 = b y
n,n n


x n−1 = b n−1,n−1 y n−1 + b n−1,n y n

NT
X= . .
..




x1 = b 1,1 y 1 + · · · + b 1,n y n

Il y a une seule solution, donc T est inversible, on sait alors que X = T −1 Y, donc les coefficients de la matrice T −1 sont
les coefficients b i , j ci-dessus, ce qui prouve que T −1 est triangulaire supérieure.
Réciproquement, si T est inversible, alors T −1 T = In , notons a i j les coefficients de T −1 , alors on doit avoir : a 11 a 1 = 1,
donc a 1 6= 0. Puis a 21 a 1 = 0 donc a 21 = 0, puis a 22 a 2 = 1 donc a 2 6= 0. On montre ainsi de proche en proche que T −1
est triangulaire supérieure et que les coefficients diagonaux de T sont tous non nuls.

1 0 0 0
 
0 1 −1 2 
Solution 22.8 La matrice de passage de B à B0 est A = 
0 0 1 −3, cette matrice est triangulaire et ses éléments

0 0 0 1
MO

diagonaux sont tous non nuls, elle est donc inversible, ce qui prouve que B0 est une base de K3 [X]. On a la relation
x a
   
y b
CoordB0 (P) = A−1 × CoordB (P), il faut donc calculer A−1 , on peut résoudre l’équation A × 
   
 z  =  c , ce qui donne
  

t d


 x =a 
1 0 0 0



y = b +c +d 0
−1 1 1 1. Finalement, si P = a + bX + cX 2 + d X 3 , alors CoordB0 (P) =
, on en déduit que A =
0

 z = c + 3d 0 1 3



t =d 0 0 0 1
a
 
b + c + d 
 c + 3d .
 

µ ¶ µ ¶
1 1 1 1
Solution 22.9 La matrice de passage de B à B0 est P = , cette matrice est inversible et P −1 = 12 , on en
1 −1 1 −1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 223 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 22 : Matrices
µ ¶ µ ¶
1 0 n 1 0
déduit que B0 est bien une base de K2 et que mat(u) = A0 = P −1 × A × A = . On en déduit que A0 = , on a
B0 0 3 0 3n
1 + 3n 1 − 3n
µ ¶
n
alors An = [P × A0 × P −1 ]n = P × A0 × P −1 ce qui donne : An = 21 , or An = mat(u n ), par conséquent :
1 − 3n 1 + 3n B
∀ (x, y) ∈ K2 , u n (x, y) = 21 (1 + 3n )x + (1 − 3n )y; (1 − 3n )x + (1 + 3n )y .
¡ ¢

NE
Solution 22.10 r = rg(p), on a E = Im(p) ⊕ ker(p), soit (e 1 , . . . , e r ) une base de Im(p) et soit (e r +1 , . . . , e n ) une base
de ker(p), alors B = (e 1 , . . . , e n ) est une base de E et il est clair que mat(p) = Jn,n,r (car Im(p) = ker(p − idE )), d’où
B
tr(p) = tr(Jn,n,r ) = r = rg(p).

Solution 22.11 Il existe U ∈ GLn (K), V ∈ GLp (K) telles que UAV = Jn,p,r avec r = rg(A). On a alors t V t At U = t Jn,p,r = Jp,n,r ,
ce qui donne le résultat.

Solution 22.12 On transforme la matrice obtonue précédemment en J3,3,2 :


   
1 0 0 1 0 0
C2 ← C2 − 3C1 , C3 ← C3 − C1 donnent 0 1 2 , C3 ← C3 − 2C2 donne 0 1 0.
0 0 0 0 0 0
On a obtient la matrice U en effectuant sur lignes de I3 les mêmes opérations que sur les lignes de A (dans le même

AIG
ordre), et la matrice V en effectuant sur colonnes de I3 , les mêmes opérations sur les colonnes de A (dans le même ordre) :
   
1 0 0 0 1 −2
U =  0 1 0 et V = 1 −3 5 
−2 7 1 0 0 1

Solution 22.13
 
A1 (0) ··· (0)

..
 ..
.
 
 (0) A2  .
1/ Soit A =  , une matrice diagonale par blocs.
 .. .... 

 . . . (0) 

(0) ··· (0) An
 
p
 A1 (0) ··· (0) 

p .. .. 
. . 
 
 0 A2
a) Une simple récurrence sur p permet de montrer que Ap =  .
„ en écrivant que Ap+1 = A×Ap
.. ..

 .
NT
 . . . (0) 

 
p
(0) ··· (0) An
et à l’aide d’un produit par blocs.
 
A−1
1 (0) ··· (0)
 

−1 ..  ..
 (0) A2 .  .
b) Si les bloc Ai sont tous inversibles, alors on peut considérer la matrice B =  , on vérifie
 
 .. . .. . .. 
 . (0) 
 
(0) ··· (0) A−1 n
 
−1
A1 A1 (0) ··· (0)
 

−1 . .. .. 
 (0) A A
2 2 . 
alors (produits par blocs) que AB =   = Im où m est la taille de la matrice A,
 
MO

 .. . . . . 

 . . . (0) 

−1
(0) ··· (0) An An
celle-ci est donc inversible et son inverse est B.
Réciproquement, si A est inversible, supposons que A1 est de taille p 1 et non inversible, alors on peut trouver une
x1
 
 . 
 .. 
x1
 
 
 x
 .. 

 p1 
colonne X 1 =  . , non nulle, telle que A1 X 1 = Op 1 ,1 , considérons la colonne X =   ∈ Mm,1 (K), alors on a
 0 
xp1  .. 
 
 . 
0
 
A1 X 1

 0 

AX =  ..  = Om,1 , or la colonne X est non nulle, donc A n’est pas inversible : contradiction. On en déduit que
.
 
 
0

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 224 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 22 : Matrices

A1 est un bloc inversible. Le raisonnement est le même pour les autres blocs.
 
A1 ∗ ··· ∗

.. .. 
.
 
 (0) A 2 . 
2/ Soit A =  .
 une matrice triangulaire par blocs.
 . .. .. 
. .

NE
 . ∗ 

(0) ··· (0) An
Si A et inversible, on peut démontrer que chaque bloc Ai est inversible en commençant par A1 .
 
A−1
1 (0) ··· (0)
 

−1 .. .. 
 (0) A2 . . 
Supposons tous les blocs inversibles, on peut considérer la matrice B =  , on vérifie alors
 
 .. .. .. 
 .
 . . (0) 

−1
(0) ··· (0) An
 
A1 A−11 ∗ ··· ∗
 

−1 .. .. 
 (0) A A
2 2 . . 
(produits par blocs) que AB =   = C, cette matrice C est triangulaire supérieure
 
.. . . . .

AIG
 

 . . . ∗ 

−1
(0) ··· (0) An An
avec que des 1 sur la diagonale, elle est donc inversible, on en déduit que A = CB−1 est donc inversible.
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 225 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 23

Dénombrement

Sommaire
I Cardinal d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

AIG
1) Rappels : injections, surjections, bijections, permutations . . . . . . . . . . . . . . . . . 226
2) Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
3) Propriétés du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
II Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
1) Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
2) Le nombre d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
3) Le nombre de parties d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
4) Le nombre de bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
5) Le nombre de p-parties (ou p-combinaisons) . . . . . . . . . . . . . . . . . . . . . . . . 230
III Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

I CARDINAL D’UN ENSEMBLE FINI

1) Rappels : injections, surjections, bijections, permutations


NT
a) La composée de deux injections (respectivement surjections) est une injection (respectivement surjec-
tion).
b) Si f : E → F est injective, alors f induit une bijection de E sur Im( f ).
c) Si f ◦ g est injective, alors g est injective.
d) Si f ◦ g est surjective, alors f est surjective.
e) Si f : E → F est une application, alors f induit une surjection de E sur Im( f ).
f) Si f : E → F est surjective, alors il existe une application g : F → E telle que f ◦ g = idF .

Définition 23.1
MO

Soit E un ensemble, on appelle permutation de E toute bijection de E vers E. L’ensemble des permu-
tations de E est noté S (E).

Théorème 23.1
Soit E un ensemble non vide, alors (S (E), ◦) est un groupe (non commutatif en général), appelé
groupe des permutations de E.

Preuve : Celle - ci est simple et laissée en exercice. On vérifie que l’élément neutre est l’application identité de E : idE , et
que le symétrique de f ∈ S (E) est la bijection réciproque f −1 . 

2) Ensembles finis

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 226 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Cardinal d’un ensemble fini Chapitre 23 : Dénombrement

Définition 23.2
Soit E un ensemble non vide, on dit que E est fini lorsqu’il existe un entier n ∈ N∗ et une bijection
φ : J1 ; n K → E. Si c’est le cas, on pose card(E) = n (ou |E| = n ou #(E) = n), sinon on dit que E est un
ensemble infini. Par convention ∅ est un ensemble fini de cardinal nul.

NE
Remarque 23.1 :
– Dire que E est fini de cardinal n > 1 revient à dire que l’on peut indexer les éléments de E de 1 à n :
E = {e 1 , . . . , e n } (les éléments étant distincts deux à deux).
– Si E est fini de cardinal n + 1 et si a ∈ E, alors E \ {a} est fini de cardinal n.
En effet : soit φ : J1 ; n + 1K → E une bijection, soit τ la permutation de E qui échange φ(n + 1) et a, alors
τ ◦ φ : J1 ; n + 1K → E est une bijection qui envoie n + 1 en a, elle induit donc une bijection de J1 ; n K sur
E \ {a}.
– Si E est fini de cardinal n et b ∉ E, alors E ∪ {b} est fini de cardinal n + 1.

Théorème 23.2
Soit n ∈ N∗ , toute partie de J1 ; n K est un ensemble fini de cardinal au plus égal à n. De plus, si F ⊂ J1 ; n K

AIG
et si card(F) = n alors F = J1 ; n K.

Preuve : Par récurrence sur n : pour n = 1 c’est évident. Supposons le théorème établi pour un entier n > 1 et soit
F une partie de J1 ; n + 1K. Si n + 1 ∉ F, alors F est une partie de J1 ; n K donc (hypothèse de récurrence) F est fini et
card(F) 6 n < n + 1. Si n + 1 ∈ F, alors F \ {n + 1} est une partie de J1 ; n K, donc F \ {n + 1} est un ensemble fini de cardinal
p 6 n, mais alors F est fini de cardinal p + 1 6 n + 1. Supposons maintenant que card(F) = n + 1, on a nécessairement
n + 1 ∈ F, d’où F \ {n + 1} ⊂ J1 ; n K et card(F \ {n + 1}) = n, donc F \ {n + 1} = J1 ; n K (hypothèse de récurrence) et finalement
F = J1 ; n + 1K. 

Théorème 23.3
Soient n, p ∈ N∗ , et soit f : J1 ; n K → J1 ; p K une application :
– Si f est injective, alors n 6 p.
– Si f est surjective, alors n > p.
– Si f est bijective, alors n = p.
NT
Preuve : On remarque que la troisième propriété découle des deux précédentes. Montrons la première : on a f : J1 ; n K →
J1 ; p K une injection, alors f induit une bijection de J1 ; n K sur Im( f ), donc Im( f ) est fini de cardinal n, or Im( f ) est une
partie de J1 ; p K, donc Im( f ) est fini de cardinal au plus p, i.e. n 6 p.
Montrons la deuxième : f : J1 ; n K → J1 ; p K est surjective, alors il existe une application g : J1 ; p K → J1 ; n K telle que
f ◦ g = idJ1;p K , donc g est injective et par conséquent p 6 n. 
Conséquence : soit E un ensemble fini non vide, il existe un entier n > 1 et une bijection φ : J1 ; n K → E, s’il
existe un autre entier p et une bijection ψ : J1 ; p K → E, alors l’application ψ−1 ◦ φ est une bijection de J1 ; n K
sur J1 ; p K, donc n = p. Ce qui prouve l’unicité du nombre card(E) et justifie à posteriori la définition.

Théorème 23.4
Soit n > 1, toute application injective (respectivement surjective) de J1 ; n K dans J1 ; n K est bijective.
MO

Preuve : Si f : J1 ; n K → J1 ; n K est injective, alors f induit une bijection de J1 ; n K sur Im( f ), donc Im( f ) est fini de cardinal
n, mais Im( f ) ⊂ J1 ; n K, donc Im( f ) = J1 ; n K i.e. f est surjective (et donc bijective).
Supposons maintenant que f est surjective, alors il existe g : J1 ; n K → J1 ; n K telle que f ◦ g = idJ1;n K , mais alors g est
injective, donc bijective d’après ce qui précède et f = ( f ◦ g ) ◦ g −1 composée de bijections, donc f est bijective. 

3) Propriétés du cardinal

Théorème 23.5
Soient E et F deux ensembles finis non vides, avec n = card(E) et p = card(F) et soit f : E → F une
application :
• Si f est injective alors n 6 p.
• Si f est surjective alors n > p.
• Si f est bijective alors n = p.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 227 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Cardinal d’un ensemble fini Chapitre 23 : Dénombrement

Preuve : Soient φ1 : J1 ; n K → E et φ2 : J1 ; p K → F deux bijections. Si f est injective alors φ2 ◦ f ◦ φ1 est une injection de
J1 ; n K vers J1 ; p K, donc n 6 p. Le raisonnement est le même pour les deux autres points. 
Remarque 23.2 – Il en découle que si F est en bijection avec E et si E est fini, alors F est fini de même cardinal

NE
de E.

Théorème 23.6
Soient E et F deux ensembles finis non vides de même cardinal et soit f : E → F une application, les
assertions suivantes sont équivalentes :
a) f est injective.
b) f est surjective.
c) f est bijective.

Preuve : Soient φ : J1 ; n K → E et ψ : J1 ; n K → F deux bijections, alors g = ψ−1 ◦ f ◦ φ est une application de J1 ; n K vers lui
- même, avec f = ψ ◦ g ◦ φ−1 . Si f est injective, alors g aussi, donc g est bijective et f aussi. Si f est surjective, alors g

AIG
aussi et donc g est bijective et f aussi. 
ZExemple : Soit A un anneau intègre fini, alors A est nécessairement un corps. En effet, soit a un élément non
nul de A, l’application f : A → A définie par f (x) = a × x est injective (car A est intègre), or A est fini, donc f
est bijective, par conséquent il existe a 0 ∈ A tel que f (a 0 ) = 1 i.e. a × a 0 = 1. De même il existe a 00 ∈ A tel que
a 00 × a = 1, mais alors a 00 = a 00 × (a × a 0 ) = (a 00 × a) × a 0 = a 0 . Finalement, tout élément non nul de A possède
un inverse et donc A est un corps.

Théorème 23.7
Si E est un ensemble fini et si F est une partie de E, alors F est fini. De plus, si card(F) = card(E), alors
F = E.

Preuve : On écarte le cas évident où E = ∅. Soit n = card(E) et φ : J1 ; n K → E une bijection. Notons i : F → E définie par
i (x) = x, i est une injection donc g = φ−1 ◦ i est une injection de F vers J1 ; n K qui induit donc une bijection de F sur
Im(g ), or Im(g ) est une partie de J1 ; n K, donc Im(g ) est un ensemble fini de cardinal p 6 n, par conséquent F est fini de
NT
cardinal p. Si n = p, alors Im(g ) = J1 ; n K donc g est une bijection ce qui entraîne que i est une bijection, donc Im(i ) = E,
c’est à dire F = E. 

Théorème 23.8
Soient E et F deux ensembles finis, l’ensemble E ∪ F est fini et :
card(E ∪ F) = card(E) + card(F) − card(E ∩ F)

Preuve : Si l’un des deux est vide, il n’y a rien à démontrer. Supposons E et F non vides, dans un premier temps on
envisage le cas où E∩F = ∅, soit f : J1 ; n K → E et g : J1 ; p K → F deux bijections, on considère l’application φ : J1 ; n+p K →
E ∪ F définie par φ(k) = f (k) si 1 6 k 6 n et φ(k) = g (k − n) si n + 1 6 k 6 n + p, comme E ∩ F = ∅ on voit que φ est
injective, d’autre part la surjectivité est évidente, donc φ est bijective, ce qui montre que E ∪ F est fini de cardinal n + p.
Passons maintenant au cas général : posons I = E ∩ F, on a E ∪ F = E ∪ (F \ E) et ces deux ensembles sont disjoints
MO

et finis, donc E ∪ F est fini et card(E ∪ F) = card(E) + card(F \ E), d’autre part F = I ∪ (F \ E) et ces deux ensembles sont
disjoints et finis, donc card(F) = card(I)+card(F\E), on a donccard(F\E) = card(F)−card(I), ce qui donne la formule. 

Théorème 23.9
Si E et F sont deux ensembles finis, alors l’ensemble E × F est fini et card(E × F) = card(E) × card(F).

Preuve : Si l’un des deux est vide, alors E × F est vide et le résultat est évident. Soit n = card(E), si n = 1 alors E = {e}
et l’application f : F → E × F définie par f (x) = (e, x) est une bijection, donc E × F est fini de même cardinal que F, le
théorème est donc vrai pour n = 1.
Supposons le théorème démontré pour un entier n > 1 et supposons card(E) = n + 1, on fixe un élément e ∈ E et on
pose E0 = E \ {e}. On a E × F = ({e} × F) ∪ (E0 × F), ces deux ensembles sont disjoints et finis (hypothèse de récurrence),
donc E×F est fini et card(E×F) = card({e}×F)+card(E0 ×F) = card(F)+card(E0 )×card(F) = (n +1)×card(F). Le théorème
est démontré au rang n + 1. 
Conséquence : si p ∈ N∗ , et si E est fini de cardinal n > 1, alors E p (ensemble des p - uplets d’éléments de E)
est fini et card(E p ) = [card(E)]p .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 228 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Dénombrement Chapitre 23 : Dénombrement

II DÉNOMBREMENT

1) Préliminaires

Définition 23.3

NE
Dénombrer un ensemble fini E c’est calculer son cardinal. Dans la pratique, c’est le mettre en bijection
avec un ensemble F dont on connaît le cardinal.
(
1 si n = 0
La fonction factorielle : elle est définie sur N par : n! = . On peut également en donner
1×···×n si n > 0
une définition récurrente : 0! = 1 et ∀ n ∈ N, (n + 1)! = (n + 1) × n!.

Théorème 23.10 (diviser pour mieux compter)


Soient E un ensemble fini et soient A1 , . . . , An n parties de E deux à deux disjointes et dont la réunion
n
P
est égale à E, alors : card(E) = card(Ak ).
k=1

AIG
Preuve : Celle - ci est simple, c’est un raisonnement par récurrence sur n, sachant que la formule est vraie pour n = 2. 
Application – Si f : E → F est une application et si E est fini, alors :

card( f −1 ( y ))
X © ª
card(E) =
y∈Im( f )

Dans le cas où les éléments de Im( f ) ont tous le même nombre d’antécédents p, alors card(E) = p card(Im( f )).

2) Le nombre d’applications

Théorème 23.11
Soit E et F deux ensembles finis avec p = card(E) et n = card(F), l’ensemble des applications de E vers
F, F (E, F) (ou FE ), est fini de cardinal n p .
NT
Preuve : Posons E = {e 1 , . . . , e p }, on vérifie que l’application φ : FE → Fp définie par φ( f ) = ( f (e 1 ), . . . , f (e p )) est une
bijection. Or Fp est un ensemble fini de cardinal n p ce qui donne le résultat. 
Remarque 23.3 :
– Le théorème justifie le raisonnement suivant : pour construire une application de E vers F on compte
pour chaque élément de E le nombre de choix possibles pour son image (soit n choix), puis on fait le
produit, soit n p constructions possibles.
– Le nombre de façons de tirer avec remise p boules parmi n est n p .
– Le nombre de façons de ranger p boules dans n boites est n p .
Complément : lorsque p 6 n, le nombre d’injections de E vers F est n(n − 1) · · · (n − p + 1).

3) Le nombre de parties d’un ensemble


MO

Définition 23.4
Soit E un ensemble et A ( une partie de E, on appelle fonction indicatrice de A l’application 1A : E →
1 si x ∈ A
{0; 1} définie par 1A (x) = .
0 sinon

Théorème 23.12
Si E est fini de cardinal n, alors P (E), l’ensemble des parties de E, est fini de cardinal 2n .

Preuve : Il est facile de vérifier que l’application de P (E) vers F (E, {0; 1}) qui à toute partie de E associe sa fonction
caractéristique, est une bijection. Or l’ensemble F (E, {0; 1}) est fini de cardinal 2n ce qui donne le résultat. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 229 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Dénombrement Chapitre 23 : Dénombrement
Remarque 23.4 – Le théorème justifie le raisonnement suivant : pour construire une partie de E il y a deux
choix possibles pour chaque élément de E (on le prend ou on ne le prend pas), comme il y a n éléments dans E
cela fait 2n constructions possibles, soit 2n parties.

4) Le nombre de bijections

NE
Théorème 23.13
Si E et de F sont deux ensembles finis de même cardinal n > 0, il y a n! bijections de E vers F. En
particulier, card(S (E)) = n! (groupe des permutations de E).

Preuve : Lorsque card(E) = card(F) = n, l’ensemble des bijections de E vers F est inclus dans l’ensemble des applications,
c’est donc un ensemble fini de cardinal inférieur ou égal à n n . On montre ensuite la formule par récurrence sur n,
le résultat
© étant immédiat pour ª n = 1, supposons le vrai au rang n − 1. Posons F = {d 1 , . . . , d n }, soit e ∈ E fixé, on pose
Dk = f ∈ Bij(E, F) / f (e) = d k pour k ∈ J1 ; n K. Il est clair que Bij = D1 ∪. . .∪Dn et que card(Dk ) = card(Bij(E\{e}, F\{d k }),
on obtient ainsi que card(Bij(E, F)) = n × (n − 1)! = n!. 

AIG
5) Le nombre de p-parties (ou p-combinaisons)

Définition 23.5
Soit E un ensemble de cardinal n ∈ N et soit p ∈ N, on appelle p - combinaison d’éléments de E (ou p
- partie) toute partie de E de cardinal p. L’ensemble des p - parties de E est noté P p (E).

Remarque 23.5 – P p (E) est un ensemble fini car il est inclus dans P (E), et son cardinal est majoré par 2n .
Cas particuliers :
a) Si p = 0 la seule partie de E à 0 élément est ∅, donc card(P 0 (E)) = 1.
b) Si p = n, la seule partie de E à n éléments est E, donc card(P n (E)) = 1.
c) Si p > n il n’y a aucune partie de E à p éléments donc dans ce cas, card(P p (E)) = 0.
NT
Théorème 23.14
Qp−1
(n−k) ¡n ¢
Si n, p ∈ N, alors card(P p (E)) = k=0
p! = p (avec la convention que le produit vaut 1 lorsque p = 0,
et que np = 0 si p > n).
¡ ¢

Preuve : Par récurrence sur n : pour n = 0 et n = 1, la vérification est immédiate.


Supposons le théorème vrai pour un entier n > 1 et supposons card(E) = n + 1, si p = 0 la formule est vraie,
supposons p > 1, on fixe un élément a ∈ E, soit A l’ensemble des p - parties de E contenant a et B l’ensemble
des p - parties de E ne contenant pas a, alors P p (E) = A ∪ B et A ∩ B = ∅, donc card(P p (E)) = card(A) + card(B),
Qp−1 Qp−2
(n−k) (n−k)
or card(B) = k=0p! (car B est en bijection avec P p (E \ {a})) et card(A) = k=0
(p−1)! (car A est en bijection avec
P p−1 (E \ {a})), d’où :

n × · · · × (n − p + 1) n × · · · × (n − p + 2)
MO

card(P p (E)) = +
p! (p − 1)!
n × · · · (n − p + 2)[n − p + 1 + p]
=
p!
(n + 1)n × · · · (n + 1 − p + 1)
=
p!

la formule est donc vraie au rang n + 1. 

FExercice 23.1 À l’aide d’un raisonnement de dénombrement, retrouver sans calcul les propriétés suivantes :
1/ Si p 6 n, np = n−p
¡ ¢ ¡ n ¢
.
¡n ¢ ¡ n ¢ ¡n+1¢
2/ Si 0 6 p 6 n − 1, p + p+1 = p+1 .
n ¡ ¢ n ¡ ¢
n n
3/ Binôme de Newton : ∀ n ∈ N, ∀ x, y ∈ C, (x + y)n = x k y n−k = x n−k y k .
P P
k k
k=0 k=0
¡n ¢ n ¡n−1¢
4/ Si 1 6 p 6 n, p = .
p p−1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 230 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 23 : Dénombrement

III SOLUTION DES EXERCICES

Solution 23.1
1/ L’application de f : P p (E) → P n−p (E) définie par f (A) = A (complémentaire de A dans E) est bijective.

NE
¡n ¢
2/ Pour compter le nombre de (p + 1)-parties de J1 ; n + 1K, on compte celles qui contiennent n + 1 (il y en a p ) et celles
¡ n ¢
qui ne contiennent pas n + 1 (il y en a p+1 ).
3/ Lorsqu’on développe (x + y)n = (x + y) × · · · × (x + y) on obtient une somme de termes f 1 × · · · × f n où f i provient du
facteur numéro i , on a f i = x ou¡ y, par conséquent on a une somme de termes du type x k y n−k avec k ∈ J0 ; n K, et

chacun de ces termes est obtenu k fois (k facteurs parmi n égaux à x et les autres égaux à y).
4/ Considérons un ensemble constitué¡de¢ p boules rouges et n − p bleues. Le nombre de façons de ranger ces n boules
dans n boites (une par boite) est : np (p boites parmi n pour les rouges, celles qui restent sont pour les bleues),
imaginons que pour chacun de ces rangements on peint une des boules rouges en blanc, on obtient alors p np façons
¡ ¢

de ranger n boules dont 1 blanche, p − 1 rouges et n − p bleues, c’est à dire n n−1


¡ ¢
p−1 (une boite pour la blanche, p − 1
pour les rouges, celles qui restent pour les bleues).

AIG
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 231 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 24

Déterminants

Sommaire
I Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232

AIG
1) Décomposition des permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
2) Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
II Applications n-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
2) Développement suivant une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
III Déterminant dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
1) Formes n-linéaires en dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
2) Déterminants de n vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . 236
3) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
IV Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
2) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
V Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
NT
2) Propriétés du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . 238
3) Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . 239
4) Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
VI Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
1) Géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2) Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
3) Orientation d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
VII Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

I LE GROUPE SYMÉTRIQUE
MO

1) Décomposition des permutations

Définition 24.1
Soit En = J1 ; n K, avec n ∈ N∗ , on note Sn l’ensemble des permutations de En , c’est à dire l’ensemble
des bijections de En vers lui-même. On rappelle que (Sn , ◦) est un groupe de cardinal n! (non abélien
dès que n > 3), ce groupe est appelé groupe symétrique de type n.

Représentation d’une permutation :


µ ¶
1 ··· n
On adoptera la notation suivante : soit σ ∈ Sn , σ = , la deuxième ligne étant les images
σ(1) · · · σ(n)
de la première par σ (dans le même ordre).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 232 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Le groupe symétrique Chapitre 24 : Déterminants

Définition 24.2 (notion de cycle)


Soit σ ∈ Sn , on dit que σ est un cycle lorsqu’il existe k entiers distincts dans J1 ; n K : i 1 , . . . , i k (k > 1)
tels que σ(i 1 ) = i 2 , . . . , σ(i k−1 ) = i k , σ(i k ) = i 1 , les autres entiers de En étant fixes par σ. Dans ce cas, on
notera σ = (i 1 i 2 . . . i k ). Le nombre k est appelé longueur du cycle, et un cycle de longueur 2 est appelé

NE
une transposition. L’ensemble {i 1 , . . . , i k } est appelé support du cycle σ. On convient que l’identité
de En est un cycle de longueur nulle et à support vide.

FExercice 24.1
1/ Décrire tous les cycles de S3 .
2/ Combien y-a-t’il de cycles de longueur k dans Sn ?
3/ Si σ est un cycle dans Sn , déterminer σ−1 .
4/ Si σ est un cycle de longueur k dans Sn , montrer que σk = id et que σi 6= id si i < k. En déduire que si a est un
élément du support de σ, alors σ = (a σ(a) . . . σk−1 (a)).

Théorème 24.1 (admis)

AIG
Toute permutation de En est un produit (pour la loi ◦) de cycles à supports disjoints, cette décompo-
sition est unique à l’ordre près.

ZExemples : µ ¶
1 2 3 4 5 6
– Soit σ = , alors σ = (1 3) ◦ (4 6 5).
3 2 1 6 4 5
– Montrer que deux cycles à supports disjoints commutent. Et si les supports sont non disjoints ?

Théorème 24.2
Toute permutation est un produit de transpositions.

Preuve : Il suffit de le prouver pour un cycle, soit σ = (i 1 . . . i k ), il est facile de vérifier que σ = (i 1 i 2 )(i 2 i 3 ) · · · (i k−1 i k ). On
remarquera que les supports des transpositions ne sont pas disjoints deux à deux, et que le nombre de transpositions
NT
dans la décomposition est égal à k − 1. 

2) Signature

Définition 24.3 (inversion)


Soit σ ∈ Sn , on appelle inversion de σ tout couple d’entiers (i , j ) ∈ J1 ; n K2 tel que i < j et σ(i ) > σ( j ).
Le nombre d’inversions de σ est noté Iσ .

Théorème 24.3 (Nombre d’inversions d’une transposition)


Soit σ = (a b) une transposition de Sn avec a < b : alors Iσ = 2(b − a) − 1.
MO

Preuve : En effet, soit i < j deux entiers de En :


– Si i , j ∉ {a, b}, alors i et j sont fixes, donc (i , j ) n’est pas une inversion de σ.
– Si i = a et j = b, alors (i , j ) est une inversion.
– Si i = a et j 6= b, alors (i , j ) est une inversion ssi j ∈ Ja + 1 ; b − 1K.
– Si i 6= a et j = b, alors (i , j ) est une inversion ssi i ∈ Ja + 1 ; b − 1K.
Ce qui nous fait au total 2(b − a) − 1 inversions pour la transposition (a b). 

Définition 24.4 (signature d’une permutation)


Soit σ ∈ Sn , on appelle signature de σ le nombre noté ε(σ) et défini par ε(σ) = (−1)Iσ .

σ(i )−σ( j )
On peut vérifier que ε(σ) =
Q
i−j .
16i < j 6n
ZExemple : Signature d’une transposition, si σ = (a b) avec a < b ∈ En , alors Iσ = 2(b − a) − 1, donc ε(σ) = −1.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 233 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications n-linéaires Chapitre 24 : Déterminants

Théorème 24.4 (admis)


L’application signature ε : (Sn , ◦) → ({±1}, ×), est un morphisme de groupes, c’est à dire :
∀ σ, σ0 ∈ Sn , ε(σ ◦ σ0 ) = ε(σ) × ε(σ0 ).

NE
Application – Calcul de la signature d’une permutation. Pour calculer la signature d’une permutation σ, il suffit de
connaître sa décomposition en produit de transpositions : σ = τ1 ◦ . . . ◦ τk , on a alors ε(σ) = ε(τ1 ) × . . . ε(τk ) = (−1)k .

ZExemples :
– Calculer la signature d’un cycle de longueur p > 1.
µ ¶
1 2 3 4 5 6 7 8 9 10
– Calculer la signature de σ = .
3 10 4 6 9 7 1 5 8 2

II APPLICATIONS N-LINÉAIRES

1) Définition

AIG
Définition 24.5
Soient E et F deux K-espaces vectoriels et f : En → F une application. On dit que f est n-linéaire
lorsque f est linéaire par rapport à chacune de ses variables (les autres étant fixes), c’est à dire :
∀ x 1 , . . . , x n ∈ E, ∀ i ∈ J1 ; n K, l’application f i : E → F définie par :

f i (x) = f (x 1 , . . . , x i −1 , x, x i +1 , . . . , x n ) est linéaire.

ZExemples :
– L’application f : R2 × R2 → R définie par f (u, v) = u 1 v 1 + u 2 v 2 (avec u = (u 1 , u 2 , ) et v = (v 1 , v 2 )), est
bilinéaire, plus précisément, c’est une forme bilinéaire sur R2 .
– L’application f : R2 × R2 → R définie par f (u, v) = u 1 v 2 − u 2 v 1 (avec u = (u 1 , u 2 , ) et v = (v 1 , v 2 )), est une
forme bilinéaire sur R2 .
– Soit E = Mn (K), l’application f : E3 → E définie par f (A, B, C) = A × B × C, est trilinéaire.
Rb
– Soit E = C 0 ([a; b], R). L’application f : E2 → R définie par f (u, v) = a u(t )v(t ) d t , est une forme bili-
NT
néaire sur E.

Définition 24.6
Soit f : En → F une application n-linéaire, on dit que f est :
– symétrique : lorsque ∀ σ ∈ Sn , ∀ x 1 , . . . , x n ∈ E : f (x σ(1) , . . . , x σ(n) ) = f (x 1 , . . . , x n ), autrement dit,
changer l’ordre des vecteurs ne change pas le résultat.
– antisymétrique : lorsque ∀ σ ∈ Sn , ∀ x 1 , . . . , x n ∈ E : f (x σ(1) , . . . , x σ(n) ) = ε(σ). f (x 1 , . . . , x n ), autre-
ment dit, échanger deux vecteurs change le signe du résultat.
– alternée : lorsque ∀ x 1 , . . . , x n ∈ E, s’il existe i , j ∈ J1 ; n K tels que i 6= j et x i = x j , alors f (x 1 , . . . , x n ) =
0, autrement dit, si deux des vecteurs sont égaux alors le résultat est nul.

Notation : Soit f : En → F une application n-linéaire, pour σ ∈ Sn on pose : f σ : En → F définie par


MO

f σ (x 1 , . . . , x n ) = f (x σ(1) , . . . , x σ(n) ). On remarquera que f σ est également n-linéaire.


ZExemple : En reprenant les exemples ci-dessus, la première application et la quatrième sont symétriques, la
deuxième est antisymétrique et alternée, la troisième est ni symétrique, ni antisymétrique, ni alternée.

Théorème 24.5
Il y a équivalence entre antisymétrique et alternée.

Preuve : Si f : En → F est n-linéaire alternée, soient x 1 , . . . , x n ∈ E, soit τ = (i j ) avec i , j ∈ J1 ; n K, posons x i0 = x 0j = x i + x j ,


et S = f (x 1 , . . . , x i −1 , x i0 , x i +1 , . . . , x j −1 , x 0j , x j +1 , . . . , x n ), comme f est alternée, S = 0, mais S = f (x 1 , . . . , x i −1 , x i , x i +1 , . . . , x j −1 , x j , x j +1 , . . . ,
f (x 1 , . . . , x i −1 , x j , x i +1 , . . . , x j −1 , x i , x j +1 , . . . , x n ) (en développant par rapport à la i -ième variable puis par rapport à la
j -ième), ce qui donne f τ = − f = ε(τ). f , mais comme toute permutation est un produit de transpositions, on en déduit
que ∀ σ ∈ Sn , f σ = ε(σ). f c’est à dire f est antisymétrique.
Si f est antisymétrique : supposons x i = x j avec i 6= j , alors soit τ = (i j ), on a f (x 1 , . . . , x n ) = f τ (x 1 , . . . , x n ) =
− f (x 1 , . . . , x n ), donc f (x 1 , . . . , x n ) = 0, i.e. f est alternée. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 234 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Déterminant dans une base Chapitre 24 : Déterminants

Théorème 24.6
L’ensemble des applications n-linéaires de En vers F est un K-espace vectoriel (s.e.v. de F (En , F)).
L’ensemble des applications n-linéaires alternées de En vers F est un K-espace vectoriel (s.e.v. de
F (En , F)).

NE
Preuve : Celle-ci est simple et laissée en exercice. 

2) Développement suivant une base


Soit E de dimension p, soit B = (e 1 , . . . , e p ) une base de E, soit S = (x 1 , . . . , x n ) un système de n vecteurs
de E et soit A = P B,S ∈ Mp,n (K) la matrice de passage de B à S. Soit u = f (x 1 , . . . , x n ), en développant par
rapport à la première variable, on obtient :
X
u= a j 1 ,1 f (e j 1 , x 2 , . . . , x n )
16 j 1 6 p

Puis on développe chacun de ces termes par rapport à la deuxième variable x 2 , ce qui donne
X
u= a j 1 ,1 a j 2 ,2 f (e j 1 , e j 2 , x 3 , . . . , x n )

AIG
16 j 1 , j 2 6 p

etc..., ce qui donne à la fin :


X
f (x 1 , . . . , x n ) = a j 1 ,1 · · · a j n ,n f (e j 1 , . . . , e j n )
16 j 1 ,..., j n 6p

C’est le développement de f (x 1 , . . . , x n ) dans la base B, on voit ainsi qu’une application n-linéaire


f : En → F est entièrement déterminée par la donnée des vecteurs f (e j 1 , . . . , e j n ).

III DÉTERMINANT DANS UNE BASE

1) Formes n-linéaires en dimension n


Avec les notations précédentes, supposons que la dimension de E soit égale à n, soit B = (e 1 , . . . , e n ) une
base de E, et f une forme n-linéaire alternée sur E, d’après ce qui précède, on a :
NT
X
f (x 1 , . . . , x n ) = a j 1 ,1 · · · a j n ,n f (e j 1 , . . . , e j n )
16 j 1 ,..., j n 6n

comme f est alternée, dès que deux indices sont égaux, le terme correspondant est nul, il reste donc :
X
f (x 1 , . . . , x n ) = a j 1 ,1 · · · a j n ,n f (e j 1 , . . . , e j n )
16 j 1 ,..., j n 6n,distincts

Lorsque les indices sont distincts deux à deux, on a forcément, j 1 , . . . , j n = J1 ; n K, en posant σ(k) = j k
© ª

on définit une permutation des entiers de 1 à n et on peut alors écrire :


X
f (x 1 , . . . , x n ) = a σ(1),1 · · · a σ(n),n f (e σ(1) , . . . , e σ(n) )
σ∈Sn

Or, f (e σ(1) , . . . , e σ(n) ) = ε(σ). f (e 1 , . . . , e n ) ( f est antisymétrique), finalement on a la formule :


MO

à !
ε(σ)a σ(1),1 · · · a σ(n),n f (e 1 , . . . , e n )
X
f (x 1 , . . . , x n ) =
σ∈Sn

Donc si f est une forme n-linéaire alternée sur E, alors il existe un scalaire α tel que :
∀ x 1 , . . . , x n ∈ E, f (x 1 , . . . , x n ) = α ε(σ)a σ(1),1 a σ(2),2 . . . a σ(n),n .
X
σ∈Sn

Avec α = f (e 1 , . . . , e n ) (ce qui détermine entièrement f ), et les scalaires a i , j étant les coefficients de la matrice
de la famille (x 1 , . . . , x n ) dans la base B.
Si σ parcourt Sn , alors σ−1 aussi, on peut donc écrire :

∀x 1 , . . . , x n ∈ E, f (x 1 , . . . , x n ) = α ε(σ)a 1,σ−1 (1) a 2,σ−1 (2) . . . a n,σ−1 (n)


X

σ−1 ∈Sn

=α ε(σ)a 1,σ(1) . . . a n,σ(n) .


X
σ∈Sn

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 235 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Déterminant dans une base Chapitre 24 : Déterminants

Théorème 24.7
ε(σ)a 1,σ(1) . . . a n,σ(n) , alors f 1 est une forme n-linéaire
P
On pose pour x 1 , . . . , x n ∈ E, f 1 (x 1 , . . . , x n ) =
σ∈Sn
alternée sur E et f 1 (e 1 , . . . , e n ) = 1 (en particulier f 1 est non nulle).

NE
Preuve : On note c i la forme linéaire qui à tout vecteur x de E associe sa coordonnée sur e i .
On note alors f (x 1 , . . . , x n ) = c 1 (x 1 )c 2 (x 2 ) · · · c n (x n ), on vérifie que f ainsi définie, est n-linéaire de En vers K. On
ε(σ) f (x σ(1) , . . . , x σ(n) ), on sait que g est n-linéaire (combinaison linéaire de formes n-linéaires),
P
pose g (x 1 , . . . , x n ) =
σ∈Sn
soit τ une transposition de En , alors : g (x τ(1) , . . . , x τ(n) ) = ε(σ) f (x τ(σ(1)) , . . . , x τ(σ(n)) ), on effectue un changement
P
σ∈Sn
d’indice en posant σ0 = τ ◦ σ (σ0 parcourt Sn une et seule fois lorsque σ parcourt Sn ), on a ε(σ0 ) = −ε(σ), d’où :
ε(σ0 ) f (x σ0 (1) , . . . , x σ0 (n) ) = −g (x 1 , . . . , x n ), donc g est alternée.
P
g (x τ(1) , . . . , x τ(n) ) = −
σ0 ∈Sn
n
P
En revenant à la définition de f , et en posant x j = a i j e i , on a :
i =1

ε(σ)a 1σ(1) × · · · × a nσ(n) = f 1 (x 1 , . . . , x n )


X
g (x 1 , . . . , x n ) =
σ∈Sn

AIG
Lorsqu’on calcule f 1 (e 1 , . . . , e n ), tous les a i j sont nuls sauf ceux de la diagonale qui valent 1, il reste seulement le terme
correspondant à l’identité de En , ce qui donne f 1 (e 1 , . . . , e n ) = a 11 × · · · × a nn = 1. 

Théorème 24.8
Si dim(E) = n, alors l’ensemble des formes n-linéaires alternées sur E est un K-espace vectoriel de
dimension 1 (droite vectorielle), dont une base est l’application f 1 ci-dessus.

Preuve : D’après le début de ce paragraphe, toute forme f , n-linéaire alternée sur E, est du type f = α f 1 avec α ∈ K. 

2) Déterminants de n vecteurs dans une base

Définition 24.7
L’application f 1 définie ci-dessus est appelée déterminant dans la base B, elle est notée detB .
NT
C’est donc une forme n-linéaire alternée sur E, qui constitue une base de l’ensemble des formes
n-linéaires alternées sur E, plus précisément, c’est l’unique forme n-linéaire alternée sur E qui vérifie :
detB (e 1 , . . . , e n ) = 1.

Expression du déterminant : Soit B = (e 1 , . . . , e n ) une base de E et soit (x 1 , . . . , x n ) une famille de n vecteurs


de E, et soit A = (a i , j ) ∈ Mn (K) la matrice de cette famille dans la base B, on a l’expression suivante :

ε(σ)a 1,σ(1) . . . a n,σ(n)


X
det(x 1 , . . . , x n ) =
B σ∈Sn

ZExemples :
– Soit E = K2 , B = (i , j ), la base canonique, soient u = (u 1 , u 2 ), v = (v 1 , v 2 ) ∈ E, alors detB (u, v) =
MO

a 1,1 a 2,2 − a 1,2 a 2,1 = u 1 v 2 − u 2 v 1 .


– Soit E = K3 , B = (i , j , k), la base canonique, soient u = (u 1 , u 2 , u 3 ), v = (v 1 , v 2 , v 3 ) et w = (w 1 , w 2 , w 3 ) ∈
E, alors detB (u, v, w) = u 1 v 2 w 3 − u 2 v 1 w 3 − u 3 v 2 w 1 − u 1 v 3 w 2 + u 3 v 1 w 2 + u 2 v 3 w 1 .
– Si dim(E) = n, B = (e 1 , . . . , e n ) une base de E, (x 1 , . . . , x n ) une famille de E telle que la matrice A du
système dans la base B soit triangulaire supérieure, alors : detB (x 1 , . . . , x n ) = a 1,1 . . . a n,n , produit des
coefficients diagonaux de la matrice.
En effet : pour que a 1,σ(1) . . . a n,σ(n) ait une chance d’être non nul, il faut que 1 6 σ(1), . . . , n 6 σ(n), ce
qui ne donne qu’une seule possibilité : σ = id.

3) Propriétés du déterminant
Soit E un K-espace vectoriel de dimension n et B = (e 1 ; . . . , e n ) une base de E.
– L’application detB est une forme n-linéaire alternée , donc :
• elle est linéaire par rapport à chaque variable, par exemple :
detB (αx 1 + βx 10 , x 2 , . . . , x n ) = α detB (x 1 , x 2 , . . . , x n ) + β detB (x 10 , x 2 , . . . , x n ).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 236 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Déterminant d’un endomorphisme Chapitre 24 : Déterminants

• si on échange deux vecteurs dans le déterminant, alors le résultat change de signe. Par exemple :
detB (x 2 , x 1 , x 3 , . . . , x n ) = − detB (x 1 , x 2 , x 3 , . . . , x n ). Plus généralement :

∀ σ ∈ Sn , det(x σ(1) , . . . , x σ(n) ) = ε(σ) det(x 1 , . . . , x n ).


B B

NE
• Si deux des vecteurs de la famille (x 1 , . . . , x n ) sont égaux, alors detB (x 1 , . . . , x n ) = 0. On en déduit
si l’un des vecteurs de la famille est combinaison linéaire des autres (i.e. la famille est liée), alors
le déterminant est nul, on en déduit également qu’ajouter à l’un des vecteurs une combinaison
linéaire des autres, ne change pas le déterminant, par conséquent on peut calculer un déterminant
avec la méthode de Gauss (pour obtenir un système de vecteurs dont la matrice dans la base B est
triangulaire supérieure).
– det(e 1 , . . . , e n ) = 1 , ce que l’on note detB (B) = 1, c’est l’unique forme n-linéaire alternée sur E qui
B
vérifie cette égalité.
– Si B0 est une autre base de E, alors det = det(B). det . On en déduit que detB0 (B) detB (B0 ) = 1.
B0 B0 B
Preuve : L’ensemble des forme n-linéaires alternées est une droite vectorielle engendrée par detB , donc il existe
un scalaire α tel que detB0 = α. detB , pour obtenir α, il suffit d’appliquer cette égalité sur les vecteurs de B. 

AIG
– La famille (x 1 , . . . , x n ) est une base de E ssi detB (x 1 , . . . , x n ) 6= 0 .
Preuve : Soit B0 = (x 1 , . . . , x n ), si B0 est une base de E, alors l’ensemble des formes n-linéaires alternées sur
E est une droite engendrée par detB0 et detB = detB (B0 ). detB0 , or detB n’est pas l’application nulle, donc
detB (B0 ) 6= 0.
Réciproquement, si detB (B0 ) 6= 0 : alors la famille B0 est libre, car si elle était liée, l’un de ses vecteurs serait
combinaison linéaire des autres et donc le déterminant dans la base B serait nul, ce qui est absurde. Donc B0
est une famille libre de n vecteurs en dimension n, c’est donc une base de E. 

IV DÉTERMINANT D’UN ENDOMORPHISME

1) Définition
Soit E un K-espace vectoriel, soient B = (e 1 , . . . , e n ) et B0 = (e 10 , . . . , e n0 ) deux bases de E, et soit u ∈ L (E),
on note f la forme n-linéaire alternée définie par :
NT
f (x 1 , . . . , x n ) = det(u(x 1 ), . . . , u(x n ))
B

On sait qu’il existe un scalaire α tel que f = α detB0 , avec α = f (e 10 , . . . , e n0 ), or detB = detB (B0 ) detB0 , d’où
α = detB (B0 ) detB0 (u(e 10 ), . . . , u(e n0 )), En calculant f (e 1 , . . . , e n ), on obtient :

det(u(e 1 ), . . . , u(e n )) = α det(B) = det(u(e 10 ), . . . , u(e n0 ))


B B0 B0

car detB0 (B) detB (B0 ) = 1.

Définition 24.8
MO

Soit E un K-espace vectoriel et soit B = (e 1 , . . . , e n ) une base de E, soit u ∈ L (E), on appelle dé-
terminant de u le scalaire, noté det(u) et défini par : det(u) = detB (u(e 1 ), . . . , u(e n )). Ce scalaire est
indépendant de la base B choisie.

ZExemple : Soit u ∈ L (R2 ) défini par u(x, y) = (x + y; 2x − y), notons B = (i , j ) la base canonique de R2 , alors
det(u) = detB (i + 2 j , i − j ) = detB (3i , i − j ) = detB (3i , − j ) = −3 detB (i , j ) = −3.
Expression du déterminant : Soit u ∈ L (E) et soit B = (e 1 , . . . , e n ) une base de E, la matrice du système
(u(e 1 ), . . . , u(e n )) est en fait la matrice de u dans la base B, posons A = (a i , j ) = mat(u), alors on peut écrire :
B

ε(σ)a 1σ(1) · · · a nσ(n)


X
det(u) =
σ∈Sn

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 237 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Déterminant d’une matrice carrée Chapitre 24 : Déterminants

2) Propriétés du déterminant
– Soit u ∈ L (E), soit B une base de E, alors :

∀ x 1 , . . . , x n ∈ E, det(u(x 1 ), . . . , u(x n )) = det(u) det(x 1 , . . . , x n )


B B

NE
Preuve : L’application f définie par f (x 1 , . . . , x n ) = detB (u(x 1 ), . . . , u(x n )) est n-linéaire alternée, donc il existe
un scalaire α tel que f = α detB , ce scalaire vaut α = f (e 1 , . . . , e n ) (en posant B = (e 1 , . . . , e n )), donc α = det(u)
d’après la définition. 
– Soient u, v ∈ L (E), on a det(u ◦ v) = det(v ◦ u) = det(u) det(v) .
Preuve : Soit B = (e 1 , . . . , e n ) une base de E, alors :

det(u ◦ v) = det(u(v(e 1 )), . . . , u(v(e n ))) = det(u) det(v(e 1 ), . . . , v(e n )) = det(u) det(v),
B B

de même, on obtient det(v ◦ u) = det(v) det(u), ce qui donne l’égalité. 


– Soit u ∈ L (E) et soit B une base de E, alors u ∈ GL(E) ssi det(u) 6= 0 , et si c’est le cas, alors det(u −1
)=
1
det(u) .
Preuve : Si u ∈ GL(E), alors det(u) det(u −1 ) = det(u ◦ u −1 ) = det(idE ) = 1, donc det(u) 6= 0, et on a la formule.

AIG
Réciproquement, si det(u) 6= 0, alors la famille (u(e 1 ), . . . , u(e n )) est libre, donc u est bien un automorphisme de
E. 

V DÉTERMINANT D’UNE MATRICE CARRÉE

1) Définition

Définition 24.9
Soit A = (a i , j ) ∈ Mn (K), et soit u l’endomorphisme de Kn canoniquement associé à A, on appelle
déterminant de A le déterminant de u et on pose :

det(A) = det(u) = det(C1 (A), . . . , Cn (A)),


B
NT
où B désigne la base canonique de Kn .

Expression du déterminant : A est la matrice de u dans la base canonique de Kn , donc d’après le paragraphe
précédent, on a :
ε(σ)a 1,σ(1) · · · a n,σ(n)
X
det(A) =
σ∈Sn
¯ ¯
¯ a 1,1 ··· a 1,n ¯¯
¯ . .. ¯
¯
Notation : on écrit : det(A) = ¯ .. . ¯¯
¯
¯a ··· a n,n ¯
n,1
ZExemples : ¯ ¯
¯a b ¯¯
– Cas d’une matrice carrée de taille 2 : ¯¯ = ad − bc.
MO

c d¯
n
Q
– Cas d’une matrice triangulaire : si A est triangulaire, alors det(A) = a i ,i (produit des éléments
i =1
diagonaux).

2) Propriétés du déterminant d’une matrice carrée


– Une matrice carrée A et sa transposée, ont le même déterminant. On en déduit que si B est la base
canonique de Kn , alors det(A) = detB (C1 (A), . . . , Cn (A)) = detB (L1 (A), . . . , Ln (A)).
ε(σ)a 1,σ(1) · · · a n,σ(n) = ε(σ)a σ(1),1 · · · a σ(n),n = det(t A).
P P
Preuve : En effet, on a det(A) = 
σ∈Sn σ∈Sn
– Soit u ∈ L (E), et soit B une base quelconque de E, si mat(u) = A ∈ Mn (K), alors det(u) = det(A). On en
B
déduit en particulier que si P ∈ GLn (K), alors det(P −1 × A × P) = det(A).
– Si A, B ∈ Mn (K), alors det(A × B) = det(A) det(B), en particulier, on a det(A × B) = det(B × A).
– Une matrice carrée est inversible ssi son déterminant est non nul, si c’est le cas, alors det(A−1 ) =
det(A)−1 .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 238 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Déterminant d’une matrice carrée Chapitre 24 : Déterminants

– Utilisation de la méthode de Gauss : on utilise celle-ci pour se ramener au calcul du déterminant d’une
matrice triangulaire, plus précisément :
• L’opération Li ↔ L j , change le signe du déterminant (idem avec les colonnes).
• L’opération Li ← αLi (α 6= 0), multiplie le déterminant par α (idem avec les colonnes).
• L’opération Li ← Li + αL j , ne change pas le déterminant (idem avec les colonnes).

NE
1 1 1
 

ZExemple : Avec A = −1 2 0.


2 3 1

¯ ¯ ¯ ¯ ¯ ¯
¯1 1 1 ¯ ¯1 1 1 ¯ ¯1 1 1 ¯
C1 ↔C3 ¯ ¯ L3 ←L3 −L1 ¯¯ ¯ L3 ←L3 −L2 ¯¯ ¯
det(A) = − ¯¯0 2 −1¯¯ = − ¯0 2 −1¯¯ = − ¯0 2 −1¯¯ = −4.
¯1 3 2 ¯ ¯0 2 1 ¯ ¯0 0 2 ¯

FExercice 24.2 Soit A ∈ Mn (K) et λ ∈ K, montrer que det(λA) = λn det(A).

3) Développement suivant une ligne ou une colonne

AIG
Soit A = (a i , j ) ∈ Mn (K), soit B = (e 1 , . . . , e n ) la base canonique de Kn , notons C1 , . . . , Cn les vecteurs
n
P
colonnes de A, pour j ∈ J1 ; n K, on a C j = a i , j e i , par linéarité par rapport à la j -ième variable, on peut
i =1
écrire :
n
X
det(A) = a i , j det(C1 , . . . , C j −1 , e i , C j +1 , . . . , Cn ).
i =1 B
n
En posant γi , j (A) = detB (C1 , . . . , C j −1 , e i , C j +1 , . . . , Cn ), on a alors det(A) = a i , j γi , j (A), c’est le développe-
P
i =1
ment de det(A) suivant la colonne j .

Définition 24.10
Le scalaire γi , j (A) est appelé cofacteur (i j ) de la matrice A, c’est le déterminant de la matrice A dans
laquelle la colonne j a été remplacée par le i -ième vecteur de la base canonique de Kn .
NT
Calcul de γi , j (A) :
¯ ¯
¯ a 1,1 · · · a 1, j −1 0 a 1, j +1 · · · a 1,n ¯
¯ .. .. .. .. .. ¯
¯ ¯
¯ . . . . . ¯
¯ ¯
¯a
¯ i −1,1 · · · a i −1, j −1 0 a i −1, j +1 · · · a i −1,n ¯
¯
On a γi , j (A) = ¯ a i ,1 · · · a i , j −1 1 a i , j +1 · · · a i ,n ¯, on échange les colonnes C j +1 et C j , puis
¯ ¯
¯ ¯
¯a i +1,1 · · · a i +1, j −1 0 a i +1, j +1 · · · a i +1,n ¯
¯ .. .. .. .. .. ¯
¯ ¯
¯ . . . . . ¯
¯ ¯
¯ a · · · a n, j −1 0 a n, j +1 · · · a n,n ¯
n,1
C j +1 et C j +2 , . . . etc, pour amener la colonne j en dernière position, sans changer l’ordre sur les autres
MO

colonnes, le déterminant est multiplié par (−1)n− j . De le même façon, on amène la ligne i en dernière
position sans changer l’ordre des autres lignes, le déterminant est multiplié par (−1)n−i . On obtient alors :
¯ ¯
¯ a 1,1 ··· a 1, j −1 a 1, j +1 ··· a 1,n 0¯¯
¯ .. .. .. .. .. ¯
¯
¯ . . . . . ¯¯
¯
¯a ··· a i −1, j −1 a i −1, j +1 ··· a i −1,n 0¯¯
¯ i −1,1
i+j ¯
γi , j (A) = (−1) ¯a i +1,1 ··· a i +1, j −1 a i +1, j +1 ··· a i +1,n 0¯ ,
¯
¯ .. .. .. .. .. ¯
¯ ¯
¯ . . . . .¯
¯ ¯
¯ a n,1 ··· a n, j −1 a n, j +1 ··· a n,n 0¯¯
¯
¯ a ··· a i , j −1 a i , j +1 ··· a i ,n 1¯
i ,1

notons b i , j les coefficients de la matrice à l’intérieur de ce déterminant, on a

γi , j (A) = (−1)i + j ε(σ)b σ(1),1 · · · b σ(n),n ,


X
σ∈Sn

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 239 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Déterminant d’une matrice carrée Chapitre 24 : Déterminants

on remarque que lorsque σ(n) 6= n, alors b σ(n),n = 0, on peut donc ne retenir que les permutations ayant n
comme point fixe, c’est à dire en fait les éléments de Sn−1 , et comme b n,n = 1, on a alors :

γi , j (A) = (−1)i + j ε(σ)b σ(1),1 · · · b σ(n−1),n−1 .


X
σ∈Sn−1

NE
C’est le déterminant de la matrice extraite de A par suppression de la ligne i et de la colonne j , multi-
plié par (−1)i + j .

Définition 24.11
Soit A ∈ Mn (K), on appelle mineur (i j ) de la matrice A, le déterminant ∆i , j (A) de la matrice Ai , j
obtenue par suppression de ligne i et de la colonne j de A. Le lien entre cofacteur et mineur est :
γi , j (A) = (−1)i + j ∆i , j (A).

Le développement de det(A) suivant la colonne j s’écrit donc :

n
a i , j (−1)i + j ∆i , j (A).
X
det(A) =

AIG
i =1

∆i , j (A) est un déterminant d’ordre n − 1, c’est donc une formule récurrente.

ZExemple : En développant suivant la deuxième colonne :


¯ ¯
¯ 1 2 1¯ ¯ ¯ ¯ ¯
¯−1 0 2¯ = −2 ¯−1 2¯ − 3 ¯ 1 1¯ = (−2)(−3) − 9 = −3.
¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ ¯ 1 1¯ ¯−1 2¯
¯ 1 3 1¯

Développement suivant la ligne j : comme une matrice A ∈ Mn (K) a le même déterminant que sa trans-
posée, développer det(A) suivant la ligne j revient à développer det(t A) suivant la colonne j , ce qui donne
n
det(A) = (t A)i , j (−1)i + j ∆i , j (t A), mais ∆i , j (t A) = ∆ j ,i (A), ce qui donne finalement :
P
i =1
n
a j ,i (−1)i + j ∆ j ,i (A)
X
det(A) =
NT
i =1

Un exemple classique : le déterminant de Vandermonde 1

1 α0 · · · αn0
 
 .. .. .. 
Soit A =  . . . , où α0 , . . . , αn ∈ K, soit Vn = det(A), alors on a le résultat suivant :
1 αn · · · αnn
(α j − αi )
Y
Vn =
06i < j 6n

Preuve : Si deux des scalaires sont égaux, le résultat est évident. Supposons les αi distincts deux à deux. On peut
vérifier que pour n = 2 le résultat est vrai. Supposons le vrai au rang n, et remplaçons dans Vn+1 la dernière ligne par
(1 X X 2 . . . X n+1 ), le déterminant obtenu en développant suivant la dernière ligne, est un polynôme P(X) de degré au plus
MO

n
n +1, dont les racines sont α0 , . . . , αn , de plus son coefficient dominant est Vn , par conséquent on a P(X) = Vn (X −αi ),
Q
i =0
n
(αn+1 − αi ) = (α j − αi ).
Q Q
d’où Vn+1 = Vn 
i =0 06i < j 6n+1

4) Comatrice

Définition 24.12
Soit A ∈ Mn (K), on appelle comatrice de A la matrice de Mn (K) dont les coefficients sont les cofacteurs
γi , j (A). Notation : Com(A) = (γi , j (A))16i , j 6n .

µ ¶ µ ¶
a b d −c
ZExemple : Si A = , alors Com(A) = .
c d −b a

1. VANDERMONDE Alexandre (1735 – 1796) : mathématicien français qui fut le premier à étudier les déterminants.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 240 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications Chapitre 24 : Déterminants

Théorème 24.9 (relation fondamentale)


∀ A ∈ Mn (K), A × t Com(A) = t Com(A) × A = det(A)In
n
Preuve : Soit B = A × t Com(A), alors b i , j = a i ,k (−1) j +k ∆ j k (A), qui est le déterminant de la matrice obtenue en
P

NE
k=1
remplaçant dans A, la ligne j par la ligne i , d’où b i , j = det(A)δi , j .
n
Posons C = t Com(A) × A, alors c i , j = a k, j (−1)i +k ∆k,i (A), qui est le déterminant de la matrice obtenue en rempla-
P
k=1
çant dans A, la colonne i par la colonne j , on a donc c i , j = det(A)δi , j . 
Application – Si A ∈ Mn (K) est inversible, alors :
1 t
A−1 = Com(A)
det(A)

VI APPLICATIONS

1) Géométrie

AIG
Soit E un espace de dimension n, muni d’un repère R = (O, B) avec B = (e 1 , . . . , e n ), soit H un hyperplan
passant par A(a 1 , . . . , a n ) et de direction un hyperplan vectoriel de base (u 1 , . . . , u n−1 ). On a alors :

−−→
M(x 1 , . . . , x n ) ∈ H ⇐⇒ AM ∈ H
−−→
⇐⇒ (u 1 , . . . , u n−1 , AM ) est liée
−−→
⇐⇒ det B(u 1 , . . . , u n−1 , AM ) = 0
¯ ¯
¯ a 11 · · · a 1n−1 x 1 − a 1 ¯
¯ . .. ..
¯ ¯
⇐⇒ ¯ .. ¯=0
¯
¯ . . ¯
¯a
n1 · · · a nn−1 x n − a n
¯

⇐⇒ (−1)n+1 ∆1n (x 1 − a n ) + · · · + (−1)n+n ∆nn (x n − a n ) = 0 (développement suivant la colonne n)


⇐⇒ α1 (x 1 − a 1 ) + · · · + αn (x n − a n ) = 0
NT
⇐⇒ α1 x 1 + · · · + αn x n = d

on obtient ainsi une équation cartésienne de l’hyperplan affine H , on remarquera qu’une équation carté-
sienne de la direction H est α1 x 1 + · · · + αn x n = 0.

2) Systèmes linéaires

 a 11 x 1 + . . . + a 1p x p = b 1

..
C’est un système de la forme (S) : . , où les scalaires x 1 , . . . , x p sont les


a n1 x 1 + . . . + a np x p = b n
MO

inconnues.
Le système (S) peut s’interpréter de plusieurs façons :
– Interprétation géométrique : chaque équation de (S) peut être vue comme l’équation d’un hyperplan
de Kp (lorsque les coefficients ne sont pas tous nuls). Les solutions de (S) sont les coordonnées des
points de l’intersection de n hyperplans.
x1 b1 a 11 · · · a 1n
     
 .   .   . .. 
– Sous forme matricielle : (S) ⇐⇒ AX = B où X =  .. , B =  .. , et A =  .. . , A est la
xp bn a n1 · · · a np
matrice du système. Le rang de la matrice A est appelé le rang du système S, il peut être vu comme le
nombre maximal d’équations indépendantes du système.
– Sous forme linéaire : soit u ∈ L (Kp , Kn ) l’application linéaire canoniquement associée à A, soit x ∈ Kp
le vecteur de coordonnées (x 1 , . . . , x p ) dans la base canonique, et soit b le vecteur de Kn de coordonnées
(b 1 , . . . , b n ), on a alors (S) ⇐⇒ u(x) = b.
– Sous forme vectorielle : soient v 1 , . . . , v p les vecteurs colonnes de A, on a (S) ⇐⇒ x 1 v 1 + . . . + x p v p = b,
c’est une équation vectorielle dans Kn .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 241 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Applications Chapitre 24 : Déterminants

Rappel : structure de l’ensemble des solutions de l’équation linéaire u(x) = b :


Il y a des solutions si et seulement si b ∈ Im(u), si c’est le cas, et si x 0 ∈ Kp désigne une solution particulière,
alors l’ensemble des solutions est x 0 + ker(u), où ker(u) est l’ensemble des solutions de l’équation homogène,
qui est un s.e.v de Kp de dimension p − rg(u). L’ensemble des solutions est donc un sous-espace affine de
direction ker(u).

NE
Définition 24.13 (Systèmes de C RAMER)
C’est un système linéaire carré possédant une unique solution, ce qui revient à dire que la matrice
du système est carrée inversible.

Formules de Cramer 2 : on a ici n = p, notons C1 , . . . , Cn les colonnes de A ,on a B = x 1 C1 + . . . + x n Cn , soit Di


la matrice obtenue en remplaçant dans A la colonne i par la colonne B, on a :
n
X
det(Di ) = x k det(C1 , . . . , Ci −1 , Ck , Ci +1 , . . . , Cn )
k=1

ce qui donne det(Di ) = x i det(A), d’où les formules :

AIG
det(C1 , . . . , Ci −1 , B, Ci +1 , . . . , Cn )
∀ i ∈ J1 ; n K, x i =
det(A)
(
ax + b y =u
ZExemple : Si ad − bc 6= 0, alors le système (S) : , possède une unique solution :
cx + d y =v
(
ud −vb
x = ad −bc
av−cu
y = ad −bc

3) Orientation d’un espace vectoriel réel


Soient B et B0 deux bases d’un R-espace vectoriel de dimension finie, E, soit P la matrice de passage,
alors P est une matrice inversible, donc det(P) 6= 0, on a alors soit det(P) > 0, soit det(P) < 0.
NT
Définition 24.14
On dit que la base B est en relation avec la base B0 lorsque la matrice de passage a un déterminant
strictement positif, on note alors BR B0 .

ZExemple : Une base B = (e 1 , . . . , e n ) est en relation avec elle-même, mais pas avec B0 = (−e 1 , e 2 , . . . , e n ).

Théorème 24.10
La relation R est une relation d’équivalence, et il n’y a que deux classes d’équivalence.

−1
Preuve : La réflexivité est évidente. La symétrie découle de la formule PB,B0 = PB 0 ,B . La transitivité découle de la
formule : PB,B00 = PB,B0 × PB0 ,B00 .
MO

D’après l’exemple ci-dessus, il y a au moins deux classes d’équivalence, soit B00 une troisième base, supposons que
B ne soit pas en relation avec B00 , alors PB0 ,B00 = PB0 ,B × PB,B00 , d’où det(PB0 ,B00 ) = det(PB0 ,B ) × det(PB,B00 ) > 0, car
ces deux déterminants sont négatifs, par conséquent B00 R B0 , et donc la classe de B00 et égale à celle de B0 . 

Définition 24.15
Orienter l’espace vectoriel E c’est choisir une des deux classes d’équivalence, que l’on appelle classe
des bases directes, l’autre étant alors appelée classe des bases indirectes. Il n’y a donc que deux
orientations possibles.

Remarque 24.1 – À retenir : le déterminant de la matrice de passage entre deux bases directes (ou deux bases
indirectes) est strictement positif. Le déterminant de la matrice de passage entre une base directe et une base
indirecte est strictement négatif.

2. CRAMER Gabriel (1704 – 1752) : mathématicien français qui s’est intéressé aux systèmes linéaires et à la théorie des détermi-
nants.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 242 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 24 : Déterminants

Définition 24.16 (orientation induite sur un hyperplan)


Soit H un hyperplan de E (R-espace vectoriel orienté), et soit e n un vecteur de E n’appartenant pas à
H, soit B = (e 1 , . . . , e n−1 ) une base de H, la famille (e 1 , . . . , e n ) est une base de E, si cette base est directe,
on dira que (e 1 , . . . , e n−1 ) est une base directe de H pour l’orientation induite sur H par le vecteur e n .

NE

e→
3


e→
2


e→
1

AIG
+

F IGURE 24.1: Exemple en dimension 3 : (e 1 , e 2 ) est une base directe de H pour l’orientation induite par e 3 ,
l’espace étant « orienté avec la règle du tire-bouchon ».

VII SOLUTION DES EXERCICES

Solution 24.1 Par linéarité sur chaque vecteur colonne, on peut sortir le coefficient λ de chaque colonne.
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 243 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 25

Probabilités sur un univers fini

Sommaire
I Univers finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244

AIG
1) Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
2) Évènements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
II Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
1) Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
3) Probabilité des événements élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
III Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
2) Probabilités composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
3) Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
4) Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
IV Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
1) Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
2) Indépendance d’une famille d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . 250
NT
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250

Le calcul des probabilités est la branche des mathématiques qui modélise les phénomènes aléatoires 1 .

I UNIVERS FINIS

1) Expérience aléatoire

Définition 25.1
Une expérience est dite aléatoire lorsque l’issue ne peut pas être prédite avec certitude (on parle aussi
d’épreuve aléatoire). On considère qu’à une expérience aléatoire correspond un ensemble contenant
tous les résultats possibles, cet ensemble est appelé univers et noté Ω.
MO

Remarque 25.1 – On ne donne pas de définition mathématique du terme expérience. Par contre, l’univers Ω
associé à une expérience aléatoire, est un ensemble au sens mathématique du terme, sa détermination résulte
d’une modélisation de l’expérience (avec éventuellement des choix simplificateurs).
ZExemples :
– Expérience : on lance un dé, on note le numéro de la face supérieure.
Univers : Ω = J1 ; 6K.
– Expérience : on lance trois dés distincts, on note les trois numéros de la face supérieure.
Univers : Ω = J1 ; 6K3 , ensemble des triplets de nombres entre 1 et 6.
– Expérience : on prélève trois cartes d’un jeu de 32.
Univers : Ω est l’ensemble des parties à 3 éléments de l’ensemble des 32 cartes.
1. Andreï Kolmogorov (25 avril 1903 – 20 octobre 1987) : mathématicien russe, fondateur de la théorie des probabilités dans les
années 30.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 244 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Espaces probabilisés Chapitre 25 : Probabilités sur un univers fini

– Expérience : on lance une pièce n fois.


Univers : Ω = {P, F}n avec P pour pile et F pour face.
Conformément au programme on se limitera au cas où Ω est un ensemble non vide et fini.

NE
2) Évènements

Définition 25.2
On considère une expérience dont l’univers est Ω (fini).
• Les éléments de Ω sont appelés les possibles (ou éventualités), en général notés avec une lettre
minuscule : Ω = {ω1 , . . . , ωn }.
• On appelle événement toute partie de Ω. Un singleton est appelé événement élémentaire. L’en-
semble des événements est donc P (Ω).
• L’ensemble vide est appelé événement impossible et Ω et appelé événement certain.
• Si A est un événement, on appelle événement contraire l’événement A (parfois noté Ac , c’est le
complémentaire de A dans Ω).
• On dit que l’événement A implique (ou entraîne) l’événement B lorsque A ⊂ B.

AIG
ZExemple : Expérience : lancer un dé. Univers Ω = J1 ; 6K. Les événements élémentaires sont {1}, {2}, {3}, {4},
{5}, {6}. L’événement « obtenir un chiffre pair » est représenté par A = {2, 4, 6}, l’événement « obtenir un chiffre
impair » est l’événement contraire, représenté par Ac = {1, 3, 5}. L’événement « obtenir le chiffre 1 » implique
l’événement « obtenir un chiffre impair ».

Définition 25.3 (Opérations sur les événements)


On considère une expérience dont l’univers est Ω (fini). Soient A et B deux événements.
• L’événement « A ou B » est représenté par la réunion A ∪ B.
• L’événement « A et B » est représenté par l’intersection A ∩ B (conjonction des événements).
• On dira que ces deux événement sont incompatibles (ou disjoints) lorsque A ∩ B = ∅.

ZExemple : Tout événement est incompatible avec l’événement contraire.


NT
Définition 25.4 (Système complet d’événements)
On considère une expérience dont l’univers est Ω (fini). Soit (Ai )i ∈J1;n K une famille d’événements, on
dit que cette famille est un système complet d’événements lorsque :
• les événements sont deux à deux incompatibles : ∀(i , j ) ∈ J1 ; n K2 , i 6= j =⇒ Ai ∩ A j = ∅.
n
Ai = Ω.
S
• la réunion des ces événements est l’événement certain :
i =1

Remarque 25.2 – On retrouve une partie de la définition de partition, la différence est qu’on ne demande pas
à ce que les événements Ai soient non vides.
MO

ZExemples :
– Si A est un événement alors A; Ac est un système complet d’événements.
© ª

– La famille des événements élémentaires, ({ω})ω∈Ω , est un système complet d’événements.

II ESPACES PROBABILISÉS

Une fois l’expérience clairement définie et son univers déterminé, on cherche à définir le pourcentage de
chance de réalisation des événements. L’approche statistique consiste à répéter n fois l’expérience et calculer
la fréquence de réalisation de chaque événement A : f n (A) = nombre de réalisations
n
de A
. La fréquence apparaît
alors comme une application de P (Ω) vers [0; 1] qui vérifie f n (Ω) = 1 et f n (A ∪ B) = f n (A) + f n (B) lorsque A et
B sont incompatibles (il en découle qu’il suffit de connaître la fréquence de chaque événement élémentaire).
C’est cette approche qui est à l’origine de la définition suivante.

1) Probabilité

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 245 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Espaces probabilisés Chapitre 25 : Probabilités sur un univers fini

Définition 25.5
Soit Ω un univers fini. On appelle probabilité sur Ω toute application P de P (Ω) vers [0; 1] vérifiant :
• P(Ω) = 1 ;
• P est additive, c’est à dire :

NE
∀ A, B ∈ P (Ω), si A et B sont incompatibles, alors P(A ∪ B) = P(A) + P(B).
Le couple (Ω, P) est appelé espace probabilisé.

ZExemples :
card(A)
– Si Ω est fini, alors en posant pour tout événement A, P(A) = card(Ω)(, on définit une probabilité sur Ω.
1 si ω1 ∈ A
– Si Ω = {ω1 , . . . , ωn }, alors en posant pour tout événement A, P(A) = , on définit une proba-
0 sinon
bilité sur Ω.

Attention !
Il n’y a pas unicité de la probabilité sur un univers fini, le choix de celle-ci fait partie de la modélisation de

AIG
l’expérience et résulte souvent d’une hypothèse (par exemple : toutes les issues sont équiprobables).

2) Propriétés

Théorème 25.1
Soit (Ω, P) un espace probabilisé, et soient A et B deux événements :
• P(∅) = 0 ;
• P(Ac ) = 1 − P(A) ;
• si A ⊂ B alors P(A) 6 P(B) (on dit que P est croissante) et P(B \ A) = P(B) − P(A) ;
• P(A ∪ B) = P(A) + P(B) − P(A ∩ B) ;
• pour toute famille (Ai )i ∈J1;n K d’événements incompatibles deux à deux :
n
P(A1 ∪ · · · ∪ An ) = P(Ai ).
P
i =1
NT
Preuve :
• On a 1 = P(Ω) = P(Ω ∪ ∅) = P(Ω) + P(∅) = 1 + P(∅), d’où le résultat.
• On a 1 = P(Ω) = P(A ∪ Ac ) = P(A) + P(Ac ), d’où le résultat.
• On a P(B) = P(A ∪ B \ A) = P(A) + P(B \ A) > P(A) car une probabilité est positive. Les deux résultats en découlent.
• On a P(B) = P([A ∩ B] ∪ B \ A) = P(A ∩ B) + P(B \ A), d’où P(B \ A) = P(B) − P(A ∩ B), puis on a P(A ∪ B) = P(A) + P(B \ A),
le résultat en découle.
• récurrence sur n. 

FExercice 25.1 (Inégalité de Boole)


n
Montrer que toute famille d’événements A1 , . . . , An on a P(A1 ∪ · · · ∪ An ) 6 P(Ai ).
P
i =1

Théorème 25.2
MO

Soit (Ai )1∈J1;n K un système complet d’événements, on a :


n
P(Ai ) = 1 ;
P

i =1
n
• Pour tout événement B : P(B) = P(B ∩ Ai ).
P
i =1

Preuve : Les événements de la famille sont incompatibles deux à deux et leur réunion donne Ω, donc 1 = P(Ω) =
n
P(A1 ∪ · · · ∪ An ) = P(Ai ).
P
i =1
B = B ∩ Ω = B ∩ (A1 ∪ · · · ∪ An ) = (B ∩ A1 ) ∪ · · · ∪ (B ∩ An ) et ces événements sont incompatibles deux à deux, d’où
n
P(B) = P(B ∩ Ai ).
P

i =1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 246 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Probabilités conditionnelles Chapitre 25 : Probabilités sur un univers fini
3) Probabilité des événements élémentaires
Une probabilité P sur un univers fini Ω est entièrement déterminée par la connaissance des probabilités
des événements élémentaires.

Théorème 25.3

NE
Soit Ω = {ω1 , . . . , ωn } un univers fini.
n
• Soit P une probabilité sur Ω et soit p i = P({ωi }), on a alors : ∀i ∈ J1 ; n K, p i > 0, et
P
p i = 1.
i =1
• Réciproquement, si (p i )i ∈J1;n K est une famille de réels positifs et de somme égale à 1, alors il existe une
probabilité P sur Ω telle que ∀i ∈ J1 ; n K, P({ωi }) = p i . Pour tout événement A, on a alors P(A) =
P
pi .
ωi ∈A

Preuve : Celle-ci est simple et laissée en exercice. 

FExercice 25.2 On lance un dé truqué à 6 faces, la probabilité d’obtenir la face k est proportionnelle à k. Quelle est la
probabilité d’obtenir un chiffre pair ?

AIG
Théorème 25.4
Sur tout univers fini Ω, il existe une unique probabilité P qui prend la même valeur sur chaque
événement élémentaire (on parle d’événements équiprobables). Elle est définie par ∀ω ∈ Ω, P({ω}) =
1 card(A)
card(Ω) , on l’appelle probabilité uniforme sur Ω, et pour tout événement A on a P(A) = card(Ω) .

1
card(Ω) = 1. On a alors P(A) = P({ω}) =
P P
Preuve : Il suffit de vérifier que la valeur commune est un réel positif, et que
ω∈Ω ω∈A
P 1 card(A)
card(Ω) = card(Ω) . 
ω∈A
card(A)
Remarque 25.3 – La formule P(A) = card(Ω) s’énonce parfois « nombre de cas favorables sur nombre de cas
possibles », dans ce cadre, calculer des probabilités se ramène à des calculs de dénombrement.

FExercice 25.3
1/ On lance six fois un dé non truqué. Quelle est la probabilité d’obtenir une fois chaque numéro ?
NT
2/ On prélève cinq cartes au hasard dans un jeu de 52. Quelle est la probabilité d’avoir au moins une paire ?
3/ On distribue 52 cartes à 4 joueurs (13 par joueur). Quelle est la probabilité que chacun reçoive un as ?

III PROBABILITÉS CONDITIONNELLES

Soit (Ω, P) un univers fini muni de la probabilité uniforme (par exemple), soit A un événement dont on
sait qu’il est réalisé, un événement B est réalisé si et seulement si A ∩ B est réalisé, donc la probabilité de B
P(A∩B)
sachant que A est réalisé est card(A∩B) card(A∩B)/ card(Ω)
card(A) = card(A)/ card(Ω) = P(A) .

1) Définition

Définition 25.6
MO

Soit (Ω, P) un espace probabilisé fini et A un événement tel que P(A) 6= 0. Pour tout événement B on
appelle probabilité de B sachant A le réel noté PA (B) est défini par PA (B) = P(A∩B)
P(A) .

Théorème 25.5 (probabilité conditionnelle)


P(A∩B)
Si A est un événement tel que P(A) 6= 0, alors l’application PA : P (Ω) → R définie par PA (B) = P(A)
est une probabilité sur Ω, appelée probabilité conditionnelle sachant A.

Preuve : Celle-ci est simple et laissée en exercice. 

Attention !
On veillera à ne pas confondre PA (B) et P(A ∩ B).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 247 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Probabilités conditionnelles Chapitre 25 : Probabilités sur un univers fini

Remarque 25.4 –
– Dans certains ouvrages la probabilité conditionnelle PA (B) est notée P(B | A), mais nous éviterons cette
notation qui pourrait laisser croire que B | A est un événement.
– Comme PA est une probabilité, on a en particulier PA (Bc ) = 1 − PA (B).

NE
FExercice 25.4 Une famille a deux enfants, chaque enfant a une chance sur deux d’être une fille.
1/ Quelle est la probabilité que les deux enfants soient des filles sachant que l’aînée est une fille ?
2/ Quelle est la probabilité que les deux enfants soient des filles sachant qu’il y a au moins fille ?

2) Probabilités composées
La plupart du temps on ne calcule pas PA (B) à partir de P(A ∩ B) car le plus souvent on connaît PA (B) et
P(A) ce qui permet d’en déduire P(A ∩ B).

Théorème 25.6
Si A et B sont deux événements alors :
• P(A ∩ B) = P(A) × PA (B) si P(A) 6= 0 ;

AIG
• P(A ∩ B) = P(B) × PB (A) si P(B) 6= 0.

Preuve : Il suffit de revenir à la définition de probabilité conditionnelle. 

FExercice 25.5 Une urne contient 4 boules blanches et 2 noires. On tire une boule, on la remet dans l’urne en ajoutant une
autre boule de la même couleur, puis on procède à un autre tirage. Quelle est la probabilité d’obtenir deux boules noires ?

Théorème 25.7 (formules des probabilités composées)


Soient (Ai )i ∈J1;n K une famille d’événements (n > 2) telle que P(A1 ∩ · · · ∩ An−1 ) 6= 0, alors :
P(A1 ∩ · · · ∩ An ) = P(A1 ) × PA1 (A2 ) × PA1 ∩A2 (A3 ) × · · · × PA1 ∩···∩An−1 (An ).

Preuve : Remarquons que toutes les probabilités conditionnelles de la formule sont bien définies car 0 6= P(A1 ∩ · · · ∩
An−1 ) 6 · · · 6 P(A1 ∩ A2 ) 6 P(A1 ). La formule se démontre par récurrence sur n, le théorème précédent est le cas n = 2.
En appliquant l’hypothèse de récurrence on a :
NT
P(A1 ∩ · · · ∩ An+1 ) = P(A1 ) × PA1 (A2 ) × PA1 ∩A2 (A3 ) × · · · × PA1 ∩···∩An−1 (An ∩ An+1 )

notons B = A1 ∩ · · · ∩ An−1 , alors :


P(B ∩ An ∩ An+1 ) P(B ∩ An ) × PB∩An (An+1 )
PB (An ∩ An+1 ) = = = PB (An ) × PB∩An (An+1 )
P(B) P(B)
en reportant dans la relation ci-dessus, on obtient la formule au rang n + 1. 
Remarque 25.5 – Le produit à droite de l’égalité dans le théorème est un produit télescopique.

À retenir
Cette formule est utile lorsque les événements sont dans un ordre chronologique.
MO

FExercice 25.6 Une urne contient n boules : b blanches et r rouges. Soit k ∈ J1 ; b + 1K. On tire des boules successivement
de cette urne sans remise. Quelle est la probabilité qu’une boule rouge apparaisse pour la première fois au k e tirage ?

FExercice 25.7 Une puce se déplace sur les trois sommets A, B C d’un triangle en partant de A. À chaque instant elle fait
un saut : si elle est en A alors elle va en B, si elle est en B alors elle a une chance sur deux d’aller en A et une chance sur
deux d’aller en C, si elle est en C elle y reste.
1/ Montrer qu’on ne peut arriver en C qu’à des instants pairs.
2/ Quelle est la probabilité que la puce arrive en C pour la première fois à l’instant 2n ?

3) Formule des probabilités totales


Soit (A1 , . . . , An ) un système complet d’événements sur un espace probabilisé fini (Ω, P), on a déjà vu
n
que pour tout événement B, on a P(B) = P(B ∩ Ak ), or nous savons que P(B ∩ Ak ) = P(Ak )PAk (B) lorsque
P
k=1
P(Ak ) 6= 0. Nous pouvons donc énoncer :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 248 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Indépendance Chapitre 25 : Probabilités sur un univers fini

Théorème 25.8 (formule des probabilités totales)


Soit (A1 , . . . , An ) un système complet d’événements sur un espace probabilisé fini (Ω, P), tous de
probabilité non nulle, alors pour tout événement B on a :
n
P(B) = P(Ak )PAk (B).
P

NE
k=1

FExercice 25.8 Le fonctionnement d’un appareil est régi par la règle suivante :
– s’il fonctionne à l’instant t n alors il a la probabilité a ∈]0; 1[ de fonctionner à l’instant t n+1 ;
– s’il est en panne à l’instant t n alors il a la probabilité b ∈]0; 1[ d’être en panne à l’instant t n+1 .
Il est en état de marche à l’instant 0. Déterminer la probabilité p n qu’il soit en état de marche à l’instant t n .

Remarque 25.6 – Lorsque le système complet comporte peu d’événements, on peut illustrer la formule des
probabilités totales par un arbre pondéré, mais la justification est l’application de la formule des probabilités
totales.

)
P A 1 (B B

AIG
A1
1) PA (B c
P( A 1 ) Bc

)
P( A P A 2 (B B
2)
A2
PA (B c
2 ) Bc

4) Formule de Bayes
Soient A et B deux événements de probabilité non nulle de l’espace probabilisé (Ω, P), imaginons que
l’on sache calculer la probabilité conditionnelle PA (B) et que l’on souhaite calculer PB (A). On a :
NT
P(A ∩ B) P(A)PA (B)
PB (A) = =
P(B) P(B)

Cela peut-être utile lorsqu’il y a une chronologie, (A antérieure à B) et que l’on cherche à « remonter le temps ».
Dans le cas le plus général, on utilise la formule des probabilités totales pour exprimer P(B) :

Théorème 25.9 (formule de Bayes (ou formule de probabilité des causes))


Soit (A1 , . . . , An ) un système complet d’événements sur un espace probabilisé fini (Ω, P), tous de
probabilité non nulle, soit B un événement de probabilité non nulle, alors pour tout i ∈ J1 ; n K :
P(Ai )PAi (B)
PB (Ai ) = n .
P(Ak )PAk (B)
P
k=1
MO

Remarque 25.7 – En particulier, lorsque le système est réduit à deux événements (A, Ac ) (de probabilité non
nulle), et si P(B) 6= 0, alors PB (A) = P(A)PAP(A)P A (B)
(B)+P(Ac )P c (B) .
A

FExercice 25.9 On a six urnes numérotées de 1 à 6, l’urne k contient k boules blanches et 6 − k boules noires. On lance
un dé non truqué, si la face k sort alors on tire une boule de l’urne k. La boule tirée est blanche, quelle est la probabilité
d’avoir fait un 6 ?

IV INDÉPENDANCE

1) Indépendance de deux événements

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 249 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Indépendance Chapitre 25 : Probabilités sur un univers fini

Définition 25.7
On dit que deux événements A et B d’un espace probabilisé (Ω, P) sont indépendants lorsque :
P(A ∩ B) = P(A) × P(B).

NE
Remarque 25.8 –
– La relation est symétrique.
– Si P(A) = 0 alors A est indépendant avec tout autre événement B.

À retenir
Lorsque P(A) 6= 0, alors A et B sont indépendants si et seulement si PA (B) = P(B).

ZExemple : On lance un dé non truqué, soit A :« obtenir un chiffre pair » et B : « obtenir un chiffre inférieur
ou égale à 4 ». On P(A) = 21 , P(B) = 32 , P(A ∩ B) = 13 = P(A)P(B), ces deux événements sont indépendants. Soit
C :« obtenir un chiffre inférieur ou égale à 3 », on a P(C) = 12 et P(A ∩ C) = 16 6= P(A)P(C), A et C ne sont pas
indépendants.

AIG
Attention !
On veillera à ne pas confondre indépendance de deux événements (qui dépend de la probabilité) et l’incompatibilité
de deux événements (qui ne dépend pas de la probabilité).

Théorème 25.10
Si A est B sont deux événements indépendants de (Ω, P) alors :
• A et Bc sont indépendants ;
• Ac et B sont indépendants ;
• Ac et Bc sont indépendants.

Preuve : P(A) = P(A ∩ B) + P(A ∩ Bc ) = P(A)P(B) + P(A ∩ Bc ) d’où P(A ∩ Bc ) = P(A)[1 − P(B)] = P(A)P(Bc ). Les deux autres
résultats en découlent. 
NT
2) Indépendance d’une famille d’événements

Définition 25.8
Soient A1 , . . . , An des événements dans (Ω, P) :
• On dit ces événements sont deux à deux indépendants lorsque :
∀i , j ∈ J1 ; n K, i 6= j =⇒ P(Ai ∩ A j ) = P(Ai )P(A j ).
• On dit ces événements sont mutuellement indépendants lorsque :
∀J ⊂ J1 ; n K, P( Ak ) = P(Ak ).
T Q
k∈J k∈J

Remarque 25.9 – La vérification de l’indépendance mutuelle nécessite beaucoup de vérifications : nk=2 nk =


P ¡ ¢
MO

2n − n − 1. Il découle de la définition que des événements mutuellement indépendants sont deux à deux
indépendants.

Attention !
Des événements deux à deux indépendants ne sont pas nécessairement mutuellement indépendants comme le
montre l’exemple suivant.

ZExemple : On lance deux dés parfaits, on note A1 : « le premier dé amène un nombre pair », A2 : « le deuxième
dé amène un nombre pair » et A3 : « la somme des nombres obtenus est paire ». On a P(A1 ) = 12 , P(A2 ) = 12 ,
P(A3 ) = 18 1 1 1 1 1
36 = 2 , P(A1 ∩ A2 ) = 4 , P(A1 ∩ A3 ) = 4 , P(A2 ∩ A3 ) = 4 , mais P(A1 ∩ A2 ∩ A3 ) = P(A1 ∩ A2 ) = 4 : les
événements sont deux à deux indépendants mais pas mutuellement indépendants.

FExercice 25.10 Soient A1 , . . . , An des événements mutuellement indépendants dans (Ω, P).
1/ Montrer que les événements B1 , . . . , Bn où Bi = Ai ou Aci , sont mutuellement indépendants.
2/ Soit p ∈ J1 ; n − 1K, montrer que B1 ∪ · · · ∪ Bp et Bp+1 ∩ · · · ∪ Bn sont indépendants.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 250 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 25 : Probabilités sur un univers fini

V SOLUTION DES EXERCICES

Solution 25.1 Pour n = 2 : P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) − P(A1 ∩ A2 ) 6 P(A1 ) + P(A2 ). On termine ensuite par récurrence
sur n.

NE
6
1 1
Solution 25.2 On a P({k}) = ak avec k une constante positive, or P({k}) = 1, on en déduit que a =
P
1+2+3+4+5+6 = 21 ,
k=1
12
la probabilité demandée est P({2, 4, 6}) = a(2 + 4 + 6) = 21 = 74 .

Solution 25.3
1/ Ω = J1 ; 6K6 , les issues sont considérées équiprobables. L’événement cherché est l’ensemble 6-listes contenant une et
une seule fois chaque chiffre, par conséquent card(A) = 6! et P(A) = 66!6 ≈ 0,015.
2/ Ω est l’ensemble des 5-parties de l’ensemble des cartes. Dénombrons l’événement contraire (aucune paire), il faut
donc 5 hauteurs de cartes différentes et pour chacune des hauteurs il faut choisir une carte parmi 4 ce qui donne
¡13¢ 5
5 4
¡13¢ 5
5 4 mains dans cet événement, d’où la probabilité cherchée 1 − 52 ≈ 0,49.
¡ ¢
5
¡48¢ ¡36¢ ¡24¢ ¡12¢
4 12 ×3 12 ×2 12 ×1 12 4!134
3/ La probabilité cherchée est = ≈ 0,105.

AIG
¡52¢¡39¢¡26¢
52·51·50·49
13 13 13

Solution 25.4 L’univers est Ω = {F, G}2 ensemble des couples de lettres F ou G (premier enfant et deuxième enfant).
2
1/ L’événement « l’aînée est une fille » est A = {(F, G), (F, F)} et P(A) = 4 = 12 . L’événement cherché est B = {(F, F)} qui
P(B)
implique A, d’où PA (B) = P(A) = 12 .
2/ L’événement « au moins un enfant est une fille » est A = {(F, G); (F, F); (G, F)} et P(A) = 34 . L’événement cherché est
P(B)
B = {(F, F)} qui implique A, d’où PA (B) = P(A) = 13 .

Solution 25.5 Notons A l’événement « la première boule tirée est noire », et B l’événement « la deuxième boule tirée est
noire ». On cherche à calculer P(A ∩ B), on a P(A ∩ B) = P(A) × PA (B) = 26 × 37 = 17 .

Solution 25.6 Soit Bi l’événement « au i e tirage la boule est blanche (on définit de même Ri ), on demande :

b b −k +2 r b(b − 1) · · · (b − k + 2)r
p(B1 ∩ · · · ∩ Bk−1 ∩ Rk ) = p(B1 )p B1 (B2 ) · · · p B1 ∩···Bk−1 (Rk ) = ×···× × =
n n −k +2 n −k +1 n(n − 1) · · · (n − k + 1)
NT
Solution 25.7
1/ Pour arriver en C la puce doit venir de B (un saut), pour être en B la puce doit venir de A et pour arriver en A la puce
doit venir de B, donc avant d’arriver en C la puce fait un certain nombre d’aller-retours en A et B, ce qui donne un
instant impair pour être en B et donc pair pour être en C.
2/ Soit Ak l’événement « la puce est en A à l’instant k » et Bk l’événement « la puce est en B à l’instant k », on cherche
donc P(B1 ∩ A2 ∩ · · · ∩ B2n−1 ∩ C2n ), d’après la formule des probabilités composées, c’est :

P(B1 ∩ A2 ∩ · · · ∩ B2n−1 ∩ C2n ) = P(B1 ) × PB1 (A2 ) × PB1 ∩A2 (B3 ) × · · · × PB1 ∩A2 ∩···∩B2n−1 (C2n )
¡ ¢n
ce qui donne 12 = 21n .
MO

Solution 25.8 Soit Mn l’événement correspondant, alors (Mn , Mcn ) est un système complet d’événements donc p n+1 =
P(Mn )PMn (Mn+1 )+P(Mcn )PMcn (Mn+1 ) = p n a+(1−p n )(1−b) = (a+b−1)p n +1−b, on a une suite arithmético-géométrique,
1−b n
une solution constante est ` = 2−a−b et la suite (p n −`) est géométrique de raison a +b −1, d’où p n = (a +b −1) (p 0 −`)+`
1−b+(a+b−1)n (1−a) 1−b
avec p 0 = 1, ce qui donne pn = 2−a−b . On voit que lorsque |a + b − 1| < 1, cette suite tend vers 2−a−b .

Solution 25.9 On a un système complet (D1 , . . . , D6 ) (résultat du jet de dé), soit B l’événement « obtenir une boule
blanche », alors on demande PB (D6 ), d’après la formule de Bayes, on a :
P(D6 )PD6 (B) P(D6 )PD6 (B) 1/6 6
PB (D6 ) = P(B) = 6 = 6 = 21 = 27 .
k
P(Dk )PDk (B)
P P
36
k=1 k=1

Solution 25.10
1/ Il suffit de traiter le cas où un seul des Bi est égal Aci (on peut supposer que c’est Bn ), si J est une partie de J1 ; n − 1K,
A j et Acn aussi.
T T
alors on sait que A j et An sont indépendants, donc
j ∈J j ∈J
2/ On sait que Bc1 , . . . , Bcp , Bp+1 , . . . , Bn sont mutuellement indépendants, donc Bc1 ∩ · · · ∩ Bcp et Bp+1 ∩ · · · ∩ Bn sont
h ic
indépendants, par conséquent, Bc1 ∩ · · · ∩ Bcp = B1 ∪ · · · ∪ Bp et Bp+1 ∩ · · · ∩ Bn sont indépendants.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 251 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 26

Variables aléatoires sur un univers fini

Sommaire
I Notion de variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
2) Loi d’une VA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
3) Image d’une VA par une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
II Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
1) Variables certaines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
2) Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
3) Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
4) Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
III Espérance et variance d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
1) Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
2) Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
3) Cas des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
IV Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
NT
2) Indépendance de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
3) Applications de l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
4) Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

Souvent, lors d’une expérience aléatoire, on ne s’intéresse pas vraiment à l’ensemble des résultats possibles,
mais un aspect particulier du résultat, par exemple : la somme obtenue lors d’un lancer de deux dés, le
temps d’attente du premier pile dans un lancer de pièce etc.

I NOTION DE VARIABLE ALÉATOIRE

1) Définition
MO

Définition 26.1
Soit Ω un univers fini. Toute application X : Ω → E est appelée variable aléatoire, lorsque E = R, on dit
que X est une variable aléatoire réelle (notée VAR). Lorsque X est constante, on parle de VA constante
ou de variable aléatoire certaine.

Remarque 26.1 –
– Notons qu’une variable aléatoire n’est une pas une variable en réalité, mais une application, et n’a rien
d’aléatoire !
– L’ensemble des images X(Ω) est un ensemble fini qu’on note parfois X(Ω) = {x 1 , . . . , x n }.
ZExemples :
– Expérience : on lance deux dés, on note X la somme des chiffres obtenus.
Univers : Ω = J1 ; 6K, X(Ω) = J2 ; 12K.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 252 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Notion de variable aléatoire Chapitre 26 : Variables aléatoires sur un univers fini
– Expérience : on lance n fois une pièce, on note X le numéro du lancer où apparaît un pîle la première
fois.
Univers : Ω = {P, F}n , X(Ω) = J0 ; n K.

Définition 26.2 (variable indicatrice d’un événement)

NE
(
1si ω ∈ A
Soit A un événement, l’application 1A : Ω → R définie par 1A (ω) = est la variable indica-
0 sinon
trice de A.

Remarque 26.2 –
– L’ensemble des VAR sur Ω est F (Ω, R) qui a une structure de R-espace vectoriel et d’anneau pour les lois
usuelles.
– Si X : Ω → E est une VA et u : E → F est une application, alors u ◦ X est une VA sur Ω, elle est généralement
notée u(X).

Événements liés à une VA

AIG
– Si X : Ω → E est une VA, si A est une partie de E alors X −1 (A) est un événement, on le note généralement
(X ∈ A), on a donc (X ∈ A) = {ω ∈ Ω / X(ω) ∈ A}.
– Plus généralement, si P(x) désigne une propriété définie sur E, l’événement {ω ∈ Ω / P(X(ω))} est noté
(X vérifie P).
– Dans le cas particulier d’une VAR, on écrit pour tout x ∈ R : (X 6 x) = {ω ∈ Ω / X(ω) 6 x} ; (X > x) =
{ω ∈ Ω / X(ω) > x} ; etc. En particulier (X 6 x) = (X < x) ∪ (X = x).

2) Loi d’une VA

Théorème 26.1
Si X est une VA sur (Ω, P), l’application PX : P (X(Ω)) → [0; 1] définie par PX (A) = P(X ∈ A) pour toute
partie A de X(Ω), est une probabilité sur X(Ω), on l’appelle loi de X.
NT
Preuve : On a PX (X(Ω)) = P(X ∈ X(Ω)) = P(Ω) = 1. Soient A et B deux parties disjointes de X(Ω) alors X −1 (A) et X −1 (B) sont
deux événements incompatibles de Ω, donc PX (A ∪ B) = P(X −1 (A ∪ B)) = P(X −1 (A) ∪ X −1 (B)) = P(X −1 (A)) + P(X −1 (B)) =
PX (A) + PX (B). 
Remarque 26.3 – Si A est une partie de X(Ω) alors P(X ∈ A) = PX (A) = PX ({x}) = P(X = x).
P P
x∈A x∈A

À retenir
Déterminer la loi de X, c’est déterminer X(Ω) et pour tout x ∈ X(Ω), la probabilité P(X = x). On
remarquera que si X est une VA sur l’univers fini Ω, alors la famille d’événements ((X = x))x∈X(Ω) est
un système complet d’événements.

Il est clair que ces événements sont incompatibles deux à deux et que :
MO

P(X = x) = P( (X = x)) = P(Ω) = 1


X [
x∈(Ω) x∈X(Ω)

Remarque 26.4 – Parfois on ne connaît pas exactement X(Ω) mais un ensemble E contenant X(Ω), dans ce cas,
pour x ∉ X(Ω) on trouve P(X = x) = 0.

FExercice 26.1 On lance un dé deux fois, on note X la somme obtenue. Déterminer la loi de X.

FExercice 26.2 Soit X un VAR à valeurs entières, montrer que P(X = k) = P(X 6 k)−P(X 6 k −1) = P(X > k))−P(X > k +1).

3) Image d’une VA par une fonction

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 253 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Lois usuelles Chapitre 26 : Variables aléatoires sur un univers fini

Théorème 26.2
Soit X une VA sur (Ω, P) et u une fonction définie sur X(Ω), notons Y = u ◦ X et X(Ω) = {x 1 , . . . , x n },
alors :
∀y ∈ Y(Ω), P(Y = y) = P(X = x)
X

NE
x∈u −1 ({ y })

Preuve : En effet, (Y = y) = ω ∈ Ω / u ◦ X(ω) = y = (X ∈ u −1 ( y )).


© ª © ª


FExercice 26.3 On lance un dé successivement deux fois, on note X le premier résultat moins le deuxième, déterminer la
loi de X, de |X| et de X 2 .

Attention !
Comme on le voit dans l’exemple ci-dessus, deux VA peuvent avoir la même loi sans être égales pour autant !

Remarque 26.5 – Si X et Y sont deux VA sur (Ω, P) alors on peut définir les lois de X + Y et de XY :

P(X + Y = z) = P((X = x) ∩ (Y = y)) où Iz = (x, y) ∈ X(Ω) × Y(Ω) / x + y = z


X © ª

AIG
(x,y)∈Iz

P(XY = z) = P((X = x) ∩ (Y = y)) où Iz = (x, y) ∈ X(Ω) × Y(Ω) / x y = z


X © ª
(x,y)∈Iz

II LOIS USUELLES

1) Variables certaines

Définition 26.3
Une VA est dire certaine lorsqu’elle est constante, auquel cas on a X(Ω) = {x 1 } et donc P(X = x 1 ) = 1.

2) Loi uniforme
NT
Définition 26.4
On dit que la VA X suit une loi uniforme sur X(Ω) = {x 1 , . . . , x n } lorsque ∀k ∈ J1 ; n K, P(X = x k ) = n1 . Ce
que l’on note X ,→ U (X(Ω)).

ZExemple : On lance un dé parfait, on note X le chiffre obtenu alors X ,→ U (J1 ; 6K).

3) Loi de Bernoulli

Définition 26.5
MO

Soit p ∈ [0; 1] et q = 1 − p. On dit que la VA X suit une loi de Bernoulli de paramètre p, lorsque sur
X(Ω) = {0, 1}, P(X = 1) = p et P(X = 0) = q. Ce que l’on note X ,→ B(p).

Remarque 26.6 – Cette loi est utile pour les expériences aléatoires ayant deux issues possibles : succès avec
probabilité p ou bien échec avec une probabilité de 1 − p, ce que l’on appelle des épreuves de Bernoulli.
ZExemple : La variable indicatrice d’un événement A suit une loi de Bernoulli de paramètre p = P(A).
Remarque 26.7 – Si X et Y sont deux VA qui suivent une loi de Bernoulli, alors XY également.

4) Loi binomiale

Définition 26.6
Soient n ∈ N, p ∈ [0; 1] et q = 1 − p. On dit que la VA X suit une loi binomiale de paramètres n et p,
lorsque sur X(Ω) = J0 ; n K, et ∀k ∈ J0 ; n K, P(X = k) = nk p k (1 − p)n−k . Ce que l’on note X ,→ B(n, p).
¡ ¢

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 254 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Espérance et variance d’une variable aléatoire Chapitre 26 : Variables aléatoires sur un univers fini

On vérifie qu’il s’agit bien d’une loi de probabilité sur J0 ; n K.

À retenir

NE
La loi binomiale apparaît quand on considère le nombre X de succès dans une suite de n épreuves de
Bernoulli mutuellement indépendantes et dans lesquelles la probabilité du succès est p ∈ [0; 1].

En effet, on a X(Ω) = J0 ; n K et l’événement (X = k) est l’ensemble des n-uplets de 1 ou 0 contenant k fois


le nombre 1, il y en a nk , la probabilité de chacun d’eux est p k (1 − p)n−k car les épreuves sont mutuellement
¡ ¢

indépendantes, d’où P(X = k) = nk p k (1 − p)n−k .


¡ ¢

ZExemples :
– On effectue n tirages successifs avec remise dans une urne contenant des boules blanches et noires
dans des proportions de p et q = 1 − p. On note X le nombre de boules blanches obtenues, alors
X ,→ B(n, p).
– Une pièce donne face avec une probabilité p et pile avec une probabilité q = 1−p. On effectue n lancers
dans les mêmes conditions à chaque fois, on note X le nombre de faces obtenus, alors X ,→ B(n, p).

III

1)

AIG
ESPÉRANCE ET VARIANCE D’UNE VARIABLE ALÉATOIRE

Espérance

Définition 26.7
L’espérance d’une variable aléatoire X est le réel noté E(X) et défini par :
E(X) =
P
x P(X = x).
x∈X(Ω)
Lorsque son espérance est nulle, on dit que la variable aléatoire X est centrée.

Remarque 26.8 – Il s’agit de la moyenne pondérée des valeurs prises par X, car la somme des probabilités vaut
1.
NT
ZExemples :
6
i 21
– On lance un dé équilibré, X est le numéro de la face supérieure, E(X) = = 27 .
P
6 = 6
i =1
– Si A est un événement, l’espérance de l’indicatrice de A est E(1A ) = P(A).
– L’espérance d’une variable certaine est la constante.

Théorème 26.3
Si X est une variable aléatoire sur (Ω, P) alors E(X) = X(ω)P({ω}).
P
ω∈Ω

Preuve : Soit X(Ω) = x 1 , . . . , x p , soit Ak = X −1 ( x k ), alors (A1 , . . . , A p ) est un système complet d’événements et P(Ak ) =
© ª © ª

P({ω}). On a donc :
P
MO

ω∈Ak
à !
X p
X X
X(ω)P({ω}) = X(ω)P({ω})
ω∈Ω k=1 ω∈Ak
à !
p
x k P({ω})
X X
=
k=1 ω∈Ak
à !
p
P({ω})
X X
= xk
k=1 ω∈Ak
p p
x k P(Ak ) = x k P(X = x k ) = E(X).
X X
=
k=1 k=1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 255 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Espérance et variance d’une variable aléatoire Chapitre 26 : Variables aléatoires sur un univers fini

Théorème 26.4 (linéarité de l’espérance)


Si X et Y sont deux variables aléatoires sur (Ω, P) alors pour tout réel λ :
E(λX + Y) = λE(X) + E(Y).

Preuve : En utilisant le résultat du théorème précédent, on a :

NE
E(λX + Y) = [λX(ω) + Y(ω)]P({ω}) = λ Y(ω)P({ω}) = λE(X) + E(Y).
X X X
X(ω)P({ω}) +
ω∈Ω ω∈Ω ω∈Ω

À retenir
Si X est une variable aléatoire alors X−E(X) est une variable aléatoire centrée. C’est la variable aléatoire
centrée associée à X.

FExercice 26.4 Une urne contient n boules numérotées de 1 à n, on les tire successivement et sans remise, on dit qu’il y a
rencontre au tirage i lorsque la boule tirée est la boule numéro i . Déterminer le nombre moyen de rencontres.

Théorème 26.5 (positivité de l’espérance)

AIG
Si X est une variable aléatoire positive ou nulle sur (Ω, P) alors :
• E(X) > 0 (positivité).
• E(X) = 0 ⇐⇒ P(X = 0) = 1, on dit que la variable X est presque sûrement nulle.
n
Preuve : Le premier point découle de la définition d’espérance E(X) = x k P(X = x k ), car chaque valeur x k de X est
P
k=1
positive ou nulle et les probabilités aussi. Si cette somme est nulle, alors tous les termes doivent être nuls, X prend donc
nécessairement la valeur 0 (sinon E(X) > 0 car les probabilités ne peuvent pas être toutes nulles) et pour x k 6= 0 on a
forcément P(X = x k ) = 0), ce qui entraîne que P(X = 0) = 1 puisque la somme des probabilités doit faire 1. La réciproque
est immédiate. 

Théorème 26.6 (croissance de l’espérance)


Si X et Y sont deux variables aléatoires réelles définies sur (Ω, P) telles que X 6 Y, alors E(X) 6 E(Y).

Preuve : La variable Z = Y − X est positive, donc E(Z) > 0, la linéarité permet alors d’écrire E(Y) − E(X) > 0 ce qui donne
NT
le résultat. 

Théorème 26.7 (inégalité de Markov)


Pour tout variable aléatoire positive X on a :
E(X)
∀a > 0, P({X > a}) 6 a .

Preuve : Notons A = {x ∈ X(Ω) / x > a}, A ⊂ X(Ω) donc :


E(X)
E(X) = P(X = x) = aP(A), d’où P(A) 6
P P P
xP(X = x) > xP(X = x) > a a . 
x∈X(Ω) x∈A x∈A
X
Remarque 26.9 – On peut aussi montrer l’inégalité de Markov en remarquant que 1X>a 6 a et utiliser la
croissance de l’espérance.

Théorème 26.8 (de transfert)


MO

Si X est une variable aléatoire sur (Ω, P) et si u est une application de X(Ω) vers R, alors :
E(u(X)) = u(x)P(X = x).
P
x∈X(Ω)

Preuve : Posons X(Ω) = {x 1 , . . . , x n } et Ak = X −1 ( x k ), alors (A1 , . . . , An ) est un système complet d’événements de Ω, et


© ª

on a :
E(u(X)) =
X
u(X(ω))P({ω})
ω∈Ω
à ! à !
n n
P({ω})
X X X X
= u(X(ω))P({ω}) = u(x k )
k=1 ω∈Ak k=1 ω∈Ak
n
X n
X
= u(x k )P(Ak ) = u(x k )P(X = x k )
k=1 k=1
X
= u(x)P(X = x)
x∈X(Ω)

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 256 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Espérance et variance d’une variable aléatoire Chapitre 26 : Variables aléatoires sur un univers fini

Remarque 26.10 – La formule de droite proposée dans le théorème n’est autre que l’espérance de la variable
aléatoire u sur l’espace probabilisé (X(Ω), PX ). Cette formule fait intervenir la loi de probabilité de X mais pas
celle de u(X), ce qui fait son interêt.

FExercice 26.5 Si X ,→ U (J1 ; n K), calculer E(X2 ) et E(e X ).

NE
2) Variance et écart-type

Définition 26.8 (moments d’une variable aléatoire)


Soit X un variable aléatoire réelle et r ∈ N, on appelle moment d’ordre r de la variable X l’espérance
de la variable aléatoire X r , c’est à dire le nombre E(X r ) = x r P(X = x) (théorème de transfert), on
P
x∈X(Ω)
le note parfois m r (X).

Remarque 26.11 – Le moment d’ordre 0 vaut 1, et le moment d’ordre 1 est l’espérance.

AIG
Définition 26.9 (variance, écart-type)
On appelle variance de la variable aléatoire X le réel V(X) = E [X − E(X)]2 , et l’écart-type de X est le
¡ ¢
p
réel σ(X) = V(X).

Remarque 26.12 –
– La définition a bien un sens puisque X − E(X) est une variable aléatoire. Ces notions permettent de
mesurer la dispersion de X autour de sa valeur moyenne.
– V(X) = 0 ⇐⇒ P(X = E(X)) = 1, la variable aléatoire X est presque sûrement constante.
– Il résulte du théorème de transfert que V(X) = (x − E(X))2 P(X = x), mais la formule la plus utilisée
P
x∈X(Ω)
est celle du théorème suivant.

Théorème 26.9 (formule de Kœnig-Huygens)


Si X est une variable aléatoire réelle sur (Ω, P) alors V(X) = E(X 2 ) − (E(X))2 .
NT
Preuve : En effet :
(X − E(X))2 = X 2 + E(X)2 − 2XE(X), l’espérance étant linéaire, on a V(X) = E(X 2 ) + E(X)2 − 2E(X)E(X) = E(X 2 ) − (E(X))2 .


FExercice 26.6
1/ Si X(Ω) = J1 ; n K et P(X = k) = ak. Calculer a, E(X) et V(X).
2/ Si X est une VAR, déterminer le minimum de la fonction f : t 7→ E([X − t ]2 ) sur R.

À retenir
Il est parfois judicieux de calculer E(X(X − 1)) ou E(X(X + 1)) pour en déduire E(X 2 ).
MO

Théorème 26.10 (propriétés)


Soit X une variable aléatoire réelle sur (Ω, P) alors :
• V(X) > 0.
• ∀a, b ∈ R, V(aX + b) = a 2 V(X) et σ(aX + b) = |a|σ(X).
V(X)
• Inégalité de Bienaymé-Tchebychev : ∀ε > 0, P(|X − E(X)| > ε|) 6 ε2
.

Preuve :
• Par définition, V(X) = E([X − E(X)]2 ) qui est donc un réel positif par positivité de l’espérance.
• On a E(aX + b) = aE(X) + b d’où [(aX + b) − E(aX + b)]2 = a 2 [X − E(X)]2 et donc V(aX + b) = E(a 2 [X − E(X)]2 ) = a 2 V(X).
En prenant la racine carrée on obtient σ(aX + b) = |a|σ(X).
• Soit Y = [X−E(X)]2 , alors P(|X−E(X)| > ε|) = P(Y > ε2 ) 6 E(Y)
ε2
(inégalité de Markov), ce qui donne exactement le résultat.

Applications :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 257 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 26 : Variables aléatoires sur un univers fini

– Une variable aléatoire dont l’écart-type vaut 1 est appelée variable aléatoire réduite. Si X est une VAR dont la
variance est non nulle, alors la variable aléatoire X ∗ = X−E(X)
σ(X) est une variable aléatoire centrée réduite, appelée
variable centrée réduite associée à X.
– L’inégalité de Bienaymé-Tchebychev apporte réellement un renseignement lorsque V(X) ε2
6 1, mais cette majo-
ration est en général assez grossière et son intérêt est surtout théorique. Elle indique néanmoins que X prend

NE
des valeurs proches de sa moyenne avec une grande probabilité. On peut également l’écrire sous la forme :
P(|X − E(X)| < ε) > 1 − V(X)
ε2
.

3) Cas des lois usuelles

Théorème 26.11
• Si X est une variable certaine de valeur a ∈ R, alors E(X) = a et V(X) = 0.
x +···+x
• Si X suit la loi uniforme sur {x 1 , . . . , x n } alors E(X) = 1 n n . En particulier si X ,→ U (J1 ; n K) alors
2
E(X) = n+1 n −1
2 et V(X) = 12 .
• Si X suit une loi de Bernoulli de paramètre p ∈ [0; 1] alors E(X) = p et V(X) = p(1 − p).
• Si X suit une loi binomiale de paramètres n et p, alors E(X) = np et V(X) = np(1 − p).

AIG
Preuve :
• Immédiat.
n n 2
k2 (2n+1)(n+1)
• Si X ,→ U (J1 ; n K) : E(X) = k n+1 2
2 , E(X ) = , d’où V(X) = (2n+1)(n+1) − (n+1) (n+1)(n−1)
P P
n = n = 6 6 4 = 12 .
k=1 k=1
• Si X ,→ B(p), E(X) = P(X = 1) = p, X 2 suit la même loi que X donc V(X) = p − p 2 = p(1 − p).
n
• Si X ,→ B(n, p), il s’agit de calculer E(X) = k nk p k q n−k (avec q = 1 − p), cette expression est la dérivée en 1 de la
P ¡ ¢
k=0
n ¡ ¢
n k k n−k
= (px + q) , d’où f 0 (x) = pn(px + q)n−1 et donc f 0 (1) = np.
n
P
fonction f (x) = k x p q
k=0
Autre méthode : une pièce donne face avec une probabilité p et pile avec une probabilité q = 1 − p. On effectue n
lancers dans les mêmes conditions à chaque fois, on note X le nombre de faces obtenus, alors X ,→ B(n, p). Notons X i
la variable aléatoire valant 1 si on a obtenu face au lancer numéro i , 0 sinon, alors X i ,→ B(p) et X = X 1 + · · · + X n , d’où
E(X) = E(X 1 ) + · · · + E(X n ) = np.
n
Pour la variance, on calcule E(X(X − 1)) = k(k − 1) nk p k q n−k = f 00 (1) avec les notations ci-dessus, or f 00 (x) =
P ¡ ¢
k=0
p 2 n(n − 1)(px + q)n−2 et donc E(X(X − 1)) = n(n − 1)p 2 = E(X 2 ) − E(X), d’où E(X 2 ) = n(n − 1)p 2 + np = np[np − p + 1] et
NT
V(X) = E(X 2 ) − E(X)n = np[np − p + 1] − (np)2 = np(1 − p). 

IV COUPLES DE VARIABLES ALÉATOIRES

1) Définitions

Définition 26.10
Soient X et Y deux variables aléatoires sur (Ω, P) à valeurs dans E pour X et F pour Y, on appelle couple
des variables X et Y, et on note Z = (X, Y), l’application :
Z: Ω → E ×F .
ω 7→ Z(ω) = (X(ω), Y(ω))
MO

Remarque 26.13 – L’application Z est une variable aléatoire sur (Ω, P) et Z(Ω) ⊂ X(Ω) × Y(Ω).

Définition 26.11 (loi conjointe)


Soient X : Ω → E et Y : Ω → F deux variables aléatoires sur (Ω, P). On appelle loi conjointe du couple
des variables X et Y, la loi de la variable aléatoire Z = (X, Y), c’est à dire l’application :
Z(Ω) → [0; 1]
.
(x, y) 7→ P([X = x] ∩ [Y = y])

Remarque 26.14 – Déterminer la loi conjointe revient donc à déterminer X(Ω) = {x 1 , . . . , x n } et Y(Ω) =
y 1 , . . . , y p , puis à calculer les probabilités p i j = P([X = x i ] ∩ [Y = y j ]) pour (i , j ) ∈ J1 ; n K × J1 ; p K. Dans
© ª

la pratique on présente la loi conjointe sous forme d’un tableau :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 258 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 26 : Variables aléatoires sur un univers fini
Y y1 y2 ··· yp
X
x1 p 11 p 12 ··· p 1p

x2 p 21 p 22 ··· p 2p
.. .. .. ..

NE
. . . .
xn p n1 p n2 ··· p np

Définition 26.12 (lois marginales)


Si (X, Y) est un couple de variables aléatoires sur (Ω, P), les lois de probabilités de X et de Y sont
appelées lois marginales du couple.

À retenir
La loi conjointe permet d’obtenir les lois marginales, car on peut écrire (avec les notations précé-
dentes) :
p p

AIG
P(X = x i ) = P([X = x i ] ∩ [Y = y j ]) =
P P
pi j
j =1 j =1
et :
n n
P(Y = x j ) = P([X = x i ] ∩ [Y = y j ]) =
P P
pi j .
i =1 i =1
Notation : on écrit p i • = P(X = x i ) et p • j = P(Y = y j ).

FExercice 26.7 On lance 2 dés parfaits, on note X le minimum des deux résultats et Y le maximum. Déterminer la loi
conjointe et les lois marginales.

Attention !
La connaissance des lois marginales ne permet pas en général de retrouver la loi conjointe, comme on peut s’en
convaincre sur l’exemple précédent.

Définition 26.13
NT
Soient X : Ω → E et Y : Ω → F deux variables aléatoires sur (Ω, P). Soit y ∈ Y(Ω), on appelle loi condi-
tionnelle de X sachant (Y = y) la loi de X dans l’espace (Ω, P(Y=y) ), c’est à dire l’application :
X(Ω) → [0; 1]
P([X=x]∩[Y=y]) .
x 7→ P(Y=y) (X = x) = P(Y=y)
De même, soit x ∈ X(Ω), on appelle loi conditionnelle de Y sachant (X = x) la loi de Y dans l’espace
(Ω, P(X=x) ), c’est à dire l’application :
Y(Ω) → [0; 1]
P([Y=y]∩[X=x]) .
y 7→ P(X=x) (Y = y) = P(X=x)

ZExemple : En reprenant l’exercice précédent, la loi de X sachant (Y = 4) est :


MO

xi 1 2 3 4 5 6
P(Y=4) (X = x i ) 27 27 2
7
1
7 0 0


0 si i > j

 1/36 1
Plus généralement P(Y= j ) (X = i ) = 2 j −1 = 2 j −1 si i = j
 36
 2/36 2


2 j −1 = 2 j −1 si i < j
36
Il découle de la formule des probabilités totales :

À retenir
Si (X, Y) est un couple de variables aléatoires sur (Ω, P), on suppose que pour tout x ∈ X(Ω) et tout
y ∈ Y(Ω), P(X = x) 6= 0 et P(Y = y) 6= 0, alors :
P(X = x) = P(Y = y) × P(Y=y) (X = x),
P
y∈Y(Ω)
et :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 259 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 26 : Variables aléatoires sur un univers fini
P(Y = y) = P(X = x) × P(X=x) (Y = y),
P
x∈X(Ω)

La notion de couple de variables aléatoires se généralise à un n-uplet de variables aléatoires :

NE
Définition 26.14 (généralisation : vecteurs aléatoires)
Soient, X 1 , . . . , X n des variables aléatoires sur (Ω, P) à valeurs dans E1 , . . . , En respectivement, le vecteur
aléatoire Z = (X 1 , . . . , X n ) est l’application :
Z : Ω → E1 × · · · × En .
ω 7→ Z(ω) = (X 1 (ω), · · · , X n (ω))
La loi conjointe du vecteur Z est la loi de probabilité de la variable aléatoire Z = (X 1 , . . . , X n ), c’est à
dire l’application :
Z(Ω) → R
.
(x 1 , . . . , x n ) 7→ P([X 1 = x 1 ] ∩ · · · ∩ [X n = x n ])
et les lois des variables aléatoires X 1 , . . . , X n sont appelées lois marginales du vecteur Z.

2) Indépendance de variables aléatoires

AIG
Définition 26.15
Soient X et Y deux variables aléatoires sur (Ω, P), on dit que X et Y sont indépendantes lorsque :
∀A ⊂ X(Ω), ∀B ⊂ Y(Ω), P([X ∈ A] ∩ [Y ∈ B]) = P(X ∈ A) × P(Y ∈ B),
c’est à dire les événements (X ∈ A) et (Y ∈ B) sont indépendants.

Théorème 26.12
Deux variables aléatoires X et Y sur (Ω, P) sont indépendantes si et seulement si :
∀(x, y) ∈ X(Ω) × Y(Ω), P([X = x] ∩ [Y = y]) = P(X = x) × P(Y = y).

Preuve : Le sens =⇒ est évident. Montrons la réciproque : soient A une partie de X(Ω) et B une partie de Y(Ω), on a
S
alors [X ∈ A] ∩ [Y ∈ B] = [X = x] ∩ [Y = y] et ces événements sont incompatibles deux à deux, d’où :
(x,y)∈A×B
NT
P([X ∈ A] ∩ [Y ∈ B]) = P([X = x] ∩ [Y = y])
X
(x,y)∈A×B

P(X = x) × P(Y = y) (d’après l’hypothèse)


X
=
(x,y)∈A×B

P(X = x) × P(Y = y)
X X
=
x∈A y∈B
à ! à !
P(X = x) × P(Y = y)
X X
=
x∈A y∈B

= P(X ∈ A) × P(Y ∈ B)

donc les deux variables aléatoires sont indépendantes. 


Remarque 26.15 – Lorsque X et Y sont deux variables aléatoires indépendantes sur (Ω, P), la connaissance des
MO

deux lois marginales permet de reconstituer la loi conjointe car p i j = p i • × p • j , et les lois conditionnelles sont
égales aux lois marginales.
ZExemple : Dans l’exercice 7, les variables aléatoires X et Y ne sont pas indépendantes.

Théorème 26.13 (indépendance de fonctions de variables aléatoires)


Soient X et Y deux variables aléatoires indépendantes sur (Ω, P), si f est une application sur X(Ω) et g
une application sur Y(Ω), alors les variables aléatoires f (X) et g (Y) sont indépendantes.

Preuve : Soient a ∈ Im( f ) et b ∈ Im(g ), soit A = f −1 ({a}) et B = g −1 ({b}), alors :

P([ f (X) = a] ∩ [g (Y) = b]) = P([X ∈ A] ∩ [Y ∈ B]) = P(X ∈ A) × P(Y ∈ B) = P( f (X) = a) × P(g (Y) = b)

Les variables aléatoires f (X) et g (Y) sont donc indépendantes. 


Voici un autre résultat utile :

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 260 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 26 : Variables aléatoires sur un univers fini

À retenir
Soit X et Y deux variables aléatoires indépendantes sur (Ω, P), et f : X(Ω) × Y(Ω) → E, alors :
P( f (X, Y) = z) = P(X = x) × P(Y = y).
P
(x,y)∈ f −1 ({z})

NE
S
En effet, il suffit de remarquer que l’événement ( f (X, Y) = z) s’écrit [X = x] ∩ [Y = y].
(x,y)∈ f −1 ({z})

FExercice 26.8 Soient X et Y deux variables aléatoires indépendantes sur (Ω, P) suivant la même loi uniforme sur J1 ; n K.
Déterminer les lois de X + Y et de X − Y.

Définition 26.16 (généralisation : indépendance de n variables aléatoires)


Soit (X 1 , . . . , X n ) un vecteur aléatoire sur (Ω, P) à valeurs dans E1 × · · · × En . On dit que ces n variables
aléatoires sont :
• deux à deux indépendantes : lorsque pour tout couple (i , j ) ∈ J1 ; n K2 , X i et X j sont indépendantes ;
• mutuellement indépendantes : lorsque pour toute partie A1 de E1 , A2 de E2 , . . . , An de En , les

AIG
événements (X 1 ∈ A1 ), . . . , (X n ∈ An ) sont mutuellement indépendants.

Remarque 26.16 – Comme pour les événements, l’indépendance mutuelle des variables aléatoires entraîne
l’indépendance deux à deux, mais la réciproque est fausse.
En généralisant la preuve du théorème 26.12

Théorème 26.14
Les variables aléatoires X 1 , . . . , X n sur (Ω, P) sont mutuellement indépendantes si et seulement si :
pour tout (x 1 , . . . , x n ) ∈ X 1 (Ω) × · · · × X n (Ω), les événements (X 1 = x 1 ), . . . , (X n = x n ) sont mutuellement
indépendantes.

De même, on montrerait que f 1 (X 1 ), . . . , f n (X n ) sont mutuellement indépendantes, avec f i : X i (Ω) → Fi .

Théorème 26.15
NT
On considère des variables aléatoires X 1 , . . . , X n sur (Ω, P) mutuellement indépendantes.
• Soit 1 < p < n, les variables aléatoires Y = (X 1 , . . . , Yp ) et Z = (X p+1 , . . . , X n ) sont indépendantes.
• Si f est une fonction à p variables et g à n − p variables, alors f (X 1 , . . . , X p ) et g (X p+1 , . . . , X n ) sont
indépendantes.

Preuve : Celle-ci est simple et laissée en exercice. 


Remarque 26.17 – Le résultat ci-dessus se généralise au cas où on partage l’ensemble des n variables aléatoires
en plus de deux parties, on remplace alors « indépendantes » par « mutuellement indépendantes » dans les
conclusions. Par exemple, si X, Y, Z et T sont mutuellement indépendantes, alors XY et ZT sont indépendantes,
les variables aléatoires X, Y + Z et T 2 sont mutuellement indépendantes etc.
MO

3) Applications de l’indépendance

Théorème 26.16
Si X 1 , . . . , X n n variables aléatoires sur (Ω, P) suivent toutes une même loi de Bernoulli de paramètre
p ∈ [0; 1], et sont mutuellement indépendantes, alors la somme X 1 + · · · + X n suit une loi binomiale de
paramètre n et p.

Preuve : On a X i ,→ B(p), soit X = X 1 + · · · + X n , alors X(Ω) = J0 ; n K, l’événement ¡ ¢(X = k) se réalise si et seulement si k


des variables X i prennent la valeur 1 et les n − k autres la valeur 0, il y a donc nk cas possibles incompatibles deux à
deux, calculons la probabilité d’un cas : notons X i 1 , . . . , X i k celles qui prennent la valeur 1 et X i k+1 , . . . , X i n les autres alors
du fait de l’indépendance, on a :
P([X i 1 = 1] ∩ · · · ∩ [X i k = 1] ∩ [X i k+1 = 0] ∩ · · · ∩ [X i n = 0]) =
¡n ¢ k P(X i 1 = 1) × · · · × P(X i k = 1) × P(X i k+1 = 0) × · · · × P(X i n = 0) = p k (1 − p)n−k .
n−k
par conséquent P(X = k) = k p (1 − p) . 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 261 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Couples de variables aléatoires Chapitre 26 : Variables aléatoires sur un univers fini

À retenir
Si X ,→ B(n, p), alors on peut écrire X = X 1 + · · · + X n où les X i sont mutuellement indépendantes et
suivent toutes la loi de Bernoulli de paramètre p. On a donc E(X) = E(X 1 )+· · ·+ E(X n ) = p +· · ·+ p = np.

NE
FExercice 26.9 Soit (Xk )k∈J1;m K m variables aléatoires sur (Ω, P) qui suivent toutes une loi binomiale de paramètre (n k , p)
(respectivement) avec p ∈ [0; 1], et sont mutuellement indépendantes, alors :
X 1 + · · · + X m ,→ B(n 1 + · · · + n m , p).

Théorème 26.17 (espérance d’un produit)


Si X et Y sont deux variables aléatoires indépendantes sur (Ω, P), alors E(XY) = E(X)E(Y), mais la
réciproque est fausse. Le résultat se généralise au produit de n variables aléatoires mutuellement
indépendantes.

Preuve : Soit Z = (X, Y) et u : (x, y) 7→ x y, alors :

E(XY) = E(u(Z)) =
X
u(x, y)P(Z = (x, y)) (théorème de transfert)
(x,y)∈Z(Ω)

AIG
x yP(X = x) × P(Y = y)) (indépendance)
X
=
(x,y)∈X(Ω)×Y(Ω)
à !à !
X X
= xP(X = x) yP(Y = y)
x∈X(Ω) y∈Y(Ω)

= E(X)E(Y)

une récurrence permet ensuite la généralisation. 

FExercice 26.10 Soit X une variable aléatoire qui suit une loi uniforme sur {−1; 0; 1} et Y la fonction indicatrice de
l’événement (X = 0). Montrer que E(XY) = E(X)E(Y) mais que X et Y ne sont pas indépendantes.

Théorème 26.18 (variance et indépendance)


Si X et Y sont deux variables aléatoires indépendantes sur (Ω, P), alors V(X + Y) = V(X) + V(Y). Le
résultat se généralise au cas de n variables aléatoires mutuellement indépendantes.
NT
Preuve : D’après la formule de Kœnig-Huygens, V(X + Y) = E([X + Y]2 ) − [E(X) + E(Y)]2 avec la linéarité de l’espérance,
on a donc V(X + Y) = E(X 2 ) + E(Y 2 ) + 2E(XY) − E(X)2 − E(Y)2 − 2E(X)E(Y) = V(X) + V(Y) car les variables aléatoires étant
indépendantes, on a E(XY) = E(X)E(Y). Une récurrence permet ensuite la généralisation. 

À retenir
Si X ,→ B(n, p), alors on peut écrire X = X 1 + · · · + X n où les X i sont mutuellement indépendantes et
suivent toutes la loi de Bernoulli de paramètre p. On a donc V(X) = V(X 1 ) + · · · + V(X n ) = p(1 − p) +
· · · + p(1 − p) = np(1 − p).

4) Covariance
MO

Définition 26.17
Soient X et Y deux variables aléatoires réelles sur (Ω, P). On appelle covariance de X et Y le réel défini
par :
cov(X, Y) = E([X − E(X)][Y − E(Y)]).

Remarque 26.18 – C’est l’espérance du produit des variables centrées associées à X et Y. Lorsque Y = X on a
cov(X, X) = V(X) > 0, on dit que la covariance est positive.

Théorème 26.19 (propriétés de la covariance)


Soient X et Y deux variables aléatoires réelles sur (Ω, P) :
• cov(X, Y) = E(XY) − E(X)E(Y) ;
• cov(Y, X) = cov(X, Y), la covariance est symétrique ;
• La covariance est bilinéaire : cov(aX + Y, Z) = acov(X, Z) + cov(Y, Z) (même chose sur la deuxième
variable) ;

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 262 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 26 : Variables aléatoires sur un univers fini
• V(X + Y) = V(X) + V(Y) + 2cov(X, Y) ;
• Si X et Y sont indépendantes, alors cov(X, Y) = 0 mais la réciproque est fausse.
Preuve :
• On a [X − E(X)][Y − E(Y)] = XY − E(X)Y − E(Y)X + E(X)E(Y), on applique ensuite la linéarité de l’espérance ce qui donne

NE
la formule ;
• immédiat ;
• On utilise la formule ci-dessus et la linéarité de l’espérance : E([aX +Y]Z)−E(aX +Y)E(Z) = aE(XZ)+E(YZ)−aE(X)E(Z)−
E(Y)E(Z) = acov(X, Z) + cov(Y, Z). Par symétrie on a la linéarité sur la deuxième variable.
• D’après un calcul fait plus haut : V(X + Y) = E([X + Y]2 ) − [E(X) + E(Y)]2 avec la linéarité de l’espérance, on a donc
V(X + Y) = E(X 2 ) + E(Y 2 ) + 2E(XY) − E(X)2 − E(Y)2 − 2E(X)E(Y) = V(X) + V(Y) + 2cov(X, Y).
• On sait que si X et Y sont indépendantes alors E(XY) = E(X)E(Y) ce qui donne cov(X, Y) = 0. 
Remarque 26.19 – La covariance est une forme bilinéaire symétrique et positive, mais ce n’est pas un produit
scalaire car V(X) = 0 n’entraîne pas X = 0, mais seulement P(X = m) = 1. On peut cependant établir l’inégalité
de Cauchy-Schwarz pour ce type d’applications, ce qui ce traduit ici par :

cov(X, Y)2 6 V(X)V(Y) ou encore |cov(X, Y)| 6 σ(X)σ(Y)

AIG
FExercice 26.11 On lance deux fois un dé équilibré dans les mêmes conditions, on note S la somme obtenue et D la
différence (premier moins deuxième). Calculer cov(S, D). Les variables aléatoires S et S sont-elles indépendantes ?

Théorème 26.20
Si X 1 , . . . , X n sont des variables aléatoires sur (Ω, P) alors :
n
V(X 1 + · · · + X n ) = V(X i ) + 2
P P
cov(X i , Y j ).
i =1 16i < j 6n
Si les variables aléatoires X i sont deux à deux indépendantes, alors :
n
V(X 1 + · · · + X n ) = V(X i ).
P
i =1

Preuve : La deuxième formule découle de la première, et la première se montre par récurrence sur n. 

Définition 26.18
Lorsque cov(X, Y) = 0 on sait que les variables aléatoires ne sont pas forcément indépendantes, on dit
NT
qu’elles sont non corrélées.
cov(X,Y)
Plus généralement, lorsque V(X) et V(Y) sont non nuls, on sait que σ(X)σ(Y) ∈ [−1; 1], ce nombre est
appelé coefficient de corrélation entre X et Y.

FExercice 26.12 On suppose que V(X) et V(Y) sont non nuls et le coefficient de corrélation vaut ±1. Montrer qu’il existe
deux réels a et b tel que P(Y = aX + b) = 1, c’est à dire il est presque sûr que Y = aX + b.

FExercice 26.13 Montrer que deux variables de Bernoulli sont indépendantes si et seulement si elles sont non corrélées.

V SOLUTION DES EXERCICES


MO

n o
Solution 26.1 Ω = J1 ; 6K2 , X(Ω) = J2 ; 12K et P(X = k) = P( (i , j ) ∈ J1 ; 6K2 / i + j = k ). On doit avoir j = k −i ∈ J1 ; 6K, d’où
k−1
k−1
k − 6 6 i 6 k − 1 avec i ∈ J1 ; 6K, d’où la discussion : si k 6 6, alors P(X = k) = P({(i , k − i )}) =
P
36 , et si 7 6 k 6 12 alors
i =1
6
13−k
P(X = k) = P({(i , k − i )}) =
P
36 .
i =k−6

Solution 26.2 Il suffit d’écrire que (X 6 k) = (X = k) ∪ (X 6 k − 1) et que (X > k) = (X = k) ∪ (X > k + 1) (réunion


d’événements incompatibles).

Solution 26.3 X(Ω) = J−5 ; 5K, si k = i − j alors i = k + j ∈ J1 ; 6K d’où 1 − k 6 j 6 6 − k, d’où la discussion, si k 6 0, alors
6 6−k
P(X = k) = P( (k + j , j ) ) = 6+k
36 , et si k > 1, P(X = k) = P( (k + j , j ) ) = 6−k
P © ª P © ª
36 .
j =1−k j =1
1 6−k
P(|X| = k) = P((X = k) ∪ (X = −k)) = 6 si k = 0 et 18 si k ∈ J1 ; 5K.
P(X 2 = k 2 ) = P((X = k) ∪ (X = −k)) = 16 et 6−k
12 si k ∈ J1 ; 5K.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 263 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 26 : Variables aléatoires sur un univers fini

Solution 26.4 Soit X le nombre de rencontres, on demande E(X), notons X i la variable aléatoire qui vaut 1 si le i e tirage
n n
est une rencontre, 0 sinon (variable de Bernoulli), on a alors X = X 1 + · · · + X n et donc E(X) = E(X i ) = P(X i = 1). On
P P
i =1 i =1
(n−1)! 1
peut modéliser l’expérience par le choix équiprobable d’une permutation des n boules, on alors P(X i = 1) = n! = n
(autrement dit X i ,→ B( n1 )) et donc E(X) = 1.

NE
n n
(2n+1)(n+1) e(e n −1)
Solution 26.5 E(X 2 ) = k 2 n1 = , et E(e X ) = e k n1 =
P P
6 n(e−1) .
k=1 k=1

Solution 26.6
n n n
2 2 (2n+1)n(n+1) 2n+1 n(n+1)
E(X) = ak 2 = E(X 2 ) = ak 3 =
P P P
1/ On doit avoir ak = 1 d’où a = n(n+1) . n(n+1) 6 = 3 . 2 ,
k=1 k=1 k=1
n(n+1) 2
V(X) = E(X 2 ) − E(X)2 = 2 − (2n+1)
9 = (n−1)(n+2)
18 .
2/ f (t ) = E(X 2 )−2t E(X)+ t = (t −E(X))2 +E(X )−E(X) = (t −E(X))2 +V(X), cette quantité est minimale lorsque t = E(X)
2 2 2

et le minimum est V(X).

1 1
Solution 26.7 On a X(Ω) = Y(Ω) = J1 ; 6K, pour (i , j ) ∈ J1 ; 6K, on a p i j = 0 si i > j , p i i = 36 et p i j = 18 si i < j , d’où la
table :

AIG
Y 1 2 3 4 5 6 pi •
X
1 1 1 1 1 1 11
1 36 18 18 18 18 18 36
1 1 1 1 1 9
2 0 36 18 18 18 18 36
1 1 1 1 7
3 0 0 36 18 18 18 36
1 1 1 5
4 0 0 0 36 18 18 36
1 1 1
5 0 0 0 0 36 18 12
1 1
6 0 0 0 0 0 36 36
p• j 1 1 5 7 9 11 1
36 12 36 36 36 36 1

Solution 26.8 Soit Z = X + Y, alors Z(Ω) = J2 ; 2n K et :


NT
min(k−1,n)
P(Z = k) = P(X = i ) × P(Y = k − i )
X
i =max(k−n,1)
min(k − 1, n) − max(k − n, 1) + 1 n − |n + 1 − k|
= =
n2 n2
(
k−1
n2
si k 6 n + 1
= 2n+1−k
n2
sinon
n−|k|
De même, en posant H = X − Y, on montre que H(Ω) = J−(n − 1) ; (n − 1)K et P(H = k) = n2
.

Solution 26.9 Par récurrence sur m, il suffit de montrer le théorème pour m = 2 : soit Z = X 1 +X 2 , alors Z(Ω) = J0 ; n 1 +n 2 K
et :
k
P(Z = k) = P([X 1 = i ] ∩ [X 2 = k − i ])
X
MO

i =0
k
P(X 1 = i ) × P(X 2 = k − i ) (indépendance)
X
=
i =0
à ! à ! à !
k n
1 i n 1 −i n 2 k−i n 2 −k+i n
X
= p (1 − p) p (1 − p) (en convenant que = 0 si k > n ou k < 0)
i =0 i k −i k
à ! à !
k n
1 i n 1 −i n 2
p k−i (1 − p)n2 −k+i
X
= p (1 − p)
i =0 i k −i
à !à !
k n n2
1
p k (1 − p)n1 +n2 −k
X
=
i =0 i k −i
à !à !
k n n2
k n 1 +n 2 −k
X 1
= p (1 − p)
i =0 i k −i
à !
n1 + n2 k
= p (1 − p)n1 +n2 −k (formule de Vandermonde)
k

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 264 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 26 : Variables aléatoires sur un univers fini

donc X 1 + X 2 ,→ B(n 1 + n 2 , p). Le passage du rang n au rang n + 1 se ramène au rang 2 en posant X 02 = X 2 + · · · + X n+1 .

Solution 26.10 Ces variables ne sont pas indépendantes, car P([X = 1] ∩ [Y = 1]) = P([X = 1] ∩ [X = 0]) = 0 alors que
P(X = 1) × P(Y = 1) = 91 . D’autre part E(X) = 0, E(Y) = 13 , et E(XY) = 0 car XY est une variable certaine égale à 0, on a donc
E(XY) = E(X)E(Y).

NE
Solution 26.11 Soit X le premier résultat et Y le second, alors S = X + Y et D = X − Y, on calcule donc cov(X + Y, X − Y) =
V(X) − cov(X, Y) + cov(Y, X) − V(Y) = 0 car X et Y suivent la même loi uniforme sur J1 ; 6K. Les deux variables aléatoires ne
sont pas indépendantes car par exemple P([S = 3] ∩ [D = 0]) = 0 alors que P(S = 3) et P(D = 0) ne sont pas nulles.

Solution 26.12 Reprendre la démonstration du cas d’égalité de Cauchy-Schwarz vue dans les espaces euclidiens en
partant de V(λX + Y) > 0 pour tout réel λ.

Solution 26.13 Il y a déjà un sens connu : indépendantes implique non corrélées. Supposons X et Y non corrélées
et suivant une loi de Bernoulli de paramètres respectifs p 1 et p 2 , alors XY suit une loi de Bernoulli, de paramètre
p = E(XY) = E(X)E(Y) = p 1 p 2 , par conséquent P([X = 1] ∩ [Y = 1]) = P(X = 1) × P(Y = 1), les événements (X = 1) et (Y = 1)
sont indépendants, donc (X = 0) et (Y = 1) aussi etc. Les deux variables aléatoires sont indépendantes.

AIG
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 265 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 27

Espaces euclidiens

Sommaire
I Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266

AIG
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
2) Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
3) Bases orthonormales dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
4) Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
5) Distance d’un vecteur à un s.e.v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
II Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
2) Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
3) Espace vectoriel euclidien orienté - Produit mixte . . . . . . . . . . . . . . . . . . . . . . 273
III Endomorphismes orthogonaux en dimension 1 et 2 . . . . . . . . . . . . . . . . . . . . . . . 274
1) En dimension 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
2) En dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
NT
Dans tout le chapitre, E désigne un R-espace vectoriel.

I PRODUIT SCALAIRE

1) Définitions

Définition 27.1
Un produit scalaire sur E est une forme bilinéaire sur E, généralement notée (.|.), qui à tout couple de
vecteurs (x, y) associe le réel (x|y), et qui vérifie :
– ∀ x, y ∈ E, (x|y) = (y|x) (symétrie).
– ∀ x ∈ E, (x|x) > 0 (positive).
– ∀ x ∈ E, si (x|x) = 0, alors x = 0 (définie).
MO

Lorsque E est muni d’un produit scalaire (.|.), on dit que (E, (.|.)) est un espace euclidien s’il est de
dimension finie, ou un espace préhilbertien réel sinon.

ZExemples :
n
– Produit scalaire canonique de Rn : (x|y) =
P
xi y i .
i =1
b
– E = C 0 ([a; b], R) et ∀ f , g ∈ E, ( f |g ) = a f (t )g (t ) d t (avec a < b).
R

– E = R[X], on définit un produit scalaire sur E en posant :


Z b
∀ P, Q ∈ E, (P|Q) = P(t )Q(t ) d t (avec a < b)
a

– Pour x, y ∈ R2 , ϕ(x, y) = x 1 y 1 + x 1 y 2 + x 2 y 1 + 2x 2 y 2 est un produit scalaire sur R2 , mais pas ψ(x, y) =


x1 y 1 + x1 y 2 + x2 y 1 + x2 y 2 .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 266 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Produit scalaire Chapitre 27 : Espaces euclidiens

– E = Rn [X], soient a 0 , . . . , a n des réels distincts, on définit un produit scalaire sur E en posant :
n
X
∀ P, Q ∈ E, (P|Q) = P(a k )Q(a k )
k=0

NE
Théorème 27.1 (Inégalité de Cauchy-Schwarz)
∀ x, y ∈ E, (x|y)2 6 (x|x)(y|y).

Preuve : ∀ λ ∈ R, (x + λy|x + λy) > 0, ce qui donne en développant : λ2 (y|y) + 2λ(x|y) + (x|x) > 0. Lorsque (y|y) 6= 0,
le discriminant du trinôme en λ doit être négatif ou nul (s’il était strictement positif il y aurait deux racines réelles
distinctes r 1 < r 2 et le trinôme serait strictement négatif dans l’intervalle ouvert ]r 1 ; r 2 [), ce qui donne l’inégalité.
Lorsque (y|y) = 0, alors y = 0 et l’inégalité est triviale. 

Théorème 27.2 (cas d’égalité)


∀ x, y ∈ E, (x|y)2 = (x|x)(y|y) ⇐⇒ (x, y) est liée.

AIG
Preuve : Celle-ci est simple et laissée en exercice. 

Définition 27.2 (norme euclidienne)


p
Soit x ∈ (E, (.|.)), on pose kxk = (x|x), c’est la norme euclidienne de x. Un vecteur de norme égale à 1
est dit unitaire. L’inégalité de Cauchy-Schwarz peut alors s’écrire : |(x | y)| 6 kxkkyk.

1
Remarque 27.1 – Si x est non nul alors le vecteur kxk x est unitaire.

Théorème 27.3 (Propriétés)


• kxk = 0 ⇐⇒ x = 0.
• ∀ λ ∈ R, kλxk = |λ|kxk.
• kx + yk 6 kxk + kyk (inégalité triangulaire).
NT
Preuve : Celle-ci est simple et laissée en exercice. 

Définition 27.3 (écart angulaire)


³ ´
|(x|y)| (x|y)
Soient x et y deux vecteurs non nuls, on a kxkkyk 6 1, donc en posant θ = arccos kxkkyk ∈ [0; π],
on peut écrire : (x | y) = kxkyk cos(θ), ce réel θ est appelé écart angulaire entre les vecteurs x et y.
Lorsque θ ∈ [0; π2 ] (c’est à dire (x | y) > 0) on dit que les vecteurs sont dans le même sens, et lorsque
θ ∈ [ π2 ; π] (c’est à dire (x | y) 6 0) on dit que les vecteurs sont dans le sens contraire.

FExercice 27.1 Soient x, y ∈ E deux vecteurs non nuls, montrer que :


MO

1/ |kxk − kyk| 6 kx + yk.


2/ x et y sont colinéaires si et seulement si leur écart angulaire vaut 0 ou π (pour x et y non nuls).
3/ kx + yk = kxk + kyk ⇐⇒ ∃ α > 0, x = αy.

ZExemples :
– E = Rn , avec le produit scalaire canonique, l’inégalité de Cauchy-Schwarz s’écrit :
à !2 à !à ! s
n n n n
x i2 y i2
X X X X
xi y i 6 et kxk = x i2
i =1 i =1 i =1 i =1

Rb
– E = C 0 ([a; b], R) avec le produit scalaire : ( f |g ) = a f (t )g (t ) d t , l’inégalité de Cauchy-Schwarz s’écrit :
³R ´2 ³R ´ ³R ´ q
b
6 ab f 2 ab g 2 et k f k =
Rb
2
a f (t ) f g (t ) d t a f .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 267 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Produit scalaire Chapitre 27 : Espaces euclidiens

À retenir : Relations entre le produit scalaire et la norme


• kx + yk2 = kxk2 + kyk2 + 2(x|y) et kx − yk2 = kxk2 + kyk2 − 2(x|y).
• kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ) (théorème de la médiane ou identité du parallélogramme).
• (x|y) = 14 kx + yk2 − kx − yk2 = 12 kx + yk2 − kxk2 − kyk2 = 12 kxk2 + kyk2 − kx + yk2 (identités de
¡ ¢ ¡ ¢ ¡ ¢

NE
polarisation).

2) Orthogonalité

Définition 27.4
Soient x, y ∈ E, et soient F, G deux s.e.v de E, on dit que :
• x et y sont orthogonaux lorsque (x|y) = 0.
• F et G sont orthogonaux lorsque ∀ x ∈ F, ∀ y ∈ G, (x|y) = 0.
On appelle orthogonal de A (une partie de E), l’ensemble des vecteurs de E orthogonaux à tous les
vecteurs de A, notation : A⊥ = {x ∈ E / ∀ y ∈ A, (x|y) = 0}. On remarquera que dire que F et G sont
orthogonaux équivaut à F ⊂ G⊥ , ou encore G ⊂ F⊥ .

AIG
Remarque 27.2 :
– Le seul vecteur orthogonal à tous les autres est le vecteur nul, i.e. E⊥ = {0}, car le produit scalaire est
défini.
– Deux vecteurs non nuls sont orthogonaux si et seulement si leur écart angulaire vaut π2 .

FExercice 27.2 Si A est une partie de E, montrer que A⊥ est un sev de E.

Théorème 27.4 (de Pythagore)


Deux vecteurs x et y sont orthogonaux si et seulement si kx + yk2 = kxk2 + kyk2 .

Théorème 27.5
NT
Si F est un s.e.v de E, alors F⊥ est un s.e.v de E en somme directe avec F.

Preuve : Pour y ∈ E, on pose f y : E → R définie par f y (x) = (x|y), alors f y est une forme linéaire sur E, et il est facile de
voir que F⊥ = ker( f y ), ce qui prouve que F⊥ est un s.e.v de E. Si x ∈ F ∩ F⊥ , alors on doit avoir (x|x) = 0, d’où x = 0. 
T
y∈F

Propriétés :
– Si A et B sont deux parties de E telles que A ⊂ B, alors B⊥ ⊂ A⊥ .
– Si A est une partie de E, alors A ⊂ (A⊥ )⊥ .
– Si F et G sont deux sev de E, alors (F + G)⊥ = F⊥ ∩ G⊥ .

Théorème 27.6
Si E est un espace euclidien de dimension n, et si F est un s.e.v de E de dimension p, alors dim(F⊥ ) =
MO

n − p, on a donc :
E = F ⊕ F⊥ .

Preuve : On sait que dim(F ⊕ F⊥ ) 6 n, d’où dim(F⊥ ) 6 n − p.


Soit f : E → Rp l’application définie par f (x) = ((e 1 |x), . . . , (e p |x)) où B = (e 1 , . . . , e p ) désigne une base de F, alors il est
facile de voir que f est linéaire et que ker( f ) = F⊥ . D’après le théorème du rang, on a n = dim(F⊥ ) +rg( f ) 6 dim(F⊥ ) + p,
ce qui donne dim(F⊥ ) > n − p, et donc dim(F⊥ ) = n − p. 

Attention !
R1
Ce théorème est faux en dimension ¤infinie. Par exemple dans E = R[X] avec le produit scalaire (P | Q) = 0 P(t )Q(t ) d t ,
l’orthogonal de F = Vect X, X 2 , . . . est réduit au polynôme nul alors que F 6= E.
£

Quelques conséquences :
– (F⊥ )⊥ = F.
– (F ∩ G)⊥ = F⊥ + G⊥ .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 268 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Produit scalaire Chapitre 27 : Espaces euclidiens

Théorème 27.7 (représentation des formes linéaires sur E)


Soit E un euclidien et f : E → R une forme linéaire, alors il existe un unique vecteur a ∈ E tel que
∀ x ∈ E, f (x) = (a|x).

NE
Preuve : Pour l’existence : si f est nulle alors on peut prendre a = 0. Si f est non nulle, alors ker( f ) est un hyperplan de
λ
E, donc ker( f )⊥ = Vect [u] est une droite vectorielle. Posons f (u) = λ et prenons a = kuk 2 u. Il est facile de vérifier que

pour tout x ∈ E, f (x) = (a|x).


Si b est un autre vecteur qui convient, alors ∀ x ∈ E, (a − b|x) = 0, donc a − b = 0. 

3) Bases orthonormales dans un euclidien

Définition 27.5
Une famille (x 1 , . . . , x p ) de E est dite orthonormale lorsque ∀ i , j ∈ J1 ; p K, (e i |e j ) = δi j . Cette famille
est dite orthogonale lorsque ∀ i , j ∈ J1 ; p K, i 6= j =⇒ (e i |e j ) = 0.

AIG
Théorème 27.8
Une famille orthogonale ne contenant pas le vecteur nul est libre. En particulier, une famille ortho-
normale est libre.
p
λk e k = 0, alors soit i ∈ J1 ; p K, on
P
Preuve : Soit (e 1 , . . . , e p ) une famille orthogonale ne contenant pas le vecteur nul, si
k=1
p p
λk e k ) = λk (e i |e k ) = λi ke i k2 = 0, ce qui entraîne λi = 0.
P P
a (e i | 
k=1 k=1

Cas particulier
Si E est un euclidien de dimension n, alors une famille orthonormale de n vecteurs est une base de E, on
dit que l’on a une base orthonormale (b.o.n en abrégé). Par exemple, la base canonique que Rn est une base
orthonormale pour le produit scalaire canonique.

Théorème 27.9
p p
NT
e i k2 = ke i k2 .
P P
Si (e 1 , . . . , e p ) est une famille orthogonale, alors : k
k=1 i =1

p p p
e i k2 = ke i k2 .
P P P
Preuve : En effet, on a k (e i |e j ) = 
i =1 i , j =1 i =1

Théorème 27.10 (interêt d’une b.o.n)


Soit B = (e 1 , . . . , e n ) une b.o.n de E, alors ∀ x, y ∈ E :
n
P
•x= (x|e i )e i , autrement dit, la coordonnée de x sur e i est (x|e i ) ;
i =1
n
x i y i , expression analogue au produit scalaire canonique de Rn ;
P
• (x|y) =
i =1
n
• kxk2 = x i2 .
P
MO

i =1
avec x i = (x|e i ) et y i = (y|e i ) les coordonnés de x et de y.
n n
Preuve : Soit CoordB (x) = (λ1 , . . . , λn ), on a (x|e k ) = ( λi e i |e k ) = λi (e i |e k ) = λk . Pour les deux autres points, il suffit
P P
i =1 i =1
de développer le produit scalaire. 

Attention !
Le théorème ci-dessus est fondamental et démontre l’interêt des b.o.n. dans les espaces euclidiens.

Théorème 27.11
Dans un espace euclidien, il existe toujours des bases orthonormales.

e1
Preuve : Par récurrence sur n = dim(E) : pour n = 1, on a E = Vect [e 1 ], une b.o.n de E est (e 10 ) avec e 10 = ke 1 k .
Supposons le théorème vrai au rang n − 1 (n > 1), et soit e 1 un vecteur unitaire de E, soit F = Vect [e 1 ]⊥ , alors F est
un s.e.v de dimension n − 1, soit (e 2 , . . . , e n ) une b.o.n de F, il est facile de voir que (e 1 , e 2 , . . . , e n ) est une b.o.n de E. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 269 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Produit scalaire Chapitre 27 : Espaces euclidiens

4) Projections orthogonales

Définition 27.6
Soit p ∈ L (E) une projection (p ◦ p = p), on dit que p est une projection orthogonale lorsque ker(p) =
ker(p − id)⊥ . Si F est un s.e.v de E, la projection orthogonale sur F, notée p F , est la projection sur F

NE
parallèlement à F⊥ .

Remarque 27.3 – Si F est un s.e.v de E, alors la projection orthogonale sur F⊥ est id −p F .

Théorème 27.12 (projét orthogonal sur un s.e.v.)


p
P
Si F est un s.e.v de E, et si (e 1 , . . . , e p ) est une b.o.n de F, alors ∀ x ∈ E, p F (x) = (x|e i )e i .
i =1

n
Preuve : Soit (e p+1 , . . . , e n ) une b.o.n de F⊥ , alors B = (e 1 , . . . , e n ) est une b.o.n de E, donc x =
P
(x|e i )e i , ce qui donne
i =1
p n
(x|e i )e i , la première somme désigne un vecteur de F, et la seconde un vecteur de F⊥ , donc
P P
x= (x|e i )e i +

AIG
i =1 i =p+1
p
P
p F (x) = (x|e i )e i . 
i =1

Remarque 27.4 – On peut en déduire que : si E est un espace préhilbertien réel, et si F est un sev de E
p
de dimension finie, alors E = F ⊕ F⊥ , car si (e 1 , . . . , e p ) est une b.o.n de F, alors le vecteur x − (x|e i )e i est dans
P
i =1
F⊥ .
u
ZExemple : Si D = Vect [u] est une droite vectorielle, alors (e 1 = kuk ) est une b.o.n de D, donc ∀ x ∈ E, p D (x) =
(x|u)
(x|e 1 )e 1 , c’est à dire : p D (x) = kuk2
.u.

Théorème 27.13 (procédé d’orthonormalisation de Schmidt 1 )


Soit E un espace préhilbertien réel, et soit (e 1 , . . . , e n ) une famille libre de E, alors il existe une unique
famille orthonormale (v 1 , . . . , v n ) de E telle que :
NT
½
Vect [e 1 , . . . , e i ] = Vect [v 1 , . . . , v i ]
∀ i ∈ J1 ; n K, .
(e i |v i ) > 0

Preuve : On pose v 1 = kee 11 k , on a bien Vect [e 1 ] = Vect [v 1 ] et (e 1 |v 1 ) > 0.


Supposons les vecteurs v 1 , . . . , v i construits et vérifiant les conditions, on pose e i0 +1 = p F⊥ (e i +1 ) où Fi = Vect [v 1 , . . . , v i ] =
i
i
Vect [e 1 , . . . , e i ], ce qui donne e i0 +1 (e i +1 |v k )v k , ce vecteur e i0 +1
P
= e i +1 − est non nul et dans Fi +1 , on pose ensuite v i +1 =
k=1
e i0 +1
ke i0 +1 k
, il est facile de voir que Vect [e 1 , . . . , e i +1 ] = Vect [v 1 , . . . , v i +1 ]. D’autre part, (e i +1 |v i +1 ) = (e i0 +1 |v i +1 ) = ke i0 +1 k > 0.
On remarque qu’à chaque étape, il y a deux choix pour v i , mais la condition (e i |v i ) > 0 élimine une des deux
possibilités, ce qui entraîne l’unicité, car on doit prendre e i0 +1 dans Fi +1 ∩ F⊥
i
qui est une droite vectorielle. 
Remarque 27.5 – Si (e 1 , . . . , e n ) une base de E, alors la famille (v 1 , . . . , v n ) obtenue par la méthode Schmidt est
MO

une b.o.n de E.

FExercice 27.3 Soit E = R3 , muni du produit scalaire canonique, on pose v 1 = (1, 1, 0), v 2 = (1, 0, 1) et v 3 = (0, 1, 1).
Appliquer la méthode de Schmidt à la base (v 1 , v 2 , v 3 ).

Dans la suite, (E, (.|.)) désigne un espace euclidien.

5) Distance d’un vecteur à un s.e.v


Soit F un s.e.v de E et soit x ∈ E, pour tout vecteur y ∈ F, on a :

kx − yk2 = k(p F (x) − y) + p F⊥ (x)k2 = kp F (x) − yk2 + kp F⊥ (x)k2

on voit donc que ∀ y ∈ E, kx − yk2 > kp F⊥ (x)k2 , et que cette valeur est un minimum atteint uniquement pour
y = p F (x),
1. SCHMIDT Erhard (1876 – 1959) : mathématicien allemand.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 270 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Endomorphismes orthogonaux Chapitre 27 : Espaces euclidiens

F⊥

x−y
p F⊥ (x)

NE
x

p F (x) y F

F IGURE 27.1: Projection orthogonale et distance à F

d’où le théorème :

Théorème 27.14
Soit F un s.e.v de E, pour x ∈ E, l’ensemble {kx − yk / y ∈ F} admet un minimum, celui-ci est atteint
uniquement pour y = p F (x), et vaut kp F⊥ (x)k. Ce minimum est appelé distance de x à F et noté d(x, F) :
d(x, F) = min kx − yk = kp F⊥ (x)k = kx − p F (x)k.

AIG
y∈F

ZExemples :
(x|u)
– Distance d’un vecteur à une droite : soit D = Vect [u] une droite vectorielle, on sait que p D (x) = kuk2
u,
q 2
d’où d(x, D) = kx − p D (x)k2 = kxk2 − (x|u)
p
kuk2
.
– Distance d’un vecteur à un hyperplan : soit H un hyperplan de E, alors H⊥ = Vect [u] est une droite
vectorielle, d’où d(x, H) = kp D (x)k = |(x|u)|
kuk .

II ENDOMORPHISMES ORTHOGONAUX

1) Définition

Définition 27.7
NT
Une isométrie vectorielle de E (ou endomorphisme orthogonal de E) est une application f ∈ L (E)
telle que ∀ x ∈ E, k f (x)k = kxk (on dit que f conserve la norme), l’ensemble des endomorphismes
orthogonaux de E est noté O(E).

ZExemple : idE , h−1 sont des endomorphismes orthogonaux de E.

Théorème 27.15
Un endomorphisme f de E est une isométrie si et seulement si f conserve le produit scalaire, c’est à
dire :
∀ x, y ∈ E, ( f (x)| f (y)) = (x|y).
MO

Preuve : Si f conserve le produit scalaire, il est clair que f conserve la norme, et donc f ∈ O(E).
Réciproquement, si f ∈ O(E) : soient x, y ∈ E, k f (x) + f (y)k2 = kxk2 + kyk2 + 2( f (x)| f (y)), mais on a aussi k f (x) +
f (y)k2 = k f (x + y)k2 = kx + yk2 = kxk2 + kyk2 + 2(x|y), d’où ( f (x)| f (y)) = (x|y). 

Théorème 27.16
O(E) est un groupe pour la loi ◦, plus précisément c’est un sous-groupe de GL(E), on l’appelle groupe
orthogonal de E.

Preuve : Si f ∈ O(E), alors si x ∈ ker( f ), on a k f (x)k = 0 = kxk, d’où x = 0, donc f est injective, comme E est de
dimension finie, on a bien f ∈ GL(E). D’autre part, idE ∈ O(E), soient f , g ∈ O(E), k f (g (x))k = kg (x)k = kxk, donc
f ◦ g ∈ O(E), kxk = k f ( f −1 (x))k = k f −1 (x)k, donc f −1 ∈ O(E). 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 271 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Endomorphismes orthogonaux Chapitre 27 : Espaces euclidiens

Définition 27.8 (symétrie orthogonale)


Soient s ∈ L (E) une symétrie (s 2 = idE ), soit F = ker(s − id) et G = ker(s + id), alors on sait que s est
la symétrie par rapport à F et parallèlement à G. On dit que s est une symétrie orthogonale lorsque
F = G⊥ , on parle alors de la symétrie orthogonale par rapport à F (notée s F ).

NE
Théorème 27.17
Une symétrie orthogonale est une isométrie vectorielle.

Preuve : Soit s F la symétrie orthogonale par rapport au s.e.v F, soit p = 12 (s + id), alors on sait que p est la projection
sur F parallèlement à ker(s + id) = F⊥ , donc p est une projection orthogonale. Soit x ∈ E, ks F (x)k2 = kp F (x) − p F⊥ (x)k2 =
kp F (x)k2 + kp F⊥ (x)k2 , or kxk2 = kp F (x) + p F⊥ (x)k2 = kp F (x)k2 + kp F⊥ (x)k2 = ks F (x)k2 , d’où s F ∈ O(E). 
Remarque 27.6 – Une projection orthogonale qui n’est pas l’identité, n’est pas une isométrie (elle n’est pas
bijective).

Définition 27.9 (réflexion)

AIG
Une réflexion est une symétrie orthogonale par rapport à un hyperplan.

FExercice 27.4 Soient u, v ∈ E deux vecteurs non nuls, de même norme et distincts. Montrer qu’il existe une unique
réflexion qui échange u et v.

Théorème 27.18
Soit f ∈ L (E), alors f ∈ O(E) ⇐⇒ f transforme une b.o.n en une b.o.n de E.

Preuve : Soit B = (e 1 , . . . , e n ) une b.o.n de E, on a (e i |e j ) = δi , j . Si f ∈ O(E), alors ( f (e i )| f (e k )) = (e i |e j ) = δi , j , donc


B0 = ( f (e 1 ), . . . , f (e n )) est une b.o.n de E.
n n
Réciproquement, si B0 = ( f (e 1 ), . . . , f (e n )) est une b.o.n de E, alors pour x ∈ E, k f (x)k2 = k x i f (e i )k2 = x i2 =
P P
i =1 i =1
kxk2 , donc f ∈ O(E). 
NT
2) Matrices orthogonales

Théorème 27.19
Soit f ∈ L (E), soit B une base orthonormale de E et soit A = mat( f ) ∈ Mn (R), alors :
B
f ∈ O(E) ⇐⇒ t A × A = In .
n
Preuve : Soit B = (e 1 , . . . , e n ) une b.o.n., on a [t A × A]i , j = a k,i a k, j = ( f (e i )| f (e j )) = δi , j , donc t A × A = In .
P

k=1

À retenir
Plus généralement, si x 1 , . . . , x p est une famille de vecteurs de E et si A désigne la matrice des coordon-
nées de cette famille dans une b.o.n., alors t A × A est la matrice carrée de taille p dont le terme général
MO

est (x i |x j ), cette matrice est appelée matrice de Gram de la famille.

Définition 27.10
Soit A ∈ Mn (R), on dit que A est une matrice orthogonale lorsque t A × A = In , l’ensemble des matrices
orthogonales de taille n est noté On (R).

Théorème 27.20 (Propriétés des matrices orthogonales)


Soit A ∈ Mn (R) :
• A ∈ On (R) si et seulement si A est inversible et A−1 = t A.
• A ∈ On (R) si et seulement si les vecteurs colonnes de A forment une b.o.n de Rn .
• Si A ∈ On (R), alors det(A) = ±1 (réciproque fausse). On en déduit que si f ∈ O(E), alors det( f ) = ±1.
• On (R) est un groupe multiplicatif, c’est en fait un sous-groupe de (GLn (R), ×), que l’on appelle

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 272 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Endomorphismes orthogonaux Chapitre 27 : Espaces euclidiens
groupe orthogonal de type n sur R.

Preuve :
• A ∈ On (R) si et seulement si t A × A = In ⇐⇒ A est inversible et A−1 = t A.
• A ∈ On (R) si et seulement si f A , l’endomorphisme de Rn canoniquement associé à A est un endomorphisme orthogonal

NE
(la base canonique étant une b.o.n. pour le produit scalaire canonique), ce qui équivaut f A transforme la base canonique
en une b.o.n. de Rn (cette base est constituée des vecteurs colonnes de A).
• Si A ∈ On (R) alors t A × A = In , on en déduit que det(t A × A) = 1 = det(A)2 , et donc det(A) = ±1. A est la matrice de
f ∈ O(E) dans une base orthonormale, alors Aµ ∈ On ¶(R) donc det(A) = ±1, c’est à dire det( f ) = ±1. Pour la réciproque
1 1
fausse, considérer par exemple la matrice A = .
0 1
• Laissé en exercice. 

Définition 27.11
© ª
Il est facile de vérifier que l’ensemble f ∈ O(E) / det( f ) = 1 est un sous-groupe de (O(E), ◦). On
l’appelle groupe des rotations et on le note SO(E) groupe spécial orthogonal de E (parfois noté
O+ (E)). On a donc SO(E) = { f ∈ O(E) / det( f ) = 1}.
De même, on vérifie que l’ensemble des matrices orthogonales de déterminant égal à 1 est un sous-

AIG
groupe de On (R), on le note SOn (R) et on l’appelle groupe spécial orthogonal de type n sur R (ou
groupe des matrices de rotation de taille n).

ZExemples :  
−1 1 −1 1
1 1 1 1
– Soit A = 12  , les vecteurs colonnes de A sont unitaires et deux à deux orthogonaux,
 
 1 −1 −1 1
−1 −1 1 1
donc A ∈ O4 (R), on a det(A) = 1, donc A est la matrice d’une rotation.
– Une réflexion n’est pas dans SO(E), en effet, soit s la réflexion par rapport à un hyperplan H, soit e n un
de la droite H⊥ , et
vecteur unitaire   soit (e 1 , . . . , e n−1 ) une b.o.n de H, alors B = (e 1 , . . . , e n ) est une b.o.n
1 0 ··· 0
0 . . .
 .. 
. 
NT
de E et mat(s) =  . , on voit donc que det(s) = −1.
 
B .
. 1 0

0 · · · 0 −1

À retenir : composée d’endomorphismes orthogonaux


En raisonnant sur le déterminant, on obtient :
• La composée de deux rotations est une rotation.
• La composée d’une rotation et d’une isométrie négative (det = −1) est une isométrie négative.
• La composée de deux isométries négatives est une rotation.

Théorème 27.21
MO

Soit f ∈ O(E), soit F un s.e.v de E, montrer que si F est stable par f , alors F⊥ aussi.

Preuve : Celle-ci est simple et laissée en exercice. 

3) Espace vectoriel euclidien orienté - Produit mixte


Soit (E, (.|.)) un espace euclidien orienté (on a donc choisi la classe des bases directes).

Théorème 27.22 (caractérisation des rotations)


Un endomorphisme f de E est une rotation si et seulement si f transforme une b.o.n.d en une b.o.n.d
(on dit que f conserve l’orientation).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 273 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Endomorphismes orthogonaux en dimension 1 et 2 Chapitre 27 : Espaces euclidiens
Preuve : Si f ∈ SO(E), soit B = (e 1 , . . . , e n ) une b.o.n.d de E, on sait que f transforme B en une b.o.n de E, B0 =
( f (e 1 ), . . . , f (e n )), le déterminant de la matrice de passage est le déterminant de f qui vaut 1, donc B0 est une base
directe.
Réciproquement : si f transforme une b.o.n.d B en une b.o.n.d B0 , alors on sait que f ∈ O(E), le déterminant de f
vaut ±1, or le déterminant de f est le déterminant de la matrice de passage de B à B0 et celui-ci est strictement positif,

NE
donc det( f ) = 1, i.e. f est une rotation. 

Théorème 27.23
Soit B une b.o.n.d de E, soit B0 une autre base orthonormale de E, alors :
• Si B0 est directe, alors detB0 = detB .
• Si B0 est indirecte, alors detB0 = − detB .

Preuve : Si B0 est indirecte, alors la matrice de passage de B à B0 a un déterminant strictement négatif, mais cette
matrice est une matrice orthogonale, donc son déterminant vaut −1. Or on a la relation detB = detB (B0 ) detB0 , et
donc detB = − detB0 . 

L’espace vectoriel E est euclidien, orienté et de dimension n.

AIG
Définition 27.12
Soit B = (e 1 , . . . , e n ) une b.o.n.d de E, soit (x 1 , . . . , x n ) une famille de vecteurs de E. On appelle pro-
duit mixte des vecteurs x 1 , . . . , x n , le réel noté [x 1 , . . . , x n ] et défini par : [x 1 , . . . , x n ] = detB (x 1 , . . . , x n ).
D’après le théorème précédent, ce nombre ne dépend pas de la b.o.n.d choisie.

Remarque 27.7 – Le produit mixte étant un déterminant, il hérite des propriétés de ce dernier.

Interprétation géométrique
– En dimension 2 : si E est un plan euclidien orienté et (u, v) est une base (quelconque) de E, alors [u, v]
est l’aire orientée du parallélogramme construit sur u et v, positive si (u, v) est dans le sens directe,
négative sinon. Lorsque (u, v) est liée, le résultat est encore valable car le produit mixte est nul dans ce
cas, et l’aire aussi.
NT
En effet : on construit une b.o.n.d (i , j ) de telle sorte que u = kuki , on a alors u(kuk, 0) et v(a, b) d’où
[u, v] = kukb or cette quantité représente effectivement l’aire annoncée (base fois hauteur).
– En dimension 3 : si E est un espace euclidien orienté de dimension 3, et (u, v, w) est une base (quel-
conque) de E, alors [u, v, w] est le volume orienté du parallélépipède construit sur u, v et w, positif si
(u, v, w) est dans le sens directe, négatif sinon. Lorsque (u, v, w) est liée, le résultat est encore valable
car le produit mixte est nul dans ce cas, et le volume aussi (vecteurs coplanaires).
En effet : on construit une b.o.n.d (i , j , k) de telle sorte que u = kuki , v = ai + b j et b > 0, on a alors
u(kuk, 0, 0), v(a, b, 0) et w(α, β, γ), d’où [u, v, w] = kukbγ = [u, v]γ (produit mixte [u, v] dans le plan
(i , j ) orienté par k), cette quantité représente effectivement le volume annoncé (base fois hauteur).

III ENDOMORPHISMES ORTHOGONAUX EN DIMENSION 1 ET 2


MO

1) En dimension 1
Si dim(E) = 1 et si f ∈ O(E), alors f est une homothétie de rapport λ ∈ R, mais f conserve la norme donc
∀ x ∈ E, kλxk = kxk, ce qui donne en prenant x 6= 0, |λ| = 1, d’où O(E) = {± idE } et SO(E) = {idE }.

2) En dimension 2
Soit E un plan euclidien orienté et soit f ∈ O(E), on peut effectuer la classification suivant les invariants
de f , c’est à dire suivent le s.e.v. F = ker( f − idE ).
– dim(F) = 2 : alors f = idE ∈ SO(E) .
– dim(F) = 1 : alors F = Vect [u] est une droite vectorielle (avec u unitaire) stable par f , donc F⊥ est
une droite vectorielle stable par f également et sur laquelle le seul vecteur invariant est 0, donc la
restriction de f à F⊥ est − idF⊥ . Soit v un vecteur unitaire de F⊥ , alors B = (u, v) est une b.o.n de E et
µ ¶
1 0
on a mat( f ) = , donc f est la réflexion d’axe F .
B 0 −1

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 274 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Endomorphismes orthogonaux en dimension 1 et 2 Chapitre 27 : Espaces euclidiens

Soit B0 = (i , j ) une b.o.n.d, il existe un réel θ tel que u = cos(θ/2)i + sin(θ/2) j , on prend alors v =
µ ¶
cos(θ/2) − sin(θ/2)
− sin(θ/2)i + cos(θ/2) j , la matrice de passage de B0 à B est P = , et la matrice
sin(θ/2) cos(θ/2)
µ ¶
cos(θ) sin(θ)
de f dans la base B0 est mat( f ) = .
sin(θ) − cos(θ)

NE
B0
µ ¶
a b
– dim(F) = 0, seul 0 est invariant par f , soit B = (i , j ) une b.o.n.d de E, alors mat( f ) = A = , avec
B c d

a 2 + c 2 = 1


b 2 + d 2 = 1 , avec les complexes z = a+i c et z 0 = b+i d , on a |z| = |z 0 | = 1, donc z = e i θ , z 0 = e i θ , avec
0



ab + cd = 0
(
b = cos(θ0 ) = − sin(θ)
Re(zz 0 ) = ab +cd = 0, donc cos(θ−θ ) = 0, d’où θ = θ+π/2+kπ, ce qui donne
0 0
,
d = sin(θ0 ) = cos(θ)
(
b = cos(θ0 ) = sin(θ)
ou bien , mais le second cas correspond à une réflexion d’après l’étude précé-
d = sin(θ0 ) = − cos(θ)
µ ¶

AIG
cos(θ) − sin(θ)
dente, il reste donc : mat( f ) = , cette matrice est notée R(θ), c’est la matrice d’une
B sin(θ) cos(θ)
rotation (déterminant 1). µ ¶
a
Soit u un vecteur non nul, et soit v = f (u), notons X = les coordonnées de u dans la base B, alors
b
µ ¶
a cos(θ) − b sin(θ)
les coordonnées de v sont X 0 = AX = , d’où l’affixe de v, z v = a cos(θ) − b sin(θ +
a sin(θ) + b cos(θ)
i (a sin(θ) + b cos(θ)) = e i θ (a + i b) = e i θ z u , donc θ est l’angle orienté des deux vecteurs u et v. On dit
que f est la rotation d’angle θ .

À retenir
En dimension 2, la matrice de la rotation d’angle θ est R(θ) dans toutes les b.o.n.d de E.

En résumé :
NT
→ SO(E) = { f ∈ O(E) / ∃ θ ∈ R, mat( f ) = R(θ)}, où B est une b.o.n.d quelconque de E
B µ ¶
cos(θ) sin(θ)
→ O (E) = { f ∈ O(E) / ∃ θ ∈ R, mat( f ) =

},
B sin(θ) − cos(θ)
où B est une b.o.n.d quelconque de E. Ce sont des réflexions d’axe Vect [u]
où u = cos(θ/2)i + sin(θ/2) j .
µ ¶
cos(θ) sin(θ)
→ SO2 (R) = {R(θ) / θ ∈ R} et O−2 ( R) = { / θ ∈ R}
sin(θ) − cos(θ)



x

D
D
MO


x→
2

− →
−
x =−
x→ −→
1 + x2 θ/2 →
−
θ



ı →

ı

x→
1 −−
x→
2

r (→

x)
s(→

x )=−
x→ −→
1 − x2

F IGURE 27.2: Réflexion et rotation


µ ¶
cos(θ) − sin(θ)
Propriété : L’application R : R → SO2 (R) définie par R(θ) = est un morphisme de groupes
sin(θ) cos(θ)
surjectif. En particulier, on a R(0) = I2 et ∀ θ, θ0 ∈ R, R(θ + θ0 ) = R(θ) × R(θ0 ), d’où R(θ)−1 = R(−θ).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 275 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 27 : Espaces euclidiens

Théorème 27.24 (composée de deux rotations)


Pour tous réels θ et θ0 , on a R(θ) × R(θ0 ) = R(θ + θ0 ). On en déduit qu’en dimension 2, le groupe des
rotations, (SO(E), ◦), est commutatif, ainsi que le groupe (SO2 (R), ×).

NE
Preuve : Celle-ci est simple et laissée en exercice. 
On en déduit également que R(−θ) × R(θ) = R(0) = I2 et donc :
la bijection réciproque de la rotation d’angle θ est la rotation d’angle −θ.

Composée de deux réflexions


Soit B = (i , j ) une b.o.n.d de E, soit s la réflexion d’axe Vect [u] et s 0 la réflexion d’axe Vect u 0 avec
£ ¤

u = cos(θ/2)i + sin(θ/2) j et u 0 = cos(θ0 /2)i + sin(θ0 /2) j . La matrice de s ◦ s 0 dans la base B est la matrice
cos(θ0 ) sin(θ0 )
µ ¶ µ ¶
cos(θ) sin(θ)
A= × = R(θ − θ0 ), donc s ◦ s 0 est la rotation d’angle θ − θ0 = 2(u 0 , u)
sin(θ) − cos(θ) sin(θ0 ) − cos(θ0 )
(mod 2π). Ce calcul montre en même temps, qu’une rotation peut s’écrire comme la composée de deux
réflexions dont une est arbitraire.

AIG
IV SOLUTION DES EXERCICES

v1 e 20
Solution 27.1 On pose e 1 = = p1 (1, 1, 0), puis e 20 = v 2 − (v 2 | e 1 ) · e 1 = ( 12 , − 12 , 1) et e 2 = = p1 (1, −1, 2). Enfin,
kv 1 k 2 ke 20 k 6
e 30
e 30 = v 3 − (v 3 | e 1 ) · e 1 − (v 3 | e 2 ) · e 2 = 23 (−1, 1, 1) et e 3 = ke 30 k
= p1 (−1, 1, 1).
3

Solution 27.2 Soit w = u − v, soit H = Vect [w]⊥ et s = s H , on a (u − v|u + v) = kuk2 − kvk2 = 0, donc u + v ∈ H, on a donc
s(u − v) = v − u et s(u + v) = u + v, la résolution de ce système donne s(u) = v et s(v) = u.
Si s 0 est une autre réflexion qui convient, alors on doit avoir s 0 (u −v) = v −u, donc ker(s 0 +id) = Vect [w] et par conséquent,
s 0 = s.
Remarque : l’hyperplan H s’appelle hyperplan médiateur de [u; v], car si x ∈ H, alors ku − xk = ks(v) − s(x)k = kv − xk.
NT
MO

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 276 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 28

Intégration sur un segment

Sommaire
I Intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277

AIG
1) Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
2) Intégrale d’une fonction en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
II Intégrale des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . 279
1) Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
2) Approximation uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
3) Définition de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
4) Premières propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
III Calcul d’une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
1) Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
2) Rappels : techniques de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
IV Propriétés de l’intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
1) Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
2) Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
V Compléments : recherche de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
NT
1) Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
2) Fractions rationnelles en sinus et cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
3) Fractions rationnelles en ch et sh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
4) Fonctions se ramenant aux types précédents . . . . . . . . . . . . . . . . . . . . . . . . 288
5) Polynômes trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

Dans tout le chapitre K désigne R ou C

I INTÉGRALE DES FONCTIONS EN ESCALIER

1) Fonctions en escalier
MO

Définition 28.1
Soit f : [a; b] → K une fonction, on dit que f est en escalier sur [a; b] lorsqu’il existe un entier n ∈ N∗ ,
des réels x 0 = a < x 1 < · · · < x n = b, et des nombres c 0 , . . . , c n−1 de K tels que sur chacun des intervalles
ouverts : ]x k ; x k+1 [ la fonction f est constante égale à c k (0 6 k 6 n − 1). On dit aussi parfois que f est
constante par morceaux. L’ensemble des fonctions en escalier sur [a; b] est noté E ([a; b], K).

ZExemples :
– Une fonction constante sur [a; b] est en escalier.
– La fonction partie entière restreinte à [a; b] est en escalier.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 277 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Intégrale des fonctions en escalier Chapitre 28 : Intégration sur un segment

NE
0
−3 −2 −1 0 1 2 3
−1

−2

−3

−4

F IGURE 28.1: La fonction partie entière sur [−3.5, 3.5].

Remarque 28.1 –

AIG
– La courbe représentative d’une fonction en escalier a la forme d’un escalier !
– Les réels x 0 = a < · · · < x n = b de la définition constituent ce que l’on appelle une subdivision de l’inter-
valle [a; b]. Une telle subdivision est dite adaptée à la fonction en escalier f lorsque f est constante sur
chacun des morceaux (ouverts) de la subdivision. Il est facile de voir qu’il y a une infinité de subdivisions
adaptées à f lorsque f est en escalier. Le réel max06k 6n−1 x k+1 − x k est appelé le pas de la subdivision.
Lorsque le pas est constant, il vaut b−a n , on dit que la subdivision est régulière.
– La définition ne fait pas intervenir la valeur de f aux points de la subdivision.
– Une fonction en escalier sur [a; b] est bornée.

Définition 28.2
Si σ, σ0 sont deux subdivisions de [a; b], on dit que σ0 est plus fine que σ lorsque les points de la
subdivision σ font partie de la subdivision σ0 , ce que l’on note σ ⊂ σ0 , si de plus σ est adaptée à
f ∈ E ([a; b], K), alors σ0 aussi.
NT
Remarque 28.2 –
– Si σ, σ0 sont deux subdivisions de [a; b], on note σ ∪ σ0 la subdivision obtenue en réunissant les points de
σ avec ceux de σ0 (et en les rangeant dans l’ordre croissant). Cette nouvelle subdivision est plus fine que
les deux précédentes.
– Il en découle que si f et g sont en escalier sur [a; b] alors il existe une subdivision σ de [a; b] qui est à la
fois adaptée à f et à g .

Théorème 28.1
L’ensemble E ([a; b], K) est un K-espace vectoriel (et même une K-algèbre) pour les opérations
usuelles sur les fonctions.
MO

Preuve : Celle-ci est simple et laissée en exercice. 

2) Intégrale d’une fonction en escalier

Théorème 28.2
Soit f ∈ E ([a; b], K) et soit σ = (x i )06i 6n une subdivision de [a; b] adaptée à f , alors la quantité :
n−1
P
Iσ ( f ) = (x i +1 − x i )c i ,
i =0
où c i désigne la valeur de f sur l’intervalle ]x i , x i +1 [, est indépendante de la subdivision adaptée à f .
Autrement dit, si σ0 est une autre subdivision adaptée à f , alors Iσ ( f ) = Iσ0 ( f ).

Preuve : Si on rajoute un point d à la subdivision σ, on obtient une nouvelle subdivision σ0 et il existe un indice
j ∈ J0 ; (n − 1)K tel que d ∈]x j , x j +1 [, mais alors c j (x j +1 − x j ) = c j (d − x j ) + c j (x j +1 − d ), on voit donc que Iσ ( f ) = Iσ0 ( f ).
Par récurrence, on en déduit que si σ0 est une subdivision plus fine que σ, alors Iσ ( f ) = Iσ0 ( f ).
Soit σ0 une autre subdivision de [a; b] adaptée à f , la subdivision σ00 = σ0 ∪ σ est adaptée à f et plus fine que σ et σ0 ,
donc Iσ00 ( f ) = Iσ0 ( f ) = Iσ ( f ). 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 278 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Intégrale des fonctions continues par morceaux Chapitre 28 : Intégration sur un segment

NE
1
0
−4 d −3 −2 −1 0 1 2 3 4
−1

−2

F IGURE 28.2: Interprétation géométrique

Remarque 28.3 – Géométriquement, si f ∈ E ([a; b], K) et si σ est une subdivision de [a; b] adaptée à f , alors
dans un repère orthonormé, la quantité Iσ ( f ) représente l’aire algébrique de la portion de plan délimitée par la
courbe de f , l’axe des abscisses, et les droites d’équation : x = a et x = b, c’est une somme d’aires de rectangles.

AIG
Définition 28.3 (intégrale d’une fonction en escalier)
Si f ∈ E ([a; b], R), on appelle intégrale de f sur [a; b] le nombre (complexe) noté
R
[a;b] f et défini par :
R n−1
P
[a;b] f = Iσ ( f ) = (x i +1 − x i )c i ,
i =0
où σ = (x i )06i 6n est une subdivision adaptée à f .

À retenir
• L’intégrale de f sur [a; b] ne dépend pas de la valeur de f aux points de la subdivision. Il en découle
que si on modifie la valeur de f en un nombre fini de points, la valeur de l’intégrale reste inchangée.
• Si f , g ∈ E ([a; b], K) et si f et g coïncident sur [a; b] \ {x 1 , . . . , x n }, alors [a;b] f = [a;b] g car il suffit de
R R

changer la valeur de f aux points x 1 , . . . , x n pour obtenir la fonction g , ce qui ne change pas l’intégrale
NT
de f .

Théorème 28.3 (Propriétés élémentaires)


Soient f , g ∈ E ([a; b], K) :
• linéarité : [a;b] f + g = [a;b] f + [a;b] g et si λ ∈ K, [a,b] λ f = λ [a;b] f .
R R R R R
R
• positivité : si f est à valeurs réelles positives, alors [a;b] f > 0. On en déduit que si f et g sont à
R R
valeurs réelles et si f 6g, alors [a;b] f 6 [a;b] g .
R R
• majoration : | [a;b] f | 6 [a;b] | f |.
• relation de C HASLES 1 : si a < c < b, alors [a;b] f = [a;c] f + [c;b] f .
R R R

Preuve : Celle-ci est simple et laissée en exercice. 


MO

II INTÉGRALE DES FONCTIONS CONTINUES PAR MORCEAUX

1) Fonctions continues par morceaux

Définition 28.4
Une fonction f : [a; b] → K est dite continue par morceaux sur le segment [a; b], lorsqu’il existe une
subdivision σ = (a = x 0 , . . . , x n = b) de [a; b] telle que sur chaque morceau ]x k ; x k+1 [ la fonction f est
continue et prolongeable par continuité sur [x k ; x k+1 ] (i.e. f a une limite finie à droite en x k et à
gauche en x k+1 ).
L’ensemble des fonctions continues par morceaux sur [a; b] est noté CM ([a; b], K). Plus généralement,
on dit qu’une fonction est continue par morceaux sur un intervalle I, lorsque sa restriction à tout

1. CHASLES M ICHEL (1793 – 1880) : mathématicien français, auteur d’importants travaux en géométrie.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 279 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Intégrale des fonctions continues par morceaux Chapitre 28 : Intégration sur un segment
segment inclus dans I est continue par morceaux.

ZExemples :
– Une fonction continue sur [a; b] est continue par morceaux.
– Une fonction en escalier sur [a; b] est continue par morceaux.

NE
– La fonction f définie par f (x) = sin( x1 ) sur ]0; 1] et f (0) = 0 n’est pas continue par morceaux sur [0; 1].

2
1
0
−5 −4 −3 −2 −1 0 1 2 3 4
−1
−2
−3
−4

AIG
F IGURE 28.3: Exemple de fonction continue par morceaux

Remarque 28.4 –
– Une fonction continue par morceaux sur [a; b] est bornée.
– La valeur de f aux points de la subdivision n’intervient pas dans la définition.

Théorème 28.4
L’ensemble des fonctions continues par morceaux sur [a; b], CM ([a; b], K), est un K-espace vectoriel
(et même une K-algèbre) pour les opérations usuelles sur les fonctions.

Preuve : Celle-ci est simple et laissée en exercice. 


NT
2) Approximation uniforme

Théorème 28.5
Si f : [a; b] → K est continue par morceaux sur le segment [a; b], alors pour tout ε > 0, il existe une
fonction ψ en escalier sur [a; b] telle que | f − ψ| 6 ε, c’est à dire :
∀t ∈ [a; b], | f (t ) − ψ(t )| 6 ε.

Preuve :
• Cas où f est continue : f est uniformément continue sur [a; b] (théorème de Heine), il existe donc un réel α > 0 tel que
j k b−a
pour tout x, y ∈ [a, b], |x − y| < α =⇒ | f (x) − f (y)| < ε. Soit n = 1 + b−a
α , on a alors < α. Découpons l’intervalle
n
b−a
[a; b] en n morceaux de longueur b−a n , on obtient ainsi une subdivision dont les points sont les réels x k = a + k n
MO

pour k ∈ J0 ; n K. On définit maintenant la fonction g en posant :


(
f (b) si t = b
g (t ) =
f (x k ) si t ∈ [x k ; x k+1 [

il est alors facile de vérifier que pour tout réel t de [a; b], on a | f (t )− g (t )| < ε en distinguant les cas t = b et t ∈ [x k ; x k+1 [,
on a donc | f − g | < ε.
• Cas où f est continue par morceaux : sur chaque morceau ]x k ; x k+1 [ la fonction f est prolongeable par continuité
sur [x k ; x k+1 ] en une fonction f k . On sait alors qu’il existe une fonction g k en escalier sur [x k ; x k+1 ] telle que ∀ t ∈
[x k ; x k+1 ], | f k (t ) − g k (t )| < ε, en particulier ∀ t ∈]x k ; x k+1 [, | f (t ) − g k (t )| < ε.
On construit la fonction g en posant : g (x k ) = f (x k ) et pour t ∈]x k ; x k+1 [, g (t ) = g k (t ). Il est clair que g est en escalier
sur [a; b] et que ∀ t ∈ [a; b], | f (t ) − g (t )| < ε, donc | f − g | < ε. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 280 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Intégrale des fonctions continues par morceaux Chapitre 28 : Intégration sur un segment

0
−3 −2 −1 0 1 2 3

NE
C f +ε
−1 Cf
C f −ε
−2 Cψ

Remarque 28.5 –
– C’est l’uniforme continuité de f qui fait aboutir la démonstration.
– Si f est continue sur [a, b], alors pour tout ε > 0 il existe deux fonctions en escalier φ et ψ telle que
∀ t ∈ [a; b], ψ(t ) 6 f (t ) 6 φ(t ) avec φ(t ) − ψ(t ) < ε.
En effet, on sait qu’il existe une fonction en escalier g telle que | f −g | < ε/2, on a donc pour t ∈ [a; b], g (t )−
ε/2 6 f (t ) 6 g (t ) + ε/2, il suffit donc de prendre ψ = g − ε/2 et φ = g + ε/2.

AIG
– Si f ∈ CM ([a; b], K) alors il existe une suite (ψn ) de fonctions en escalier sur [a; b] telle que :
sup | f (x) − ψn (x)| −−−−−→ 0.
x∈[a;b] n→+∞
On dit que la suite (ψn ) converge uniformément vers f sur [a; b].

3) Définition de l’intégrale

Théorème 28.6
Soit f ∈ CM ([a; b], K) et soit (φn ) une suite de fonctions en escalier qui converge uniformément vers
f sur [a; b], alors :
• la suite ( [a;b] φn ) converge vers un nombre ` ∈ K ;
R

• ce nombre ` qui ne dépend pas de la suite (φn ) choisie.

Preuve : Posons u n = [a;b] φn , soit ε > 0, il existe un entier N ∈ N tel que n > N =⇒ |φn − f | < ε, on en déduit que
R
NT
|φn | < | f |+ε 6 M+ε où M est un majorant de | f |, on a alors |u n | 6 (b − a)(M+ε) : la suite u est bornée, on peut donc en
extraire une suite convergente : u σ(n) → `, mais pour n > N on a |φn − φσ(n) | 6 |φn − f | + | f − φσ(n) | 6 2ε, on en déduit
que |u n − u σ(n) | 6 (b − a)2ε ce qui entraîne que u n → `.
Soit (ψn ) une autre suite de fonctions en escalier qui converge uniformément vers f , posons v n = [a;b] ψn , d’après
R

ce qui précède, la suite (v n ) converge vers un nombre `0 . Soit (g n ) la suite de fonctions en escalier
R définie par g 2n = φn
et g 2n+1 = ψn , il est facile de voir que (g n ) converge uniformément vers f , donc la suite (w n = [a;b] g n ) converge vers
un nombre `00 , or w 2n = u n et w 2n+1 = v n , on en déduit que `00 = ` = `0 . 

Définition 28.5 (intégrale d’une fonction continue par morceaux)


Soit f ∈ CM ([a; b], K), on appelle intégrale de f sur [a; b] le nombre noté
R
[a;b] f et défini par :
[a;b] f = lim [a;b] φn ,
R R
n→+∞
où (φn ) est une suite de fonctions en escalier sur [a; b] qui converge uniformément vers f .
MO

R
Géométriquement, dans un repère orthonormé, si f est à valeurs réelles, on dit que [a;b] f représente
l’aire algébrique de la portion de plan délimitée par la courbe de f , l’axe des abscisses, et les droites
d’équation x = a et x = b.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 281 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Intégrale des fonctions continues par morceaux Chapitre 28 : Intégration sur un segment

NE
1

0
−2 −1 0 1 2 3

−1

F IGURE 28.4: Cas d’une fonction continue

AIG
4) Premières propriétés de l’intégrale

Théorème 28.7 (linéarité de l’intégrale)


Soient f , g ∈ CM ([a; b], K) et soit λ ∈ K, alors :
[a;b] ( f + g ) = [a;b] f + [a;b] g et [a;b] λ. f = λ. [a;b] f .
R R R R R

Preuve : Soient (φn ) et (ψn ) deux suites de fonctions en escalier qui convergent uniformément respectivement vers
R voir que la suite (φn + ψn ) converge uniformément vers f + g . D’après la définition,
Rf et g , il est facile de R on a
lim [a;b] (φn + ψn ), la linéarité étant vérifiée pour les fonctions en escalier, on peut écrire que [a;b] ( f +
[a;b] ( f + g ) = n→+∞
g ) = [a;b] φn + [a;b] ψn , le résultat s’obtient alors par passage à la limite. La preuve est du même type pour le second
R R

point. 
Remarque 28.6 – Soit f ∈ CM ([a; b], K), posons u = Re( f ) et v = Im( f ). La linéarité de l’intégrale permet
R R R
d’écrire : [a;b] f = [a;b] Re( f ) + i [a;b] Im( f ). On peut donc toujours se ramener à intégrer des fonctions à
NT
valeurs réelles (mais ce n’est pas toujours la meilleure solution). D’autre part, on a établi :
R R R R R R
Re( [a;b] f ) = [a;b] Re( f ) et Im( [a;b] f ) = [a;b] Im( f ), d’où [a;b] f = [a;b] f .

Théorème 28.8 (positivité)


Si f ∈ CM ([a; b], R) est à valeurs positives, alors 0 6 f . En particulier si f , g ∈ CM ([a; b], R) et si
R
R R [a;b]
f 6 g , alors [a;b] f 6 [a;b] g .

Preuve : Si f est à valeurs positives, on peut construire une suite (φn ) de fonctions en escalier positives, qui converge
uniformément vers f , comme [a;b] f = lim φn , on a le résultat par passage à la limite.
R
n→+∞
Si f 6 g , on applique ce qui précède à la fonction h = g − f et on conclut avec la linéarité. 
MO

Théorème 28.9 (majoration en module)


Si f ∈ CM ([a; b], K), alors | [a;b] f | 6 [a;b] | f |.
R R
R
En particulier si | f | 6 M sur [a; b], alors | [a;b] f | 6 M(b − a).

Preuve : Si f est continue par morceaux sur [a; b], alors | f | aussi, et si (φn ) est une suite de fonctions en escalier qui
converge uniformément vers f , il est facile de vérifierR que la suite
R (|φn |) est une suite de fonctions en escalier qui
converge uniformément vers | f |, de plus, on sait que | [a;b] φn | 6 [|a;b] |φn |, le résultat s’obtient par passage à la limite.


Théorème 28.10 (relation de Chasles)


Si f ∈ CM ([a; b], K) et si a < c < b, alors
R R R
[a;b] f = [a;c] f+ [c;b] f.

Preuve : Même type de preuve que pour les résultats précédents. 

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 282 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Calcul d’une intégrale Chapitre 28 : Intégration sur un segment

Théorème 28.11 (cas d’une intégrale nulle)


R
Si f est à valeurs réelles, continue, positive sur [a; b], et si [a;b] f = 0, alors f est nulle sur [a; b].

Preuve : Par l’absurde, supposons f 6= 0, alors il existe t 0 ∈ [a; b] tel que f (t 0 ) > 0, soit ε = f (t 0 )/2, f étant ( continue en

NE
0 si t ∉ [t 1 ; t 2 ]
t 0 , il existe t 1 < t 2 ∈ [a; b] tels que ∀ t ∈ [t 1 ; t 2 ], f (t ) > ε. Soit g la fonction en escalier définie par g (t ) = ,
ε si t ∈ [t 1 ; t 2 ]
alors on g 6 f , donc [a;b] g 6 [a;b] f , or [a;b] g = ε(t 2 − t 1 ) > 0, ce qui est contradictoire, donc f est nulle sur [a; b]. 
R R R

Remarque 28.7 – Le théorème ci-dessus est faux si f n’est pas continue sur [a; b], on peut considérer par
(
1 si t = a
exemple la fonction f définie par f (t ) = , cette fonction est positive, non nulle et d’intégrale nulle.
0 sinon

Théorème 28.12 (égalité d’intégrales)


Si f , g ∈ CM ([a; b], K) coïncident sur [a; b] \ {x 1 , . . . , x n }, alors
R R
[a;b] f = [a;b] g .

AIG
Preuve : Posons h = g − f , alors h est une R fonction en escalier qui coïncide avec la fonction nulle sauf éventuellement
aux points x 1 , . . . , x n , on sait alors que [a;b] h = 0, et la linéarité entraîne alors le résultat. 

Convention d’écriture
Si f est continue par morceaux sur un intervalle [a; b], pour x, y ∈ [a; b], on pose :
R
 [x;y] f si x < y
Z y 

f (t ) d t = 0 si x = y .
x 
 R
− f si y < x [y;x]

Avec cette convention :

Théorème 28.13
Si f ∈ CM ([a; b], K) alors :
Ry Rx
– ∀ x, y ∈ [a; b], x f (t ) d t = − y f (t ) d t .
NT
Ry Rz Ry
– ∀ x, y, z ∈ [a; b], x f (t ) d t = x f (t ) d t + z f (t ) d t (relation de Chasles généralisée).

Preuve : Celle-ci est simple et laissée en exercice. 

III CALCUL D’UNE INTÉGRALE

1) Primitives

Définition 28.6
Soient f , F : I → C deux fonctions définies sur un intervalle I de R, on dit que F est une primitive de f
sur I lorsque F est dérivable sur I et que F0 = f . L’ensemble des primitives de f sur I est noté P I ( f ).
MO

Remarque 28.8 – D’après le théorème de Darboux, une dérivée vérifie toujours le théorème des valeurs
intermédiaires, par conséquent une fonction f qui ne vérifie pas ce théorème (i.e. une fonction f telle que Im( f )
n’est pas un intervalle), ne peut pas avoir de primitive sur I.

Théorème 28.14
Si f : I → C admet une primitive F sur l’intervalle I, alors P I ( f ) = {F + λ / λ ∈ C}.

Preuve : G ∈ P I ( f ) ⇐⇒ G0 = F0 ⇐⇒ (G − F)0 = 0 ⇐⇒ ∃ λ ∈ C, G = F + λ (car I est un intervalle). 

Conséquence
Si f : I → C admet une primitive F sur I, alors ∀ y 0 ∈ C, ∀ t 0 ∈ I, f possède une unique primitive G sur I qui
vérifie G(t 0 ) = y 0 .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 283 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Calcul d’une intégrale Chapitre 28 : Intégration sur un segment

Théorème 28.15 (fondamental de l’intégration)


Si f : I → C est continue, alors f admet des primitives sur I. Plus précisément, si t 0 ∈ I et y 0 ∈ C, alors
Rt
la fonction F définie sur I par : F(t ) = y 0 + t0 f (u) d u, est l’unique primitive de f sur I qui prend la
valeur y 0 en t 0 .

NE
Rt Rt Rt Rt
Preuve : Soit t 1 ∈ I, on a |F(t ) − F(t 1 ) − (t − t 1 ) f (t 1 )| = | t1 f (u) d u − t1 f (t 1 ) d u| = | t1 ( f (u) − f (t 1 )) d u| 6 | t1 | f (u) −
f (t 1 )| d u|. On se donne εR> 0, f étant continue en t 1 , il existe α > 0 tel que ∀ u ∈ I, |u − t 1 | < α =⇒ | f (u) − f (t 1 )| < ε,
t
donc si |t − t 1 | < α, alors | t1 | f (u) − f (t 1 )| d u| 6 |t − t 1 |ε, d’où :
¯ ¯
¯ F(t ) − F(t 1 )
− f (t 1 )¯¯ 6 ε,
¯
¯
¯ t −t
1

on en déduit que F est dérivable en t 1 et que F0 (t 1 ) = f (t 1 ). La fonction F est donc une primitive de f sur I, et il est clair
que F(t 0 ) = y 0 . 
(
1 si t = 0
Remarque 28.9 – La continuité de f est essentielle pour la démonstration, prenons f (t ) = , alors
0 sinon

AIG
avec t 0 = y 0 = 0, on obtient que F = 0, F est bien dérivable mais ce n’est pas une primitive de f sur [0; 1].

Théorème 28.16 (calcul d’une intégrale)


Si f : I → C est continue sur l’intervalle I et si F désigne une primitive de f sur I, alors :
Rb
∀a, b ∈ I, a f (t ) d t = [F]ba = F(b) − F(a).

Rt Rb
Preuve : F étant une primitive de f , on a ∀ t ∈ I, F(t ) = F(a) + a f (u) d u, d’où F(b) − F(a) = a f (u) d u. 

Cas d’une fonction continue par morceaux


si f : [a; b] → C est continue par morceaux, soit σ = (x i )06i 6n une subdivision adaptée à f . Sur chacun des
morceaux ]x i ; x i +1 [ la fonction f admet un prolongement par continuité f i sur le segment [x i , x i +1 ], les deux
Rx Rx
fonctions coïncidant sur le segment [x i , x i +1 ], sauf peut être en deux points, on a xii +1 f (t ) d t = xii +1 f i (t ) d t ,
R xi +1
mais f i admet une primitive Fi sur [x i ; x i +1 ], d’où : xi f = Fi (x i +1 ) − Fi (x i ), la relation de Chasles donne
alors :
NT
Z b n−1
X
f (t ) d t = Fi (x i +1 ) − Fi (x i ).
a i =0

On peut donc toujours se ramener au cas des fonctions continues et donc à une recherche de primitive.

Théorème 28.17 (lien entre une fonction et sa dérivée)


Rt
Si f est de classe C 1 sur l’intervalle I, alors ∀ t , t 0 ∈ I, f (t ) = f (t 0 ) + t0 f 0 (u) d u.

Théorème 28.18 (inégalité des accroissements finis généralisée)


Si f , g : I → C sont de classe C 1 sur l’intervalle I et si ∀ t ∈ I, | f 0 (t )| 6 g 0 (t ), alors :
∀ a, b ∈ I, | f (b) − f (a)| 6 |g (b) − g (a)|.
MO

Preuve : SupposonsRa < b, on a :


| f (b) − f (a)| = | [a;b] f 0 (u) d u| 6 [a;b] | f 0 (u)| d u 6 [a;b] g 0 (u) d u = g (b) − g (a) = |g (b) − g (a)|.
R R


2) Rappels : techniques de calculs

Théorème 28.19 (intégration par parties)


Soient f , g : I → C deux fonctions de classe C 1 , alors :
Rb Rb
∀ a, b ∈ I, a f 0 (u)g (u) d u = [ f (u)g (u)]ba − a f (u)g 0 (u) d u.

Théorème 28.20 (changement de variable)


Soit θ : J → I une fonction de classe C 1 sur l’intervalle J, et soit f : I → C une fonction continue sur
Rb R θ(b)
l’intervalle I, alors on a : ∀ a, b ∈ J, a f (θ(u))θ0 (u) d u = θ(a) f (t ) d t .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 284 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés de l’intégration Chapitre 28 : Intégration sur un segment

ZExemples : R1p
– Soit I = 0 1 − t 2 d t .
On effectue le changement de variable t = sin(u) avec u ∈ [0; π2 ], on a alors d t = cos(u)d u, d’où I =
R π/2 p iπ/2
2 cos(u) d u = π/2 cos(u)2 d u = π/2 1+cos(2u) d u = u + sin(2u)
h
= π4 . En particulier
R R
0 1 − sin(u) 0 0 2 2 4 0

NE
on en déduit que la surface du cercle trigonométrique vaut π.
R π/3
– Soit I = 0 ln(cos(t )) sin(t ) d t .
On effectue le changement de variable u = cos(t ) avec cos : [0; π3 ] → [ 12 ; 1] (C 1 ), on a d u = − sin(t )d t et
R1
donc I = 1/2 ln(u) d u = [u ln(u) − u]11/2 = ln(2)−1
2 .

R1 p
FExercice 28.1 Calculer I = 2
0 t 1− t dt.

IV PROPRIÉTÉS DE L’INTÉGRATION

1) Inégalités

AIG
Théorème 28.21 (cas d’égalité de Cauchy-Schwarz 2 )
Soit f , g deux fonctions continues par morceaux sur [a; b] et à valeurs réelles, on a :
¢2 ¡R
6 [a;b] f 2 [a;b] g 2 (inégalité de C AUCHY-S CHWARZ).
¡R ¢ ¡R ¢
[a;b] f g

Preuve : L’application ( f , g ) 7→ a;b f g n’est pas un produit scalaire sur CM ([a; b], R) c’est néanmoins une forme
R

bilinéaire symétrique et positive, on peut donc lui appliquer l’inégalité de Cauchy-Schwarz, dont on rappelle une
preuve :
Posons a = [a;b] f 2 , b = [a;b] f g et c = [a;b] g 2 . Pour tout réel λ on a 0 6 [a;b] (λ f + g )2 (intégrale d’une fonction
R R R R

positive), en développant on obtient par linéarité aλ2 + 2bλ + c > 0. Si a 6= 0 alors on a un trinôme du second degré qui
est toujours positif, donc son discriminant est négatif ou nul, i.e. b 2 − ac 6 0 ce qui donne exactement l’inégalité de
Cauchy-Schwarz. Si a = 0 alors pour tout réel λ on a 2bλ + c > 0 ce qui entraîne b = 0 et donc b 2 6 ac. 
R
Dans le cas des fonctions continues sur [a; b], l’application ( f , g ) 7→ a;b f g est un produit scalaire sur
C 0 ([a; b], R), on a donc comme dans tout espace préhilbertien réel :

Théorème 28.22 (cas d’égalité de Cauchy-Schwarz)


NT
Si f , g sont continues et à valeurs réelles, alors :
¢2 ¡R
= [a;b] f 2 [a;b] g 2 ⇐⇒ f et g sont colinéaires.
¡R ¢ ¡R ¢
[a;b] f g

t
ZExemple : Soit f : [0; 1] → R une fonction C 1 telle que f (0) = 0. Pour t ∈ [0; 1] on a f (t ) = 0 f 0 (u) d u,
R
de classe
2
³ ´
t t t 2 1 2
d’où f (t )2 = 0 f 0 (u) d u 6 0 1 0 f 0 (u) d u , ce qui entraîne f (t )2 6 t 0 f 0 (u) d u, il en découle alors
¡R ¢ ¡R ¢ R R

que :
Z 1 1
Z 1
2 2
f (t ) d t 6 f 0 (u) d u.
0 2 0

Théorème 28.23 (Inégalité de la moyenne)


MO

Soi f : [a; b] → C continue par morceaux,¯ majorée¯ par M ∈ R en module, alors :


+
R
[a;b] f 6 M(b − a).
¯ ¯

ZExemple : Soient 0 < a < b et soit ε > 0. D’après le théorème ci-dessus :


R εb R εb
cos(εb) ln( ba ) 6 εa cos(t
t
)
d t 6 cos(εa) ln( ba ). D’où : lim εa cos(t
t
)
d t = ln( ba ).
ε→0

2) Sommes de Riemann

Définition 28.7
Soit f : [a; b] → C une fonction continue par morceaux et n ∈ N∗ , on appelle somme de Riemann 3
d’ordre n associée à f la quantité :

2. SCHWARZ H ERMANN (1846 – 1921) : mathématicien allemand.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 285 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Propriétés de l’intégration Chapitre 28 : Intégration sur un segment
n−1
b−a
f (a + k b−a
P
Rn ( f ) = n n ).
k=0

Remarque 28.10 – Soit φ la fonction en escalier sur [a; b] définie par φ(t ) = f (x k ) si t ∈ [x k ; x k+1 [ et φ(b) = f (b),
alors on a Rn ( f ) = [a;b] φ.
R

NE
Théorème 28.24 (limite des sommes de Riemann)
n−1
b−a
Soit f : [a; b] → C une fonction continue par morceaux on a : f (a + k b−a
P R
lim n )= [a;b] f.
n→+∞ n k=0

Preuve : On se limite au cas où f est de classe C 1 conformément au programme. Comme f 0 est bornée sur le segment
[a; b], il existe un réel M ∈ R+ tel que ∀t ∈ [a; b], | f 0 (t )| 6 M et donc ∀x, y ∈ [a; b], | f (x) − f (y)| 6 M|x − y| (IAF).

¯ ¯¯n−1 Z x n−1
¯ ¯
¯ ¯n−1
¯
X Z xk+1 ¯ ¯ X xk+1 ¡
¯ Z Z
¯ ¯ ¯X k+1 ¢ ¯¯
¯R n ( f ) − f ¯=¯
¯ f (x k ) d t − f (t ) d t ¯ = ¯ f (x k ) − f (t ) d t ¯
¯ ¯k=0 xk k=0 x k
[a;b] ¯ ¯k=0 xk ¯
n−1
X ¯ xk+1 ¡
¯ Z
¢ ¯ n−1
¯
X xk+1 ¯
Z
¯

AIG
6 ¯
¯ f (x k ) − f (t ) d t ¯¯ 6 ¯ f (k k ) − f (t )¯ d t
k=0 xk k=0 x k
n−1
X Z xk+1 n−1
X Z xk+1 b−a
6 M|x k − t | d t 6 M dt
k=0 x k k=0 x k n
n−1
X (b − a)2 M(b − a) 2
6 M =
k=0 n2 n

M(b−a)2
¯ R ¯
on a donc ¯Rn ( f ) − [a;b] f ¯6 n → 0. 

À retenir
Méthode des rectangles de gauche pour le calcul approché d’une intégrale :
n−1
M(b−a)2
Rn ( f ) = b−a f (a + k b−a près où M = sup | f 0 (t )|.
P R
n n ) est une valeur approchée de [a;b] f à n
k=0 a 6t 6b
NT
2

0
−2 −1 0 1 2 3

−1
F IGURE 28.5: Méthode des rectangles de gauche

Théorème 28.25 (méthode de rectangles de droite)


n
b−a
f (a + k b−a
MO

Soit f : [a; b] → C une fonction continue par morceaux on a :


P R
lim n )= [a;b] f.
n→+∞ n k=1

Preuve : Même preuve que le théorème précédent, avec la même majoration de l’erreur. 

0
−2 −1 0 1 2 3

−1
F IGURE 28.6: Méthode des rectangles de droite

3. RIEMANN G EORG F RIEDRICH B ERNHARD (1826 – 1866) : mathématicien allemand dont l’œuvre est colossale.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 286 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Compléments : recherche de primitives Chapitre 28 : Intégration sur un segment

À retenir
La demi-somme des rectangles de gauche et des rectangles de droite est la méthode des trapèzes :
n−1
Tn ( f ) = b−a b−a
P 1 R
n 2 ( f (x k ) + f (x k+1 ) = 2n [ f (a) + 2 f (x 1 ) + · · · + 2 f (x n−1 ) + f (b)] → [a;b] f . On admettra
k=0

NE
(b−a)3
que ¯Tn ( f ) − [a;b] f ¯ 6 M212n où M2 = sup | f 00 (t )|.
¯ R ¯
2
a 6 t 6b

0
−2 −1 0 1 2 3

−1
F IGURE 28.7: Méthode des trapèzes

AIG
ZExemples :
n n
P 1 1 P 1
– Étude de certaines suites : soit u n = n+k , on a alors u n = n 1+k/n , c’est la méthode des rectangles
k=1 k=1
1
de droite appliquée à la fonction f : t 7→ 1+t sur l’intervalle [0; 1], la fonction étant continue sur cet
R
intervalle, on a lim u n = [0;1] f = ln(2).
R 2π
– Calcul de certaines intégrales : 0 ln(1 − 2x cos(t ) + x 2 ) d t pour |x| 6= 1 (cf. TD).

V COMPLÉMENTS : RECHERCHE DE PRIMITIVES

Convention : soit f une fonction continue sur un intervalle I, une primitive de f sur I est la fonction
Rx Rx
F : x 7→ a f (t ) d t où a ∈ I est quelconque, ce qui fait que l’on notera simplement F(x) = f (t ) d t .

1) Fonctions usuelles
NT
Fonction Primitive
0 α u α+1
uu α+1 si α 6= −1, ln(|u|) sinon
u0e u eu
u 0 cos(u) sin(u)
u 0 sin(u) − cos(u)
u0
u 0 (1 + t an 2 (u)) = cos2 (u)
tan(u)
u 0 ch(u) sh(u)
u 0 sh(u) ch(u)
u0
u 0 (1 − t h 2 (u)) = th(u)
ch2 (u)
u 0 tan(u) − ln(| cos(u)|)
MO

u 0 tan(u)2 tan(u) − u
u0
1+u0 2
arctan(u)
pu arcsin(u)
1−u 2
0
pu argsh(u)
1+u 2
0
pu argch(u)
2
u −1 q¯
u0
argth(u) = ln( ¯ 1+u
¯
1−u )
¯
1−u 2

2) Fractions rationnelles en sinus et cosinus


a p,q sin(t )p cos(t )q
P
p,q
Soit f (t ) une fraction rationnelle en sin(t ) et cos(t ) : f (t ) = P
b p,q sin(t )p cos(t )q .
p,q
Pour intégrer ce type de fonction on peut appliquer la règle de Bioche :
– Si f (−t )d (−t ) = f (t )d t , alors on peut poser u = cos(t ).
– Si f (π − t )d (π − t ) = f (t )d t , alors on peut poser u = sin(t ).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 287 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Compléments : recherche de primitives Chapitre 28 : Intégration sur un segment

– Si f (π + t )d (π + t ) = f (t )d t , alors on peut poser u = tan(t ).


2u 1−u 2
– Sinon on peut poser u = tan(t /2). Rappelons que sin(t ) = 1+u 2 et cos(t ) = 1+u 2
.

Dans tous les cas, on est ramené à une fraction rationnelle en u.

NE
1
FExercice 28.2 Calculer une primitive de f (t ) = sin(t )2 +3 cos(t )2
sur ] − π/2; π/2[.

1
FExercice 28.3 Calculer une primitive de f (x) = sin(x) sur ]0; π[.

3) Fractions rationnelles en ch et sh
Soit F(X, Y) une fraction rationnelle à deux indéterminées X et Y, la fonction f (t ) = F(ch(t ), sh(t )) est une
fraction rationnelle en ch et sh. Pour intégrer ce type de fonction, on peut appliquer la règle de Bioche à la
fonction g (t ) = F(cos(t ), sin(t )), c’est à dire en remplaçant ch(t ) par cos(t ) et sh(t ) par sin(t ) :
– Si g (−t )d (−t ) = g (t )d t , alors on peut poser u = ch(t ).
– Si g (π − t )d (π − t ) = g (t )d t , alors on peut poser u = sh(t ).

AIG
– Si g (π + t )d (π + t ) = g (t )d t , alors on peut poser u = th(t ).
– Sinon on peut poser u = exp(t ).

Dans tous les cas, on est ramené à une fraction rationnelle en u.

Rx dt
ZExemple : Calculons F(x) = ch(t ) sur R, d’après la règle de Bioche, on peut poser u = sh(t ), d’où d u =
R sh(x) du
ch(t )d t et F(x) = 1+u 2
, et donc : F(x) = arctan(sh(x)) + cte.

4) Fonctions se ramenant aux types précédents


p
– Une fraction rationnelle en t et a 2 − t 2 peut s’intégrer en posant t = a sin(u), ce qui donne une
fraction rationnelle en sin(u) et cos(u).
p p p R p
ZExemple : Une primitive de f (x) = 1 + x − x 2 sur [ 1−2 5 ; 1+2 5 ] est F(x) = x 1 + t − t 2 d t .
NT
p
r ³ ´2 p R
r ³ ´2
5 2tp−1 5 x
On a f (t ) = 2 1 − , donc F(x) = 2 1 − 2tp−1 d t , on pose sin(u) = 2tp−1 ∈ [−1; 1], on peut
5 5 5
p
5
donc prendre u ∈ [−π/2; π/2], on a d t = 2 cos(u)d u, et donc :

5
Z arcsin( 2x−1
p )
5
F(x) = cos(u)2 d u
4

ce qui donne :
5 2x − 1 2x − 1 p
F(x) =
arcsin( p ) + 1 + x − x 2 + cte.
8 5 4
p
– Une fraction rationnelle en t et t 2 − a 2 peut s’intégrer en posant t = a ch(u), on obtient alors une
fraction rationnelle en ch(u) et sh(u).
MO

p Rxp
ZExemple : Une primitive de f (x) = x 2 − 1 sur [1; +∞[ est la fonctionp
F(x) = t 2 − 1 d t , on pose t =
R ln(x+ x 2 −1) 2u −2u
ch(u) avec u ∈ [0; +∞[, on a d t = sh(u)d u, et donc F(x) = sh(u)2 d u, or sh2 (u) = e +e4 −2 ,
h 2u −2u iln(x+px 2 −1)
donc F(x) = e −e 8 −4u , ce qui donne après simplifications :
p p
x x 2 − 1 − ln(x + x 2 − 1)
F(x) = + cte.
2
p
– Une fraction rationnelle en t et t 2 + a 2 peut s’intégrer en posant t = a sh(u), on obtient alors une
fraction rationnelle en ch(u) et sh(u).
ZExemple : Une primitive de la fonction f (x) = p 1 2 sur R est la fonction F(x) = x p d t 2 , on pose
R
1+x 1+t
R ln(x+px 2 +1) p
t = sh(u), on a d t = ch(u)d u et donc F(x) = d u = ln(x + 1 + x 2 ) + cte.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 288 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 28 : Intégration sur un segment
q q
at +b
– Une fraction rationnelle en t et c t +d peut s’intégrer en posant u = at +b
ct +d , on obtient alors une
fraction rationnelle en u.
R x dt
ZExemple : Une primitive de f (x) = p1
sur [1; +∞[ est la fonction F(x) = p d t , on pose
x− x−1 p t − t −1
p x−1 2ud u 2u
u = t − 1, d’où t = u 2 + 1, donc d t = 2ud u et F(x) = = u2u−1 1
R
. Or u 2 −u+1 2 −u+1 + (u−1/2)2 +3/4 ,

NE
p u 2 −u+1
p R x−1 du
d’où F(x) = ln(x − x − 1) + 43 ³ ´2 , ce qui donne finalement :
2u−1
p +1
3

p p
p 3 2 x −1−1
F(x) = ln(x − x − 1) + 2 arctan( p ) + cte.
3 3

5) Polynômes trigonométriques
a i , j cos(x)p sin(x)q . Une telle fonction est un cas particulier de
P
Il s’agit des sommes finies du type
p,q
fraction rationnelle en cos et sin, la règle de Bioche peut s’appliquer, mais il y a parfois plus simple, on est en
p q
fait ramené à chercher une primitive de cos(x) sin(x) :
³ ´ ³ p´ q

AIG
e i t +e −i t e i t −e −i t
– Linéarisation : on écrit que cos(t )p = 2 et sin(t )q = 2i , puis on développe.
ZExemple : x cos(t )4 sin(t )2 d t , on a :
R

¶4 µ ¶2
e i t + e −i t e i t − e −i t
µ
4 2 − cos(6t ) − 2 cos(4t ) + cos(2t ) + 2
cos(t ) sin(t ) = = .
2 2i 32

Ce qui donne finalement :


Z x
sin(6x) sin(4x) sin(2x) x
cos(t )4 sin(t )2 d t = − − + + + cte.
192 64 64 16

– Changement de variable : lorsque l’un des exposants est impair, par exemple p = 2k + 1, on a F(x) =
Rx Rx
cos(t )p sin(t )q d t = cos(t )2k sin(t )q cos(t ) d t , on pose alors u = sin(t ), d’où d u = cos(t )d t et donc
R sin(x)
F(x) = (1 − u 2 )k u q d u, c’est un polynôme en u.
ZExemple : Soit à calculer F(x) = x sin(t )5 d t , on pose u = cos(t ), d’où d u = − sin(t )d t et
R
NT
cos(x) cos(x)5 2 cos(x)3
Z
F(x) = − (1 − u 2 )2 d u = − + − cos(x) + cte
5 3

VI SOLUTION DES EXERCICES

2a 3/2
Solution 28.1 La fonction à intégrer est de la forme au 0 u 1/2 et s’intègre donc en 3 u , d’où :
I = [− 13 (1 − t 2 )3/2 ]10 = 13 .

Rx Rx dt
Solution 28.2 Il s’agit de calculer F(x) = f (t ) d t = 1+2 cos(t )2
, d’après la règle de Bioche, on peut poser u = tan(t ), ce
2
R tan(x) du
qui donne d u = (1 + u )d t , et donc F(x) = , ce qui donne :
MO

u 2 +3

1 tan(x)
F(x) = p arctan( p ) + cte.
3 3

Rx dt
R tan(x/2) 2(1+u 2 )
Solution 28.3 Une primitive est F(x) = sin(t ) , posons u = tan(t /2), on a alors 2d u = (1+u 2 )d t , d’où F(x) = 2u(1+u 2 )
du =
R tan(x/2) 1
u d u = ln(| tan(x/2)|)+ cte.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 289 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Chapitre 29

Sous-espaces affines

Sommaire
I Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290

AIG
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
3) Repères cartésiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
II Hyperplans affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
1) Équation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
2) Hyperplans affines dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
III Équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
2) Structure des solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293

I SOUS-ESPACES AFFINES
NT
1) Définition
Soit →

u ∈ E, la translation de vecteur →

u est l’application 1 t→u : E → E définie par t→


− →
− → −
u ( v ) = u + v . L’ensemble

de ces applications est noté TE et il est facile de vérifier que (TE , ◦) est un groupe abélien, c’est un sous-groupe
du groupe des permutations de E.
Si →
−v,−→ sont deux vecteurs de E, alors il existe un unique vecteur →
w −
u ∈ E tel que t→ →
− −→
u ( v ) = w . Cette

propriété très simple, suggère un autre point de vue pour les éléments de E : la notion de points.
La propriété précédente peut alors s’énoncer sous la forme suivante : si A et B sont deux points de E, alors
−−→
il existe un unique vecteur → −
u tel que B = t→ →

u (A). Ce vecteur u est noté : AB , on remarquera que :

−−→ −−→
– AB = B − A, et A + AB = B,
−−→
– AB = 0 ⇐⇒ A = B,
−−→ −−→
– BA = −AB ,
−−→ −−→ −−→
– AC = AB + BC .
MO

−−→
AB


0



1. non linéaire si →

u 6= 0 .

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 290 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Hyperplans affines Chapitre 29 : Sous-espaces affines

Définition 29.1
Un sous - espace affine de E est l’image d’un s.e.v. de E par une translation. Soit V une partie de E, V
est un s.e.a. de E si et seulement si il existe un s.e.v V et un vecteur → −
u tel que V = t→
u < V >, si c’est

le cas, V est appelé direction du s.e.a. V (ce que l’on écrira : (V , V)), et on pose dim(V ) = dim(V). On

NE
remarquera qu’un s.e.v. est un s.e.a. de direction lui-même.

2) Propriétés
– Si V est un s.e.a. de direction V, alors V est unique (mais pas le vecteur de la translation), de plus V est
un s.e.v. si et seulement si V contient le vecteur nul.
−−→
– Si (V ,V) est un s.e.a. alors ∀ A ∈ V , V = {A + → −
u /→ −
u ∈ V}, et V = {AB / B ∈ V }, on remarquera que
−−→
∀ B ∈ E, B ∈ V ⇐⇒ AB ∈ V.
– Si (V ,V) et (V 0 ,V 0 ) sont deux s.e.a. de E, et si V ∩ V 0 n’est pas vide, alors V ∩ V 0 est un s.e.a de direction
V ∩ V0.
−−→
– Soient (V ,V) et (V 0 ,V 0 ) sont deux s.e.a. de E, soient A ∈ V et A0 ∈ V 0 , alors V ∩ V 0 6= ∅ ⇐⇒ AA0 ∈ V + V 0 .
On remarquera que la condition est nécessairement remplie lorsque E = V + V 0 .

AIG
FExercice 29.1 Étudier les s.e.a. de E lorsque dim(E) = 1, 2, 3.

3) Repères cartésiens

Définition 29.2
Un repère cartésien R = (O, − e→ −→
1 , . . . , e n ) de E, est la donnée d’un point O de E (appelé origine du

→ −→
repère), et d’une base B = (e 1 , . . . , e n ) de E. Pour tout point M de E, on appelle coordonnées de M
−−→
dans le repère R, les coordonnées du vecteur OM dans la base B. On remarquera qu’il s’agit des
coordonnées de M − O dans la base B.

Propriété : si A et B ont pour coordonnées respectives (u 1 , . . . , u n ) et (v 1 , . . . , v n ) dans le repère R, alors les


−−→ −−→ −−→ −−→
coordonnées du vecteur AB dans la base B sont (v 1 −u 1 , . . . , v n −u n ). Il suffit pour cela d’écrire AB = OB −OA .
NT
II HYPERPLANS AFFINES

1) Équation
Équation(s) cartésienne(s) d’un hyperplan affine : Soit R = (O, B) un repère de E, avec dim(E) = n, soit
(H , H) un hyperplan affine de E, soit a 1 x 1 + · · · + a n x n = 0 une équation de H dans la base B (un des a i
au moins est non nul), soit A(u 1 , . . . , u n ) ∈ H . Un point M de coordonnées (x 1 , . . . , x n ) appartient à H si et
−−→
seulement si AM ∈ H, ce qui revient à dire que a 1 (x 1 − u 1 ) + · · · + a n (x n − u n ) = 0, on obtient une équation
cartésienne de H de la forme a 1 x 1 + · · · + a n x n = b.

FExercice 29.2 Montrer que la réciproque est vraie, c’est à dire que les points de coordonnées (x 1 , . . . , x n ) vérifiant une
équation du type a 1 x 1 + · · · + a n x n = b avec au moins un des coefficients a i non nul, forment un hyperplan affine de
MO

direction l’hyperplan vectoriel d’équation cartésienne a 1 x 1 + · · · + a n x n = 0.

2) Hyperplans affines dans un euclidien


On se place dans un repère R = (O, B) orthonormal (ce qui signifie que B est un b.o.n. de E).

Équation cartésienne et produit scalaire


Soit H un hyperplan affine de direction H, on sait que H admet une équation cartésienne de la forme
α1 x 1 + · · · + αn x n = c où les αi sont non tous nuls, soit n(α1 , . . . , αn ), et soit A(a 1 , · · · , a n ) un point de H , alors :

M(x 1 , . . . , x n ) ∈ H ⇐⇒ α1 x 1 + · · · + αn x n = c
⇐⇒ α1 x 1 + · · · + αn x n = α1 a 1 + · · · + αn a n (car A ∈ H )
⇐⇒ α1 (x 1 − a 1 ) + · · · + αn (x n − a n ) =
−−→
⇐⇒ (n|AM ) = 0

On dit que H est l’hyperplan affine passant par A et normal au vecteur n.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 291 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Équations linéaires Chapitre 29 : Sous-espaces affines

À retenir
Les coordonnées d’un vecteur normal à H se lisent directement sur une équation cartésienne de H .
La direction de l’hyperplan affine est H = {x ∈ E / (n|x) = 0} = Vect [n]⊥ .

NE
Distance d’un point à un hyperplan affine
M
Soit H un hyperplan affine, M ∈ E, P son projeté orthogonal sur H
et soit A ∈ H , alors AM2 = AP 2 + PM2 , par conséquent la distance AM
est minimale lorsque A = P auquel on a AM = PM, cette distance est


appelée distance de M à H et notée : n

d(M, H ) = PM. P
A

Calcul de d(M, H )
−−→ −−→ −−→ −−→ − −−→ −

AIG
Soit →

n un vecteur normal à H et A un point de H on a AM = AP + PM or AP ⊥→
n , d’où AM · →
n =
−−→ →− →

PM · n = ±PMk n k (vecteurs colinéaires) et donc :
¯−−→ ¯

−¯
¯AM · n ¯
¯
d(M, H ) = PM =
k→

nk
Si H est donné par une équation cartésienne α1 x 1 + · · · + αn x n = c dans un repère orthonormal, alors on
−−→ −
peut prendre n(α1 , . . . , αn ) et on a AM · →
n = α1 (x 1 − a 1 ) + · · · + αn (x n − a n ) = α1 x 1 + · · · + αn x n − c car A ∈ H ,
par conséquent on a :
|α1 x 1 + · · · + αn x n − c|
d(M, H ) = q
α21 + · · · + α2n

III ÉQUATIONS LINÉAIRES


NT
1) Définition

Définition 29.3
Une équation linéaire est une équation du type : u(x) = b avec u ∈ L (E, F), b ∈ F et x ∈ E (inconnue).
L’équation u(x) = 0F est appelée équation homogène associée.

ZExemples :

 2x − y = 1
– Tout système linéaire est une équation linéaire, par exemple, le système x + 2y = 3 , peut

3x + 5y = −1
MO

se mettre sous la forme u(X) = b avec u : R2 → R3 définie par u(x, y) = (2x − y, x + 2y, 3x + 5y), avec
b = (1, 3, −1) ∈ R3 et X = (x, y) ∈ R2 , il est facile de vérifier que u ∈ L (R2 , R3 ).
– Une équation différentielle linéaire est une équation linéaire, par exemple l’équation différentielle
y 0 + y = 1 peut se mettre sous la forme u(y) = b avec u : C 1 (R, R) → C 0 (R, R) définie par u(y) = y 0 + y (u
est linéaire), et b ∈ C 0 (R, R) la fonction constante 1.

2) Structure des solutions

Théorème 29.1 (structure des solutions d’une équation linéaire)


Soit u ∈ L (E, F) et soit b ∈ F, l’équation linéaire u(x) = b avec x ∈ E a des solutions si et seulement si
b ∈ Im(u). Si c’est le cas, et si x 0 ∈ E désigne une solution particulière (i.e. u(x 0 ) = b), alors l’ensemble
de toutes les solutions est S = {y + x 0 / y ∈ ker(u)} = x 0 + ker(u). C’est donc un sous-espace affine de
direction ker(u).

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 292 – ©Fradin Patrick – https://mpsi.tuxfamily.org


Solution des exercices Chapitre 29 : Sous-espaces affines

Preuve : Il est clair qu’il y a des solutions si et seulement si b ∈ Im(u). Si on a u(x 0 ) = b, alors l’équation u(x) = b
équivaut à u(x) = u(x 0 ), ou encore à u(x − x 0 ) = 0F (u est linéaire), ce qui équivaut encore à ∃ y ∈ ker(u), x = y + x 0 . 

ZExemples :
– Le système linéaire équivaut à (méthode de Gauss 2 ) :

NE
 
 −y + 2x = 1  −y + 2x = 1
5x = 5 (L2 ← L2 + 2L1 ) ⇐⇒ x = 1
 
13x = 4 (L3 ← L3 + 5L1 ) 0 = −9 (L3 ← L3 − 13L2 )

La dernière équation montre que ce système n’a pas de solution (i.e. b ∉ Im(u)).
– Pour l’équation différentielle, il y a une solution particulière : y 0 : t 7→ 1. L’équation homogène associée
est y 0 + y = 0 dont¯ les solutions sont les fonctions y = λφ où φ : t 7→ e −t . L’ensemble des solutions est
donc S = 1 + λφ ¯ λ ∈ R .
© ª

IV SOLUTION DES EXERCICES

AIG
Solution 29.1

Solution 29.2
NT
MO

2. Carl Friedrich (1777 – 1855) : mathématicien allemand de génie, sans doute l’un des plus grands de tous les temps.

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 293 – ©Fradin Patrick – https://mpsi.tuxfamily.org


NE
Table des matières

1 Éléments de logique 1
I Notions ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1) Vocabulaire lié aux ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
II Notions de logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1) Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

AIG
2) Connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
4) Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5) Retour sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
III Le raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1) Raisonnement par l’absurde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2) Raisonnement par analyse-synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3) Démontrer une implication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4) L’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5) La récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Nombres complexes 12
I Écriture algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
NT
1) L’ensemble des complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2) Partie réelle, partie imaginaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3) Conjugué d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
II Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2) Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
III Forme trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1) Le groupe unité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2) Exponentielle d’un imaginaire pur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3) Argument d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4) Racines nes d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
IV Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
MO

1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2) Formules d’Euler et de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
V Représentation géométrique des complexes, applications . . . . . . . . . . . . . . . . . . . . . . 20
1) Affixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2) Distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3) Angles orientés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4) Similitudes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3 Calculs algébriques 24
I Sommes et produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2) Changement d’indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4) Sommes doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 294 – ©Fradin Patrick – https://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

II Binôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1) Factorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2) Coefficients binomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3) Formule du binôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
III Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

NE
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2) Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4 Généralités sur les fonctions 34


I Rappels et compléments sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2) Opérations sur les fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
II Continuité, dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2) Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

AIG
3) Plan d’étude d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
III Primitives, intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2) Calculs d’intégrales et de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3) Primitives de certaines fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . 41
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

5 Fonctions usuelles 44
I Fonctions circulaires - Inversions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1) Fonctions circulaires : rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2) Inversion des fonctions circulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
II Fonctions logarithme et exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1) Logarithme népérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2) La fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
NT
III Fonctions puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1) Puissance quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2) Croissance comparée de ces fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
IV Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2) Trigonométrie hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

6 Équations différentielles 55
I Fonctions à valeurs complexes (et variable réelle) . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2) Continuité, dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
MO

3) Primitives, intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
II Équations différentielles linéaires du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
III Équations différentielles linéaires du second ordre . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1) Étude de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2) Étude de l’équation avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
IV Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1) Changement de variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2) Équations à variables séparées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3) Équation de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 295 – ©Fradin Patrick – https://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

7 Applications - Relations 64
I Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2) Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3) Famille d’éléments d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

NE
II Injection, surjection, bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1) Injection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2) Surjection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3) Bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
III Images directes, images réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
IV Relations binaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2) Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3) Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

AIG
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

8 Nombres réels 75
I L’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
1) Rappels sur les rationnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2) Opérations et ordre sur les réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
II Borne inférieure, borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
1) Propriété fondamentale de l’ensemble des réels . . . . . . . . . . . . . . . . . . . . . . . . 76
2) Intervalles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3) La droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4) Voisinages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
III Approximation d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
1) Valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
NT
3) Approximations décimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

9 Suites numériques 84
I Suites réelles, généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2) Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3) Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
II Suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3) Convergence et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4) Convergence et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
MO

5) Caractérisations séquentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
III Suites ayant une limite infinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2) Limite infinie et ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3) Limite infinie et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
IV Théorèmes d’existence d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1) Suites monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2) Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3) Le théorème de BOLZANO - WEIERSTRASS . . . . . . . . . . . . . . . . . . . . . . . . . . 91
V Comparaison des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
VI Extension aux suites complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 296 – ©Fradin Patrick – https://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2) Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
VII Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

NE
10 Arithmétique 95
I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
1) La propriété fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

AIG
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
V Nombres premiers, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
2) Décomposition en facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3) Notion de valuation p-adique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

11 Limite d’une fonction 106


I Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
NT
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3) Limite à gauche, limite à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
II Propriétés des limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
1) Limites et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
2) Limite et relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3) Limite et composition des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4) Limite et sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
III Calculs de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
1) Comparaison des fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2) Les exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
MO

1) Définition de la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113


2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

12 Continuité 114
I Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2) Théorèmes généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
II Fonctions continues sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
1) Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
2) Continuité sur un segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
3) Uniforme continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
III Continuité et fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
1) Image d’un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 297 – ©Fradin Patrick – https://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

2) Monotonie et continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118


3) Théorème des bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
1) Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

NE
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

13 Dérivation 122
I Dérivée première . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
2) Théorème généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3) Dérivabilité à gauche et à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4) Dérivée d’une bijection réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
II Applications de la dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1) Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2) Les accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3) Sens de variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

AIG
III Dérivées successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
1) Classe d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2) Formule de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3) Classe d’une composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4) Classe d’une réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
IV Extension aux fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3) Classe d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

14 Développements limités 132


I Développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
NT
2) Formule de Taylor-Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3) Développements usuels en 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
II Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
1) Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
2) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
3) Développements usuels (compléments) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
III Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
1) Recherche d’une limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
2) Étude locale d’une fonction au voisinage d’un point . . . . . . . . . . . . . . . . . . . . . 137
3) Étude locale au voisinage de l’infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4) Recherche d’un équivalent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
MO

15 Structures algébriques 139


I Lois de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
2) Élément neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
II Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
2) Sous-groupes d’un groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
III Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
1) Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
2) Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 298 – ©Fradin Patrick – https://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

16 Polynômes 145
I Ensemble des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
2) Opérations sur les polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
II Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

NE
1) Degré d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
2) Algorithme de la division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
3) Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
III Fonctions polynomiales, racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
1) Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
2) Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
3) Corps algébriquement clos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
4) Relations racines coefficients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
IV Formule de Taylor des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
1) Dérivation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
2) Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

AIG
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

17 Arithmétique des polynômes 154


I Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
1) La division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
2) Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
3) Diviseurs communs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
II Éléments premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
1) Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2) Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
III Le plus grand diviseur commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
3) Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
NT
IV Le plus petit multiple commun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
V Polynômes irréductibles, décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
2) Décomposition en facteurs irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3) Notion de P-valuation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
4) Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

18 Espaces vectoriels 162


I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
MO

2) Exemples de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163


3) Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
4) Sous-espaces vectoriels d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 163
II Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
1) Définition, noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
3) S.e.v. et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
III S.e.v. d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
1) Sous-espace engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
2) Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
3) Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
4) S.e.v. supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
IV Projections, symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
1) Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 299 – ©Fradin Patrick – https://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

2) Symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
V Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
1) Sous espace engendré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
2) Sommes de s.e.v. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

NE
19 Fractions rationnelles 172
I Construction de l’ensemble des fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . 172
1) Définition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
2) Opérations sur les fractions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
3) Représentants irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
II Degré, pôles et racines d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1) Notion de degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
2) Pôles et racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
3) Fonctions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
4) Dérivation d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
III Décomposition d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

AIG
1) Partie entière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
2) Éléments simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
3) Existence de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
IV Décomposition dans le cas complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
2) Calcul d’une partie polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
3) Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
V Décomposition dans le cas réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
1) Forme de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
2) Calcul des éléments simples de seconde espèce . . . . . . . . . . . . . . . . . . . . . . . . 180
VI Applications de la décomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
1) Calcul de la dérivée n-ième d’une fraction . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
2) Primitives d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
NT
VII Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

20 La dimension finie 183


I Espaces de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
1) Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
2) Familles libres, familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
3) Familles libres et familles liées en dimension finie . . . . . . . . . . . . . . . . . . . . . . 185
II Propriétés de la dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
1) Bases, coordonnées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
2) Sous-espaces vectoriels en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . 188
3) Applications linéaires et dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
III Notion de rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
1) Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
MO

2) Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191


3) Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
IV Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
1) Hyperplans en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

21 Séries numériques 195


I Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
2) Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
3) Séries géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
II Séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
1) Critère de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
2) Théorèmes de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 300 – ©Fradin Patrick – https://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

3) Comparaison avec une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199


III Séries à termes quelconques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1) Séries absolument convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
2) Séries alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
3) Séries obtenues par une formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

NE
4) Développement décimal d’un réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

22 Matrices 203
I Matrices, liens avec les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
2) Structure d’espace vectoriel sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 205
3) Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
II Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
3) Propriétés du produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210

AIG
III Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
2) Retour aux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
IV Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
1) Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
2) Formules du changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
3) Changement de bases et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . 213
4) Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
V Opérations élémentaires sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
1) Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
2) Propriétés du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
3) Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
4) Calcul pratique du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
NT
5) Calcul pratique de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
VI Matrices par blocs, matrices extraites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
1) Matrices par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
2) Matrices extraites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
VII Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

23 Dénombrement 226
I Cardinal d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
1) Rappels : injections, surjections, bijections, permutations . . . . . . . . . . . . . . . . . . 226
2) Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
3) Propriétés du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
II Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
1) Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
MO

2) Le nombre d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229


3) Le nombre de parties d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
4) Le nombre de bijections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
5) Le nombre de p-parties (ou p-combinaisons) . . . . . . . . . . . . . . . . . . . . . . . . . 230
III Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

24 Déterminants 232
I Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
1) Décomposition des permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
2) Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
II Applications n-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
2) Développement suivant une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
III Déterminant dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 301 – ©Fradin Patrick – https://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

1) Formes n-linéaires en dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235


2) Déterminants de n vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
3) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
IV Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

NE
2) Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
V Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
2) Propriétés du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . 238
3) Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . 239
4) Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
VI Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
1) Géométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2) Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
3) Orientation d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
VII Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

AIG
25 Probabilités sur un univers fini 244
I Univers finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
1) Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
2) Évènements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
II Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
1) Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
3) Probabilité des événements élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
III Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
2) Probabilités composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
3) Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
4) Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
NT
IV Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
1) Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
2) Indépendance d’une famille d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250

26 Variables aléatoires sur un univers fini 252


I Notion de variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
2) Loi d’une VA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
3) Image d’une VA par une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
II Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
1) Variables certaines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
2) Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
MO

3) Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254


4) Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
III Espérance et variance d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
1) Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
2) Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
3) Cas des lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
IV Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2) Indépendance de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
3) Applications de l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
4) Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
V Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 302 – ©Fradin Patrick – https://mpsi.tuxfamily.org


TABLE DES MATIÈRES TABLE DES MATIÈRES

27 Espaces euclidiens 266


I Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
2) Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
3) Bases orthonormales dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268

NE
4) Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
5) Distance d’un vecteur à un s.e.v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
II Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
2) Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
3) Espace vectoriel euclidien orienté - Produit mixte . . . . . . . . . . . . . . . . . . . . . . . 273
III Endomorphismes orthogonaux en dimension 1 et 2 . . . . . . . . . . . . . . . . . . . . . . . . . 274
1) En dimension 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
2) En dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276

28 Intégration sur un segment 277

AIG
I Intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
1) Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
2) Intégrale d’une fonction en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
II Intégrale des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
1) Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
2) Approximation uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
3) Définition de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
4) Premières propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
III Calcul d’une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
1) Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
2) Rappels : techniques de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
IV Propriétés de l’intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
1) Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
NT
2) Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
V Compléments : recherche de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
1) Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
2) Fractions rationnelles en sinus et cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
3) Fractions rationnelles en ch et sh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
4) Fonctions se ramenant aux types précédents . . . . . . . . . . . . . . . . . . . . . . . . . 288
5) Polynômes trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
VI Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

29 Sous-espaces affines 290


I Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
2) Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
MO

3) Repères cartésiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291


II Hyperplans affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
1) Équation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
2) Hyperplans affines dans un euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
III Équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
1) Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
2) Structure des solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
IV Solution des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293

MPSI3 (2017-18) LYCÉE M ONTAIGNE – 303 – ©Fradin Patrick – https://mpsi.tuxfamily.org

Vous aimerez peut-être aussi